时间:2023-06-28 17:31:22 | 浏览:36
中国信通院云大所开源和软件安全部主任郭雪表示,AI大模型的本质决定了开源是其必经之路。为充分发挥大型模型的通用性优势,促进大型模型技术在产业中真正落地,中国信息通信研究院联合产业各方共同编制“纸鸢”开放人工智能模型许可证,下一步将发布《纸鸢开放人工智能模型许可证(征求意见稿)》。
有业内人士认为,此举有助于政府对AI的监管,同时也在一定程度上避免“重复造轮子”。
据智东西统计,自2022年11月ChatGPT发布至5月29日,国内至少有55个类GPT大模型已经推出或马上面世。其中,在AI企业发布的大模型中,最受关注的无疑是NLP领域龙头企业科大讯飞,其于5月6日推出的“星火”大模型已经开始内测。据发布会上,科大讯飞董事长刘庆峰释放的消息,6月9日,“星火”大模型将迎来第一次升级。
行业高管与知名学者警告AI对人类“生存威胁”
据界面新闻,非营利组织“人工智能安全中心”(Center for AI Safety)5月30日在其网站刊出多位行业高管、学者与公众人物联名签署的声明,指出“减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险同等级别”。
联名签署人包括OpenAI首席执行官山姆·阿尔特曼、谷歌DeepMind首席执行官德米斯·哈萨比斯和Anthropic首席执行官达里奥·阿莫迪三大AI企业高管,“深度学习三剑客”中的两人、图灵奖得主杰弗里·辛顿与约书亚·本吉奥,微软首席技术官凯文·斯科特、OpenAI首席技术官米拉·穆拉蒂与谷歌负责技术和社会事务的高级副总裁詹姆斯·马尼卡,清华大学智能产业研究院(AIR)院长张亚勤以及中国科学院自动化研究所研究员、人工智能伦理与治理研究中心主任曾毅也参与联名。
自我监管 凭证入场
早在5月中旬,OpenAI的首席执行官山姆·阿尔特曼(Sam Altman)在美国国会针对人工智能监管的听证会上,反复强调,AI的强大,让监管在现在看起来就非常重要,而且他很同意需要一个新的机制来处理AI的监管问题。他甚至有备而来地在这次听证会上建议美国政府应该如何监管像OpenAI的公司,包括提出了三点计划:
? 组建一个新的政府机构,负责为大型AI模型颁发许可,如果有公司模型不符合政府标准,该机构可以撤销该公司的许可证;
? 为 AI 模型创建一套安全标准,包括对其危险能力的评估。模型必须通过某些安全测试,例如它们是否可以“自我复制”和“随意渗透”,即开始自主行动不受控制。
? 要求独立专家对模型在各种指标上的表现进行独立审计。
不过,对于当下开源界和企业界对AI模型最大的争议之一——训练数据
是否应该透明化的问题,他却没有正面回答;也没有对另外一些颇有争议的问题提出回应,比如AI是否可以基于有版权的作品进行训练,以及AI开发者该如何补偿这些作品的创作者。
奥特曼此前曾表示, “需要一部针对人工智能的新法律”。而这次,他也非常清楚地表明,230条款不是正确的监管人工智能的框架。(美国《通信规范法案
》第230条被视为互联网行业的法律基石:如果用户在网站上发布虚假、有害内容,网站无需对用户发布的有害信息承担连带责任)。
奥特曼还警告说,如果AI出错了,那后果会非常严重。“对于一项非常新的技术,我们需要一个新的框架。“当然,我们这样的公司对我们推出的工具负有很多责任,但工具用户也一样。”
不过网友对他的这番话也不全像议员们那样买账。有推特网友就讽刺说,奥特曼的实际想法其实是,”现在OpenAI领先了,政府快来管管我们的竞争者吧。“ 许多 AI研究人员也认为这是一种反竞争行为,因为”凭证入场“对大公司有利,却可能难倒小公司、研究人员和免费的开源替代方案。
招商证券大模型采购“半日游” 网友:利好国产大模型
5月29日下午三点,招商局集团电子招投标平台发布《招商证券微软大语言模型服务采购项目-询价采购公告》,采购人为招商证券股份有限公司。然而至当晚九点,据招商局集团电子招标采购交易平台显示,该采购项目已终止,终止原因为采购需求变更。
招商证券原计划引进微软Azure-Open AI大语言模型,根据其业务需求场景进行AI能力研究开发工作,预先研究及论证大语言模型在量化投研、精准营销、财富管理、客户服务、智能投顾、人员效能等场景上产生的应用价值。
招商证券此举抓住了人工智能技术的风口,值得肯定。我们也可以看到,证券机构也越来越多的采用大模型技术应用,认可人工智能技术对业务发展的帮助。
此次招标被快速终止后,引发网友广泛讨论。
有网友称:“下午看到招标公告感觉不可思议”、“一直强调数据安全,国产崛起被招商当耳边风了。
也有网友称,此举利好国产大模型,招商证券放弃采购国外大模型技术,或许是为了选择国产技术。
本文源自同花顺财经
近日,谷歌副总裁兼工程研究员、Vector研究所首席科学顾问、多伦多大学名誉教授、伦敦大学学院(UCL)盖茨比计算神经科学中心创立者、2019年计算机界最高荣誉“图灵奖”获得者、被称为The God father of AI(人工智能教父)
中国信通院云大所开源和软件安全部主任郭雪表示,AI大模型的本质决定了开源是其必经之路。为充分发挥大型模型的通用性优势,促进大型模型技术在产业中真正落地,中国信息通信研究院联合产业各方共同编制“纸鸢”开放人工智能模型许可证,下一步将发布《纸鸢
英国著名理论物理学家斯蒂芬·霍金(Stephen Hawking)在去世前,曾多次发表关于人工智能(AI)可能对人类造成灾难性影响的观点。如今,我们看到 AI 的迅速发展和广泛应用,霍金的预言是否正在应验?我们如何发展 AI,才能避免潜在的
来源:环球时报 重播
由ChatGPT和GPT-4引发的这一轮“人工智能狂潮”远比人们最初预想的持续更久,伴随而来的争议与忧虑近期也在不断发酵和上升。围绕争议,人工智能专家分成两种截然不同的派别,一种对当下以ChatGPT为代表的人工智能技术表达出深切担忧,另一
麻省理工学院的物理学家和人工智能专家马克斯·泰格马克(Max Tegmark)近日在接受瑞典国家广播公司SVT的采访时表示,人工智能有50%的可能性会消灭人类,而且我们将不知道它如何或何时发生,因为机器将“比我们聪明得多”。据报道,泰格马克
据悉,本月早些时候,三家全球顶尖AI公司的CEO阿尔特曼、哈萨比斯、阿莫迪和拜登展开了一场特殊的会谈,旨在讨论未来人工智能的监管问题。后续美国媒体报道称,阿尔特曼等人警告拜登人工智能系统目前已经带来风险,已严重到需要政府干预的程度,希望拜登
“人工智能(AI)可能导致人类灭绝,危险程度不亚于大规模疫情和核战争。”350多位AI业界领袖和专家于5月30日发表联合声明,称应当将AI危机视为全球优先事项,呼吁决策者认真对待即将到来的“AI革命”并制定相关法规。路透社5月31日报道称,
“人工智能(AI)可能导致人类灭绝,危险程度不亚于大规模疫情和核战争。”350多位AI业界领袖和专家于5月30日发表联合声明,称应当将AI危机视为全球优先事项,呼吁决策者认真对待即将到来的“AI革命”并制定相关法规。路透社5月31日报道称,
【环球时报综合报道】“人工智能(AI)可能导致人类灭绝,危险程度不亚于大规模疫情和核战争。”350多位AI业界领袖和专家于5月30日发表联合声明,称应当将AI危机视为全球优先事项,呼吁决策者认真对待即将到来的“AI革命”并制定相关法规。路透
随着计算能力的不断提高和数据规模的扩大,人工智能尤其是深度学习领域取得了显著的进展。近年来,AI大模型,如GPT系列、BERT等,在自然语言处理、计算机视觉等领域取得了令人瞩目的成果,引发了人们对人工智能发展的关注。AI硅基小助手【AI硅基
人工智能,简称AI,是指利用计算机模拟人类的智能行为,实现智能化的一种技术和应用。它是信息技术领域的前沿科技,涵盖了机器学习、自然语言处理、计算机视觉等多个领域。人工智能的定义可以从不同角度进行解释。从技术上讲,人工智能是一种通过模拟人类智
人工智能是计算机科学领域的一门技术,旨在开发能够模拟人类智能的计算机系统。它的目标是使计算机具备感知、理解学习、推理决策和交互的能力,从而完成各种任务。接下来,让我们详细了解人工智能的感知与理解能力。人工智能致力于让计算机能够感知和理解各种
极目新闻记者 国倩通讯员 余紫滨5月9日,荆州学院举办“荆院楚风”学术论坛讲座第五讲,本次会议采取“线上+线下”相结合的形式举行,长江大学计算机科学学院教授陈琳担任主讲人。学术讲坛会场“什么是人工智能?”——即能够和人一样进行感知、认知、决
众所周知,刷脸认证、自动驾驶、大数据推送、智能音箱、手术机器人……人工智能被广泛应用于各个领域,由此引起的数据伪造、算法瓶颈、隐私安全、伦理困境等问题也日益凸显。“AI 基础设施建设亟需从自身底层能力增强出发,以内生驱动力突破算法关、数据关