摘要:·专注于人工智能技术伦理的AI和数字政策中心要求美国联邦贸易委员会调查OpenAI是否违反了消费者保护规则,认为其推出的AI文本生成工具“存在偏见、具有欺骗性,并且对公共安全构成风险”。·OpenAI首席执行官山姆·奥特曼发布推文:“在飓风...
·专注于人工智能技术伦理的AI和数字政策中心要求美国联邦贸易委员会调查OpenAI是否违反了消费者保护规则,认为其推出的AI文本生成工具“存在偏见、具有欺骗性,并且对公共安全构成风险”。
·OpenAI首席执行官山姆·奥特曼发布推文:“在飓风眼中非常平静。”他宣布将在5月和6月展开一次全球之旅,与世界各地的用户与开发者交流。
包括特斯拉首席执行官埃隆·马斯克在内的1748人签署公开信,呼吁暂停训练比GPT-4更强大的人工智能系统至少6个月。 这封信立即引起了轩然大波,并在科技界持续震荡了两天。
一些公开信的签名者收回立场,一些知名签名者被证明本人并没有签署,还有许多人工智能研究人员和专家反对这封信的建议。有媒体称这是一场巨大的闹剧。
与此同时,专注于人工智能技术伦理的AI和数字政策中心(CAIDP)要求美国联邦贸易委员会(FTC)调查OpenAI是否违反了消费者保护规则,认为其推出的AI文本生成工具“存在偏见、具有欺骗性,并且对公共安全构成风险”。
对于这些争议,OpenAI首席执行官山姆·奥特曼(Sam Altman)似乎比较淡定。他在3月30日发布推文:“在飓风眼中非常平静。”稍早前,他在推特上说:“一个良好的AGI(通用人工智能)未来所需要的东西:1)调整超级智能的技术能力,2)大多数领先的AGI工作间的充分协调,3)一个有效的全球监管框架,包括民主治理。”
山姆·奥特曼:在飓风眼中非常平静。
奥特曼还宣布将在5月和6月进行一次全球之旅,与OpenAI的用户、开发者和对人工智能感兴趣的人进行交流。他将访问多伦多、里约热内卢、拉各斯、马德里、布鲁塞尔、慕尼黑、伦敦、巴黎、特拉维夫、迪拜、新德里、新加坡、雅加达、首尔、东京和墨尔本。
“今年是1440年,天主教会要求暂停使用印刷机6个月”
这封引发争议的公开信由非营利组织生命未来研究所(Future of Life Institute)撰写,其使命是“减少强大技术带来的全球灾难性和存在性风险”。该机构是一些长期主义支持者的聚集地,长期主义是一种由硅谷科技精英推动的世俗宗教,宣扬寻求大量财富以引导人类解决在遥远未来所面临的问题。具体而言,该研究所专注于减轻人类长期的“生存”风险,如超级智能。表达过长期主义信念的马斯克在2015年向该研究所捐赠了1000万美元。
“只有当我们确信它们(人工智能系统)的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。”信中说,“所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。”“人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。”
“这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。”信中澄清道,指的是微软和谷歌等大型科技公司之间的AI军备竞赛,这些企业在过去几个月快速发布了许多新的人工智能产品。
除了马斯克以外,其他值得注意的签名者包括苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、Stability AI首席执行官埃马德·莫斯塔克(Emad Mostaque)、图灵奖得主约书亚·本希奥(Yoshua Bengio)和《人类简史》作者兼历史学家尤瓦尔·赫拉利(Yuval Harari)。开发GPT系列人工智能模型并将其商业化的OpenAI没有员工签署这封信。
生命未来研究所向VICE证实,所有签署者都是“通过直接沟通独立核实的”。尽管有这样的验证过程,但这封信一开始就有很多虚假的签名者,包括冒充OpenAI首席执行官奥特曼、Meta公司首席人工智能科学家杨立昆(Yann LeCun)的人,后来研究所清理了名单。
这封信自公布以来,受到了许多人工智能研究人员包括签名者的审视。纽约大学教授加里·马库斯(Gary Marcus)告诉路透社,“这封信并不完美,但精神是正确的。”Stability AI的首席执行官莫斯塔克在推特上说:“我不认为6个月的暂停是最好的主意,也不同意所有的东西,但那封信里有一些有趣的东西。”
杨立昆在推特上嘲讽:“今年是1440年,天主教会要求暂停使用印刷机和活字印刷术6个月。想象一下,如果普通人能够接触到书籍,会发生什么?他们可以自己阅读圣经,社会就会被摧毁。”
AI“大牛”、斯坦福大学教授吴恩达(Andrew Ng)在推特上说,呼吁在6个月内暂停让人工智能取得超过GPT-4的进展是一个糟糕的想法。“我看到在教育、医疗、食品等方面有许多新的应用,这将帮助许多人。改进GPT-4将有所帮助。让我们平衡人工智能正在创造的巨大价值与现实的风险。”他认为,除非政府介入,否则没有现实的方法来实施暂停并阻止所有团队扩大大型语言模型的规模。让政府暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策。
“负责任的人工智能是重要的,人工智能也有风险。媒体普遍认为,人工智能公司正在疯狂地输送不安全的代码,这不是真的。绝大多数(可悲的是,不是所有)人工智能团队都认真对待负责任的人工智能和安全。”吴恩达写道,“6个月的暂停期并不是一个实用的建议。为了促进人工智能的安全,围绕透明度和审计的法规将更加实用,并产生更大的影响。在推进技术发展的同时,让我们也对安全进行更多投资,而不是扼杀进步。”
一些人工智能专家批评说,这封信进一步推动了“人工智能炒作”周期,而不是列出具体行动。一些人认为,它促进了长期主义的观点,这是一种被批评为有害和反民主的世界观,因为它珍视超级富豪,允许在某些理由下采取道德上可疑的行动。
马斯克与奥特曼曾对峙
由于马斯克曾捐赠生命未来研究所,有分析人士怀疑,他之所以呼吁暂停训练比GPT-4更强大的人工智能系统,是因为在这场竞赛中落后而感到沮丧。
OpenAI成立于2015年,是一家非营利组织,马斯克当时是该组织的公众形象。2016年初《连线》的一篇文章附有一张照片,马斯克双臂交叉,给人的印象是准备彻底改变另一个行业。但马斯克离开OpenAI背后也有故事。
2016年《连线》的一篇文章附有一张照片,马斯克双臂交叉,给人的印象是准备彻底改变AI行业。
据科技媒体Semafor披露,2018年奥特曼与马斯克展开对峙,当时马斯克对OpenAI的进展不满意。几家大型科技公司多年来一直在幕后开发人工智能工具,谷歌在2010年代末取得了重大进展。马斯克担心OpenAI落后于谷歌,他告诉奥特曼他想接管公司以加快发展。但奥特曼和OpenAI的董事会拒绝了马斯克控制这家机构的想法。马斯克带着钱离开了OpenAI,这迫使OpenAI于2019年3月从非营利组织转变为有“利润上限”的营利组织,以成功筹集资金。
Paleofuture.com创始人、《福布斯》撰稿人马特·诺瓦克(Matt Novak)认为,几乎可以肯定的是,特斯拉正在研究强大的人工智能技术。该公司需要复杂的软件来运行其所谓的“完全自动驾驶”功能,尽管它仍然不完美,并且一直是许多安全问题调查的对象。
马斯克还一直在开发人形机器人Optimus,并在2022年展示了原型,但开发仍处于起步阶段。人工智能技术对像Optimus这样的机器人非常有用,但没有迹象表明马斯克或其工程师已经开发了任何接近OpenAI产品的东西。
“GPT-4跨越了伤害消费者的红线”
3月30日,AI和数字政策中心向FTC提出投诉。与生命未来研究所的公开信类似,投诉书呼吁放慢生成式人工智能模型的发展,并实施更严格的政府监督。CAIDP主席马克·罗腾伯格(Marc Rotenberg)是上述公开信的签署人之一。
AI和数字政策中心向FTC投诉OpenAI。
CAIDP称GPT-4模型存在潜在威胁,可以产生恶意代码和高度定制的宣传方式,有偏见的训练数据可能导致在招聘等方面形成刻板印象或不公平的种族和性别偏好。它还指出,OpenAI的产品界面在隐私方面有重大缺陷,比如最近的一个漏洞将ChatGPT的对话历史和可能的支付细节暴露给其他用户。
CAIDP认为GPT-4跨越了伤害消费者的红线,应该采取监管行动,让OpenAI对违反FTC法案第5条的行为负责,该条禁止不公平和欺骗性的贸易行为。投诉书说: “OpenAI在充分了解这些风险的情况下向公众发布了GPT-4,用于商业用途”,包括潜在的偏见和有害行为。它还将AI“幻觉”或生成式模型“一本正经地胡说八道”现象定义为一种欺骗形式。 “ChatGPT将宣传欺骗性的商业声明和广告。”投诉书警告说,有可能将其纳入FTC的权限范围。
在投诉书中,CAIDP要求FTC停止GPT模型的任何进一步商业部署,并要求在未来推出任何模型之前对模型进行独立评估。它还要求提供一种可公开访问的报告工具,类似于允许消费者提出欺诈投诉的工具。
FTC已表示有兴趣监管人工智能工具。近年来有人警告说,有偏见的AI系统可能会招致执法行动,在本周与司法部的联合活动中,FTC主席利纳·汗(Lina Khan) 表示,该机构将寻找大型科技公司试图锁定竞争的迹象。但是,如果FTC对OpenAI进行调查,将标志着其行动的重大升级。