欧易

欧易(OKX)

国内用户最喜爱的合约交易所

火币

火币(HTX )

全球知名的比特币交易所

币安

币安(Binance)

全球用户最多的交易所

堪比流行病与核战争,350余位AI大佬呼吁防范人工智能灭绝人类

2023-06-28 17:33:27 10

摘要: 界面新闻记者|陆柯言 重播 ...

界面新闻记者|陆柯言

暂停

00:00 / 00:00 直播

00:00

进入全屏

0

    点击按住可拖动视频

    美国当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)发布了一份联名公开信。这封信的内容仅有22个英文单词——减轻人工智能灭绝人类的风险,应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项。

    这封公开信由350多名从事AI工作的高管、研究人员和工程师签署,其中包括来自3家头部AI公司的高管:OpenAI CEO山姆·奥特曼(Sam Altman)、DeepMind CEO戴米斯·哈萨比斯 (Demis Hassabis),以及Open AI离职人员创办的公司Anthropic CEO达里奥·阿莫迪(Dario Amodei)。

    图灵奖获得者杰弗里·辛顿 (Geoffrey Hinton)与约书亚·本吉奥 (Yoshua Bengio)也在签署人员之中,他们被称为现代人工智能运动的“教父”。

    另外,中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园也签署了这一公开信。

    自ChatGPT风靡全球后,不断推陈出新的AI技术成果开始引发人们的担忧——人工智能可能很快被大规模用于传播错误信息,也可能会让数百万人在一夜之间丢掉工作。

    担忧者认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏。这些担忧者包括许多人工智能公司的高管,他们同样认为,同行近乎疯狂的开发速度会带来严重的风险,应该受到更严格的监管。

    今年3月,超过1000名技术专家和研究人员也曾签署一封公开信,呼吁暂停六个月的最大人工智能模型的开发。其中提到,“不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的,才能继续开发。

    这封信由另一个专注于AI的非营利组织Future of Life Institute发布,埃隆·马斯克 (Elon Musk) 和其他知名技术领袖参与了签署。

    版权声明:本站所有文章皆是来自互联网,如内容侵权可以联系我们( 微信:bisheco )删除!
    友情链接