时间:06/03/2023 00:00
浏览: 14864
综合《路透》与《CNBC》报导,周二(5月30日),OpenAI执行长奥特曼(Sam Altman)、谷歌主管、350名教授、专家在非营利组织人工智慧安全中心(CAIS)公开一份联署的简短声明,警告人工智慧(AI)让人类毁灭的风险堪比核战争。
「减低AI毁灭人类的风险,应该与流行病、核战争等其他社会规模的风险等量齐观,成为全球优先处理的事项。」该声明敦促决策官员重视。
350多人的联署名单上,除了奥特曼,还包括AI公司DeepMind、Anthropic的执行长、微软和谷歌的高管。还有2位获得2018 年图灵奖的AI教父:辛顿(Geoffrey Hinton)、Yoshua Bengio、哈佛大学和中国清华大学等机构的教授。
CAIS特别点名获得2018 年图灵奖的AI教父Yann LeCun,没有签署这一份声明,Yann LeCun目前在脸书母公司Meta担任主管。
「我们要求许多Meta员工签名。」 CAIS主任亨德里克斯(Dan Hendrycks)表示,Meta没有立即回应置评请求。
这封信对外公开时,恰逢美国-欧盟贸易和科技委员会在瑞典举行会议,预计政客人物将在会上讨论人工智慧监管问题。
特斯拉执行长马斯克(Elon Musk)、一群AI专家及科技业高管率先在4月份警告AI对社会的潜在风险。「我们已经向马斯克发出邀请,希望他能在本周签署该声明。」亨德里克斯说。
AI最新发展创造一些工具,支持者声称,这些工具可用於医学诊断、撰写法律简报等领域,但这引发人们担忧,AI技术可能导致隐私侵犯和权力错误信息宣传活动,还会催生出为自己利益思考的「智慧机器」。
2个月前,非营利组织未来生命研究所(FLI)发表一封类似的公开信,由马斯克和其他数百人联名签署,要求紧急暂停高阶人工智慧(AI)的研究,理由是人类面临风险。
「我们的信件使暂停研发高阶AI成为主流,因为高级AI有毁灭人类的风险,我最近也签署一封信件,现在终於可以开始建设性的公开对话了。」FLI总裁泰格马克(Max Tegmark)表示。
人工智慧的先驱、AI教父辛顿(Hinton)早些时候告诉《路透》,AI对人类构成的威胁,比极端气候的威胁更为紧迫。
欧盟AI成为第一个制订AI规范的地区,引起OpenAI创办人奥特曼上周批评欧盟监管过度,并扬言要离开欧洲,但是遭到政界人士的批评后几天,奥特曼改变立场。
今年来,世界各地大公司竞相开发具有竞争力的产品和功能,原来是因为ChatGPT激发大家对人工智慧有更多认识和采用。
奥特曼的聊天机器人ChatGPT APP去年11月问世,风靡全球,近几个月AI科技发展迅速,ChatGPT上线仅两个月,用户就达到1亿。
ChatGPT对用户的提问做出类似人类反应,这种能力令研究人员和民众惊叹不已,这表明人工智慧可以模仿人类,取代一些蓝领与白领的工作。
奥特曼也因此成为AI业界的代言人,欧盟执委会主席冯德莱恩周四会见奥特曼,欧盟工业界负责人布勒东下个月将在旧金山与奥特曼会面。
「我们是否应该将所有工作自动化,包括令人满意的工作? 」
今年3月份,奥特曼承认他对AI科技感到有点害怕,因为他担心威权独裁政府会开发这项技术。特斯拉的马斯克和谷歌前执行长施密特等其他科技领袖也警告AI给社会带来的风险。
在3月份发表的一封公开信当中,马斯克、苹果联合创办人沃兹尼亚克、几位科技业领袖敦促,AI实验室停止训练比GPT-4更强大的系统,GPT-4是 OpenAI 最新的大型语言模型,他们还呼吁这类高级AI的开发应暂停6个月的时间。
「当代AI在一般任务上变得与人类具有竞争力。」信件强调。
「我们是否应该将所有工作自动化,包括令人满意的工作? 我们是否应该发展最终可能超过我们、超越我们、取代我们的非人类思维? 我们应该冒着人类文明失控的风险吗?」公开信提出一连串关键问题。
图片翻摄自网路,版权归原作者所有。如有侵权请联系我们,我们将及时处理。