登录
首页 >  科技周边 >  人工智能

AI可能灭绝人类!顶级大佬们联名呼吁:降低AI风险应为全球首要任务

来源:搜狐

时间:2023-06-03 17:37:14 238浏览 收藏

golang学习网今天将给大家带来《AI可能灭绝人类!顶级大佬们联名呼吁:降低AI风险应为全球首要任务》,感兴趣的朋友请继续看下去吧!以下内容将会涉及到等等知识点,如果你是正在学习科技周边或者已经是大佬级别了,都非常欢迎也希望大家都能给我建议评论哈~希望能帮助到大家!

当地时间本周二(5月30日),非营利组织“人工智能安全中心”(Center for AI Safety)发布声明,呼吁降低人工智能(AI)对人类带来的灭绝风险。

这份仅有4行的简短声明称,降低AI可能带来的灭绝风险,应与流行病和核战争等一样成为全球首要任务。

AI可能灭绝人类!顶级大佬们联名呼吁:降低AI风险应为全球首要任务

↑这份简短的声明仅有4行

据悉,包括OpenAI首席执行官山姆(Sam Altman)、“AI教父”杰弗里(Geoffrey Hinton)、微软首席技术官凯文·斯科特(Kevin Scott)等在内的数百名AI行业的领军人物、学者以及来自其他领域,如气候领域的知名人士共同签署了这份声明。

媒体报道称,尽管AI专家认为,现阶段的生成式AI聊天机器人还属于通过接受数据训练后直接“复制粘贴”的模式,并不会进行思考,但鉴于对AI行业的大量炒作和投资,人们呼吁在AI时代伊始就要对其进行监管。剑桥大学研究AI的教授大卫(David Krueger)则表示,10多年来,自己一直担心AI可能导致人类的灭绝,现在很开心大家能提出这个倡议。

报道称,此声明发表之时,正值OpenAI的生成式聊天机器人ChatGPT“爆红”并推动科技行业纷纷瞄准AI领域发起竞争之际。在此情况下,越来越多的立法者、科技人士等对新一代AI聊天机器人可能传播错误信息和取代部分职业的可能性发出警告。

“人工智能安全中心”的负责人丹(Dan Hendrycks)在其社交平台上称,AI带来的风险有很多,如传递错误信息、造成偏见等。他还将AI领域现在的情况,与此前研发出原子弹的科学家在研发成功后提出的警告相联系。“正如(‘原子弹之父’)罗伯特·奥本海默(Robert Oppenheimer)所说,我们的世界已经不一样了。”他写道。

AI可能灭绝人类!顶级大佬们联名呼吁:降低AI风险应为全球首要任务

↑丹提醒人们AI带来的风险有很多

事实上,这并不是业界首次出于对AI的担忧而提出联合倡议。据此前报道,包括特斯拉创始人马斯克、苹果联合创始人沃兹尼亚克等也曾在一封公开信里警告,呼吁人类暂停开发更强大的人工智能,为时至少6个月。而被称为“AI教父”的杰弗里已经从其工作多年的谷歌离职,并开始畅谈AI所带来的风险。

红星新闻此前报道:

红星新闻记者 黎谨睿

责编 任志江 编辑 郭庄

到这里,我们也就讲完了《AI可能灭绝人类!顶级大佬们联名呼吁:降低AI风险应为全球首要任务》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于AI风险,大佬呼吁,灭绝人类的知识点!

声明:本文转载于:搜狐 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>