登录
首页 >  科技周边 >  人工智能

美媒:人工智能危险程度堪比疫情、核战

来源:搜狐

时间:2023-06-02 20:07:07 491浏览 收藏

学习科技周边要努力,但是不要急!今天的这篇文章《美媒:人工智能危险程度堪比疫情、核战》将会介绍到等等知识点,如果你想深入学习科技周边,可以关注我!我会持续更新相关文章的,希望对大家都能有所帮助!

美媒:人工智能危险程度堪比疫情、核战

参考消息网5月31日报道美国《财富》杂志网站5月30日发表题为《萨姆·奥尔特曼和其他技术专家警告,人工智能构成“灭绝风险”,危险程度与疫情、核战不相上下》的报道,全文摘编如下:

技术专家和计算机科学专家警告说,人工智能对人类生存构成的威胁与核战争和全球大流行病相比不相上下,就连替人工智能打头阵的商界领袖也对这项技术威胁人类的生存发出了警告。

非营利研究机构人工智能安全中心30日发表了一份“关于人工智能风险的声明”,在声明上签字的有300多人,开放人工智能研究中心的首席执行官萨姆·奥尔特曼也是其中一个。这封信虽然简短,但它概括了人工智能的风险。信中说:“降低人工智能灭绝人类的风险以及降低流行病和核战争等其他影响全社会的风险,应该成为全球优先考虑的事项。”

这封信的开头表明,声明的目的是为了启动讨论,以准备应对人工智能技术可能导致世界末日的能力。其他签名者包括前谷歌工程师杰弗里·欣顿和蒙特利尔大学计算机科学家约舒亚·本乔。由于这两人对现代计算机科学的贡献,他们被誉为人工智能教父。在最近几周,本乔和欣顿已经多次警告说,人工智能技术未来可能带来危险。欣顿最近离开了谷歌,以便能够更公开地讨论人工智能的风险。

这并非首次发出呼吁,强调在缺乏政府更加严格的监管之下,进一步深入研究先进人工智能可能会导致何种灾难性后果。今年3月,超过1000名技术专家以该技术具有破坏性的潜力为由,呼吁暂停研究先进人工智能6个月,埃隆·马斯克也是其中之一。

奥尔特曼本月警告国会,随着技术飞速发展,监管已经跟不上了。

奥尔特曼发表的最新声明不同于之前的信件,它并未提出具体目标,而是呼吁进行讨论。在本月早些时候接受美国有线电视新闻网采访时,欣顿表示他没有在3月份的信件上签字。

尽管包括开放人工智能研究中心甚至谷歌在内的顶尖人工智能研究机构的高管呼吁各国政府在监管人工智能方面尽快采取行动,但一些专家警告说,在当前的一些问题——包括虚假信息和可能存在的偏见——已经造成严重破坏的情况下,讨论这项技术未来威胁人类生存的风险是适得其反的。还有人甚至认为,奥尔特曼等首席执行官借着公开讨论人工智能的风险,实际上一直试图转移人们对该技术目前已存在问题的注意力。

但预言人工智能将带来世界末日的人也警告说,这项技术发展得过快,以至于风险可能很快变成一个问题,是人力所不能及的。很多人感到担忧,超级人工智能具备自我思考和思辨能力的实现速度超乎预期。一些专家警告说,这项技术目前并不符合人类的利益和福祉。

欣顿本月在接受《华盛顿邮报》采访时说,超级人工智能正在快速发展,现在可能只剩下20年的时间了,现在是时候就先进人工智能的风险进行对话了。

他说:“这并不是科幻小说。”(编译/涂颀)

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

声明:本文转载于:搜狐 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>