登录
首页 >  科技周边 >  人工智能

如何面对AI的“不确定时代”

来源:51CTO.COM

时间:2023-10-16 19:46:10 296浏览 收藏

来到golang学习网的大家,相信都是编程学习爱好者,希望在这里学习科技周边相关编程知识。下面本篇文章就来带大家聊聊《如何面对AI的“不确定时代”》,介绍一下,希望对大家的知识积累有所帮助,助力实战开发!

如何面对AI的“不确定时代”

 AI不断增长的足迹 

AI在日常生活中的影响已经变得越来越明显。从AI生成的歌曲,到仿莎士比亚风格的haikus,再到自动驾驶汽车,再到能够模仿已故亲人的聊天机器人,再到协助我们工作的AI助手,这项技术正逐渐无处不在

随着人工智能的迅猛发展,人工智能很快将变得更加普遍。最近,沃顿商学院教授伊桑·莫里克撰写了一篇关于未来职业工作的实验结果。该实验以波士顿咨询集团的两组顾问为研究对象,每组都被分配了一系列共同的任务。其中一组可以利用当前可用的人工智能来增强他们的工作效果,而另一组则不能

莫里克报告说:“使用AI的咨询师平均多完成12.2%的任务,完成任务的速度比不使用AI的人快25.1%,产生的结果质量也比不使用AI的人高40%。” 

当然,大型语言模型(LLM)中存在的问题,如虚构和偏见,可能会导致这股浪潮消散-尽管现在看来这不太可能。虽然这项技术已经展示了其颠覆性的潜力,但我们还需要几年时间才能体验到海啸的力量。下面让我们来看看即将发生的事情

下一波AI模型 

下一代LLM将比目前的GPT-4(OpenAI)、Palm 2(Google)、Llama(Meta)和Claude 2(Anthropic)更复杂、更通用。埃隆·马斯克的新创业公司Xai很可能也会有一位新的、可能非常有能力的模特参赛者。推理、常识和判断等能力仍然是这些模型面临的巨大挑战。然而,我们可以预期在这些领域中的每一个方面都会取得进展。 

根据《华尔街日报》的报道,Meta正在研究一种至少与GPT-4一样能力的LLM,在下一代的LLM中。根据报告,预计这种新型LLM将在2024年的某个时候问世。我们有理由相信,OpenAI也在努力开发他们的下一代LLM,尽管他们一直对计划保持沉默。这种情况可能不会持续太久

根据目前掌握的信息,最具实质性的新模式是谷歌大脑和DeepMind AI团队联合推出的《双子座》。双子座可能远远超过目前的任何一种。Alphabet首席执行官桑达尔·皮查伊去年5月宣布,该模型的培训已经开始。 

皮查伊当时在一篇博客中说:“虽然还很早,但我们已经看到了令人印象深刻的多式联运功能,这是以前的车型所没有的。” 

多模式意味着它可以处理和理解多种类型的数据输入(文本和图像),作为基于文本和基于图像的应用程序的基础。对以前模型中没有看到的功能的引用意味着可能会有更大的紧急或意想不到的质量和行为。当前这一代的一个新例子是创建计算机代码的能力,因为这不是一种预期的能力。 

一把瑞士军刀的AI模型? 

据报道,谷歌已经批准了一小部分公司使用双子座的早期版本。其中之一可能是著名的半导体研究公司Semianalys。根据该公司的一篇新帖子,双子座的先进程度可能比目前市场上的GPT-4型号提高了5到20倍

双子座的设计可能会基于DeepMind在2022年披露的Gato。VentureBeat去年的一篇文章报道:“深度学习转换器模型被描述为‘多面手代理’,声称执行604个不同的、大多是平凡的任务,具有不同的形式、观察和动作规范。它被称为AI模型中的瑞士军刀。显然,它比迄今开发的其他AI系统更通用,在这方面似乎是朝着通用人工智能(AGI)迈出的一步。“ 

走向AGI 

根据微软的说法,GPT-4已经被认为展示了“AGI的火花”,能够“解决跨越数学、编码、视觉、医学、法律、心理学等领域的新的和困难的任务,而不需要任何特殊的提示。”通过超越所有现有模型,双子座确实可能是迈向AGI的一大步。据猜测,双子座将以几个级别的模型能力发布,可能在几个月内发布,也可能在今年年底之前开始发布

尽管双子座可能会令人印象深刻,但预计会有更大、更复杂的车型。Infltion AI的首席执行官兼联合创始人、DeepMind的联合创始人穆斯塔法·苏莱曼在接受《经济学人》的一次对话时预测,“在接下来的五年里,前沿模型公司--我们这些处于尖端的公司正在培训最大的AI模型--将训练出比你今天在GPT-4中看到的模型大一千倍以上的模型。” 

这些模型的潜在应用和对我们日常生活的影响可能是无与伦比的,有可能带来巨大的好处,但也有可能增加危险。《名利场》引用纽约大学哲学和神经科学教授戴维·查尔默斯的话说:“这样做的好处是巨大的,也许这些系统能找到治愈疾病的方法,解决贫困和气候变化等问题,而这些都是巨大的好处。”文章还讨论了潜在的风险,引用了专家对可怕结果的预测,包括人类灭绝的可能性,概率估计从1%到50%不等

人类主宰历史的终结? 

在《经济学人》的对话中,历史学家尤瓦尔·诺亚·哈拉里表示,AI发展的这些即将到来的进步不会标志着历史的结束,而是“人类主导历史的结束”。历史将继续,在其他人的控制下。我认为这更像是一次外星人入侵。 

苏莱曼反驳说:AI工具将不会有代理,这意味着它们不能做人类赋予它们的能力之外的任何事情。哈拉里随后回应说,这种未来的AI可能会比我们更智能。你如何阻止比你更聪明的人发展代理呢?有了机构,AI可以采取可能不符合人类需求和价值观的行动

这些下一代模型代表着AGI的下一步,以及AI变得更有能力、更完整、对现代生活不可或缺的未来。尽管我们有充分的理由抱有希望,但这些预期中的新进展为监管和监管的呼声增添了更多动力。 

监管难题 

即使是制造前沿模型的公司的领导人也同意,监管是必要的。9月13日,在许多人联合出现在美国参议院后,《财富》杂志报道称,他们“松散地支持政府监管的想法”,“对于监管将是什么样子几乎没有达成共识。” 

这次会议是由参议员查克·舒默组织的,他后来讨论了制定适当法规所面临的挑战。他指出,人工智能在技术上是复杂的,不断变化,并且“在全世界产生了如此广泛、广泛的影响”

监管AI甚至可能在现实中都不可能。首先,大部分技术都是以开源软件的形式发布的,这意味着它实际上是任何人都可以使用的。仅此一点就可能使许多监管努力出现问题。 

进行合乎逻辑和理智的规范 

一些人看到了AI领导人支持监管戏剧性的公开声明。MarketWatch报道了长期在硅谷担任高管、C3 AI现任首席执行官汤姆·西贝尔的观点:“AI高管正在与立法者玩绳索兴奋剂游戏,要求他们请监管我们。但没有足够的资金和智力资本来确保数百万算法的安全。他们知道这是不可能的。 

虽然这可能看起来不可能,但我们必须试一试。正如苏莱曼在他与《经济学人》的对话中所说:“现在是我们必须采取预防原则的时候,不是通过散布恐惧的方式,而是以一种合乎逻辑、合情合理的方式。”

随着人工智能从狭隘的能力迅速发展到通用人工智能,前景是广阔的,但危险也是深远的。在这个充满不确定性的时代,我们需要以最深切的良知、智慧和谨慎来开发这些人工智能技术,以造福人类,同时避免潜在的极端危险

以上就是《如何面对AI的“不确定时代”》的详细内容,更多关于AI的资料请关注golang学习网公众号!

AI
声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>