登录
首页 >  科技周边 >  人工智能

人工智能和你聊天 成本有多高

来源:搜狐

时间:2023-06-30 10:25:48 323浏览 收藏

欢迎各位小伙伴来到golang学习网,相聚于此都是缘哈哈哈!今天我给大家带来《人工智能和你聊天 成本有多高》,这篇文章主要讲到等等知识,如果你对科技周边相关的知识非常感兴趣或者正在自学,都可以关注我,我会持续更新相关文章!当然,有什么建议也欢迎在评论留言提出!一起学习!

人工智能和你聊天 成本有多高

图片来源 视觉中国

中青报·中青网记者 袁 野

人工智能每次和你聊天,它背后的公司都会赔钱。

美国《华盛顿邮报》报道称,以ChatGPT为代表的大型语言模型的运维成本非常高,以至于推出它们的公司不愿向公众提供最好的版本。美国马里兰大学计算机科学教授汤姆·戈尔茨坦说:“目前正在部署的模型,看起来令人印象深刻,但并不是最好的。”他认为,如果完全不考虑成本因素,那么人工智能广遭诟病的缺点,比如倾向于给出有偏见的结果甚至撒谎,都是可以避免的。

人工智能需要密集的计算能力,这就是为什么ChatGPT的开发商OpenAI公司在其免费版中只运行能力较弱的GPT-3.5模型。每3个小时发送的信息数量上限为25,即使用户每月支付20美元使用GPT-4高级模型也无法超过。背后的原因就是运营成本太高。

去年12月,ChatGPT发布后不久,OpenAI首席执行官萨姆·阿特曼估计其“每次聊天可能只需几美分”。这听起来似乎不贵,但考虑到其日活用户超过1000万人,整体成本依然高得吓人。今年2月,有研究机构称,即使只运行GPT-3.5,ChatGPT每天在计算方面的成本依然高达70万美元。

《华盛顿邮报》称,成本问题可能也是谷歌尚未在其搜索引擎中加入人工智能聊天机器人的原因之一,该搜索引擎每天要处理数百亿次查询。美国一家行业研究公司的首席分析师迪伦·帕特尔估计,对运维者来说,客户与ChatGPT进行一次聊天的成本,可能是进行一次谷歌搜索的1000倍。

人工智能的成本甚至惊动了白宫。英国路透社称,在最近发布的一份关于人工智能的报告中,拜登政府指出,生成式人工智能的计算成本是个“全国性问题”。白宫表示,这项技术预计将“大幅拉升计算需求和相关的环境影响”,“迫切需要”设计更可持续的系统。

路透社称,与其他形式的机器学习相比,生成式人工智能尤其依赖令人眼花缭乱的计算能力和专用计算机芯片,只有实力雄厚的公司才负担得起。5月,萨姆·阿特曼在出席美国国会参议院听证会时表示,“事实上,我们的芯片(GPU)非常短缺,所以,使用我们产品的人越少越好。”

在5月23日华尔街日报举办的峰会上,埃隆·马斯克表示,“目前,GPU比药品更难得到。”。”最近,马斯克为自己的人工智能初创公司购买了大约1万块GPU。

令人瞩目的新技术烧钱,对科技行业而言并非新鲜事。《华盛顿邮报》称,硅谷之所以能够主导互联网经济,部分原因就是它向全世界免费提供在线搜索、电子邮件和社交媒体等服务,这些业务起初都是亏损的,但后来,这些公司通过个性化广告获得了巨额利润。虽然人工智能产业也可能会采用同样的做法,但分析师指出,仅仅依靠广告可能难以使先进的人工智能工具在短期内获得盈利。

因此,为消费者提供人工智能模型的公司必须在赢得市场份额的渴望与令人头痛的财务损失之间取得平衡。

《华盛顿邮报》指出,即使人工智能能够挣到钱,利润可能也会流向云计算巨头,以及运行模型所需硬件的芯片制造商。目前,开发出领先的人工智能语言模型的公司要么是最大的云计算提供商(如谷歌和微软),要么与它们有密切的合作关系(如OpenAI),这并非偶然。

对消费者来说,不受限制地使用强大的人工智能模型的日子,或许已经屈指可数。

路透社称,微软已开始尝试在人工智能搜索结果中植入广告。OpenAI的阿特曼在听证会上表示,虽然他更喜欢采取付费订阅模式,但不排除采用相同的方法。两家公司都表示,相信人工智能有朝一日能够盈利。“它的价值如此之大,我无法想象……如何在它上面敲响收银机。”今年2月,阿特曼在接受媒体采访时表示。

今天关于《人工智能和你聊天 成本有多高》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

声明:本文转载于:搜狐 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>