-
机器狗在瑜伽球上稳稳当当的行走,平衡力那是相当的好:各种场景都能拿捏,不管是平坦的人行道、还是充满挑战的草坪都能hold住:甚至是研究人员踢了一脚瑜伽球,机器狗也不会歪倒:给气球放气机器狗也能保持平衡:上述展示都是1倍速,没有经过加速处理。论文地址:https://eureka-research.github.io/dr-eureka/assets/dreureka-paper.pdf项目主页:https://github.com/eureka-research/DrEureka论文标题:DrEureka
-
「AI教母」李飞飞创业了。没想到,在大模型时代,知名「AI教母」李飞飞也要「创业」了,并完成了种子轮融资。据路透社独家报道,著名计算机科学家李飞飞正在创建一家初创公司。该公司利用类似人类的视觉数据处理方式,使人工智能能够进行高级推理。知情人士透露称,李飞飞最近为这家公司进行了种子轮融资,投资者包括硅谷风险投资公司AndreessenHorowitz,以及她去年加入的加拿大公司RadicalVentures。不过,AndreessenHorowitz和RadicalVentures的发言人均对此保持沉默,李
-
小语言模型的出现是为弥补大语言模型的训练、推理等成本昂贵的缺点,但其自身也存在训练到某个阶段后性能下降的事实(饱和现象),那么这个现象的原因是什么?是否可以克服并利用它去提升小语言模型的性能?语言建模领域的最新进展在于在极大规模的网络文本语料库上预训练高参数化的神经网络。在实践中,使用这样的模型进行训练和推断可能会产生本高昂,这促使人们使用较小的替代模型。然而,已经观察到较小的模型可能会出现饱和和现象,表现为在训练的某个高级阶段能力下降并趋于稳定。最近的一篇论文发现,这种饱和和现象可以通过较小模型的隐藉维
-
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。原文链接:https://arxiv.org/abs/2403.20018项目链接:https://github.com/WU-CVGL/SCINeRF论文标题:SCINeRF:Neu
-
当前最火的大模型,竟然三分之二都存在过拟合问题?刚刚出炉的一项研究,让领域内的许多研究者有点意外。提升大型语言模型的推理能力是当前研究的最重要方向之一,在这类任务中,近期发布的很多小模型看起来表现不错,并且能够很好地应对这类任务。例如微软的Phi-3、Mistral8x22B等模型。研究人员们指出,当前大模型研究领域存在一个关键问题:很多研究未能准确地对现有LLM的能力进行基准测试。这提示我们需要花更多的时间来评估和测试当前LLM的能力水平。这是因为目前的大多数研究都采用GSM8k、MATH、MBPP、H
-
在陶哲轩的启发下,越来越多的数学家开始尝试利用人工智能进行数学探索。这次,他们瞄准的目标是世界十大最顶尖数学难题之一的费马大定理。费马大定理是一个非常复杂的数学难题,迄今为止尚未找到可行的解法。数学家们希望借助人工智能的强大计算能力和智能算法,能够在数学探索费马大定理又被称为“费马最后的定理(Fermat'sLastTheorem,FLT)”,由17世纪法国数学家皮耶・德・费马提出。它背后有一个传奇的故事。据称,大约在1637年左右,费马在阅读丢番图《算术》拉丁文译本时,曾在第11卷第8命题旁写道:“将一
-
MLP(多层感知器)用了几十年了,真的没有别的选择了吗?多层感知器(MLP),也被称为全连接前馈神经网络,是当今深度学习模型的基础构建块。MLP的重要性无论怎样强调都不为过,因为它们是机器学习中用于逼近非线性函数的默认方法。然而,MLP是否就是我们能够构建的最佳非线性回归器呢?尽管MLP被广泛使用,但它们存在明显的缺陷。例如,在Transformer模型中,MLP几乎消耗了所有非嵌入式参数,并且通常在没有后处理分析工具的情况下,相对于注意力层来说,它们的可解释性较差。所以,是否有一种MLP的替代选择?今天
-
根据多家媒体报道,华为于4月30日下午内部发布人事调整文件,宣布余承东将卸任华为终端BGCEO一职。余承东将仍保留终端BG董事长职位。原华为终端BG、首席运营官何刚将接任华为终端BGCEO职位。据透露,除了上述个人事变动调整外,该文件并无更多信息。关于这次重大人事变动的背景和余承东卸任终端BGCEO之后新的业务重心,也未有进一步的说明。有消息源表示,此次调整属于常规的业务架构调整,可让余承东有更多精力为消费者打造精品。余承东出生于1969年,本科毕业于西北工业大学自动控制系,硕士毕业于清华大学,他从199
-
「RabbitR1,它本质上是安卓系统上面做了个Launcher程序,破解后在手机上就能运行。」通过破解,Rahman设法在Pixel6a手机上启动并运行了R1的应用程序。本周二,美国记者MishaalRahman曝光了知名生成式AI硬件RabbitR1的细节,立即引来了科技圈的关注。几个月前,Humane和Rabbit两家初创公司继续推出他们的人工智能设备——AiPin和RabbitR1。最初,一些人认为这些设备将开创可穿戴人工智能的新时代。然而,几个月过去了,对于这两款设备的争议逐渐增多。Rabbit
-
多模态AI系统的特点在于能够处理和学习包括自然语言、视觉、音频等各种类型的数据,从而指导其行为决策。近期,将视觉数据纳入大型语言模型(如GPT-4V)的研究取得了重要进展,但如何有效地将图像信息转化为AI系统的可执行操作仍面临挑战。为了实现图像信息的转化,一种常见的方法是将图像数据转化为对应的文本描述,然后由AI系统根据描述进行操作。这可以通过在现有的图像数据集上进行监督学习,让AI系统自动学习图像到文本的映射关系。此外,还可以利用强化学习方法,通过与环境互动来学习如何根据图像信息进行决策。另一种方法是直
-
人工智能的发展有很多应用,其中越来越受到关注的是多模式人工智能。由于其在数据分析、问题解决和机器学习方面的转变能力,多模式人工智能继续在垂直领域占据数据主导地位。多模式人工智能市场的增长必然会像滚雪球一样。多模式联运人工智能市场规模预计将从2023年的12.6亿美元增加到2028年的55亿美元,预测期内的复合年增长率为34.35%。让我们来谈谈促进多模式人工智能市场增长的关键因素。分析非结构化数据:非结构化信息的数量日益增加。信息不再像过去那样容易理解或线性。相反,其中以多种形式存在,如文本、图像、声音和
-
20世纪50年代,人工智能(AI)诞生。当时研究人员发现机器可以执行类似人类的任务,例如思考。后来,在20世纪60年代,美国国防部资助了人工智能,并建立了实验室进行进一步开发。研究人员发现人工智能在许多领域都有用武之地,例如太空探索和极端环境中的生存。太空探索是对宇宙的研究,宇宙涵盖了地球以外的整个宇宙空间。太空被归类为极端环境,因为它的条件与地球不同。要在太空中生存,必须考虑许多因素,并采取预防措施。科学家和研究人员认为,探索太空并了解一切事物的现状有助于理解宇宙的运作方式,并为潜在的环境危机做好准备以
-
近日,北京生数科技有限公司(以下简称“生数科技”)宣布完成新一轮数亿元融资,由启明创投领投,达泰资本、鸿福厚德、智谱AI、老股东BV百度风投和卓源亚洲继续跟投。本轮融资将主要用于多模态基础大模型的迭代研发、应用产品创新及市场拓展。本轮由华兴资本担任独家财务顾问。生数科技成立于2023年3月,是全球领先的多模态大模型公司,致力于图像、3D、视频等原生多模态大模型的研发。生数科技核心团队来自清华大学人工智能研究院,此外还包括来自北京大学和阿里巴巴、腾讯、字节跳动等科技公司的多位技术人才
-
由于数字世界的快速扩张,各种数字设备和技术的出现以意想不到的方式重新定义了我们的生活。然而,伴随着数字化转型,网络威胁、数据泄露和其他欺诈活动也随之增加。与此同时,数字化转型的快速发展促进了数字取证市场的出现,支持数字资产保护和网络犯罪调查。因此,在考虑数字取证市场分析时,有必要审视该行业的现状,并预测其未来。数字取证市场的现状主要取决于两个主要因素:技术和法律。技术方面,随着大数据、人工智能和区块链技术等的发展,数字取证技术已经变得更加高效和精确。这些技术的应用促进了对数字证据的出现,支持数字证据的保护
-
前段时间,微软搞了个乌龙:隆重地开源了WizardLM-2,又在不久后撤回得干干净净。目前可查询的WizardLM-2发布信息,这是一个“真正媲美GPT-4”的开源大模型,在复杂聊天、多语言、推理和代理方面的性能得到了提高。该系列包括三个模型:WizardLM-28x22B、WizardLM-270B和WizardLM-27B。其中:WizardLM-28x22B是最先进的模型,也是对高度复杂任务进行内部评估后得出的最佳开源LLM。WizardLM-270B具备顶级推理能力,是同等规模的首选;Wizard