-
大模型带来的生命科学领域突破,刚刚再传新进展。来自清华系,使用大模型实现了单细胞身份识别,同时模型LangCell也正式对外开源。它不仅可以准确识别细胞身份,还具有很强的零样本分析能力,论文已被ICML2024录⽤。LangCell的数据集中包含2750万条数据,涵盖了细胞类型、发育阶段、组织器官、疾病筛选等8个维度的信息,称得上是“细胞的百科全书”。实际测试中,LangCell也在多个细胞识别任务上超越了前SOTA,在研究人员专门设计的新任务上也表现突出。然而,在不使用文本信息的情况下,单独使用其包含的
-
OllamaOllama是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama设计为一个框架,旨在简化在Docker容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如Llama3这样的开源大型语言模型。应用模型注意:推荐下载GGUF文件格式的模型,可以快速简洁的导入Ollama中。0X01下载模型文件下载地址:https://huggingface.co/shenzhi-wang/Llama3-8B-
-
写在前面&笔者的个人理解基于图像的3D重建是一项具有挑战性的任务,涉及从一组输入图像推断目标或场景的3D形状。基于学习的方法因其直接估计3D形状的能力而受到关注。这篇综述论文的重点是最先进的3D重建技术,包括生成新颖的、看不见的视图。概述了高斯飞溅方法的最新发展,包括输入类型、模型结构、输出表示和训练策略。还讨论了尚未解决的挑战和未来的方向。鉴于该领域的快速进展以及增强3D重建方法的众多机会,对算法进行全面检查似乎至关重要。因此,本研究对高斯散射的最新进展进行了全面的概述。(大拇指往上滑,点击最上
-
编辑|萝卜芯预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权重集在不同任务中表现出色的多功能模型仍然存在挑战。百度大数据实验室(BigDataLab,BDL)和上海交通大学团队开发了RNAErnie,一种基于Transformer架构,以RNA为中心的预训练模型。研究人员用七个数据集和五个任务评估了模型,证明了RNAErnie在监督和无监督学习方面的优越性。RNAErnie超越了基线,分类准确率提高了1.8%,交互预测准确率提高了2.2%,结构预测F1得分提高了3.3%,展现了它的
-
大模型的性价比之战已经来到了新的阶段。5月15日,2024火山引擎FORCE原动力大会上,火山引擎总裁谭待宣布,字节跳动内部自研的豆包大模型正式在火山引擎上对外开放服务。豆包大模型在价格上主打“极致性价比”:豆包通用模型pro-32k版,推理输入价格0.0008元/千tokens,较行业价格低99.3%。一元钱能买到豆包主力模型的125万tokens,相当于三本《三国演义》的输入量。谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。过去一年
-
中文AI社区迎来了一个好消息:与Sora同架构的开源文生图大模型来了!5月14日,腾讯宣布旗下混元文生图大模型全面升级并全面开源,目前已在HuggingFace平台及GitHub上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发者免费商用。官网地址:https://dit.hunyuan.tencent.com/GitHub项目地址:https://github.com/Tencent/HunyuanDiTHuggingFace模型地址:https://huggingface.co/T
-
5月15日消息,微软研究院科学智能中心(MicrosoftResearchAIforScience)近日推出MatterSim模型,能够在广泛的元素、温度和压力范围内,准确高效地模拟材料和预测性能,助力材料设计的数字化转型。新材料探索对纳米电子学、能量储存和医疗健康等多个领域的技术进步至关重要。材料设计中的一个核心难点是如何在不进行实际合成和测试的情况下预测材料属性。由于新材料可能涉及元素周期表中118种元素的任意组合,且其合成和工作温度、压力范围极广,这些因素极大地影响了材料内部原子的相互作用,使得准确
-
火山引擎总裁谭待企业要做好大模型落地,面临模型效果、推理成本、落地难度的三大关键挑战:既要有好的基础大模型做支撑,解决复杂难题,也要有低成本的推理服务让大模型被广泛应用,还要更多工具、平台和应用帮助企业做好场景落地。——谭待火山引擎总裁01.豆包大模型首次亮相大使用量打磨好模型模型效果是AI落地最关键的挑战。谭待指出,只有大的使用量,才能打磨出好模型。目前,豆包大模型日均处理1,200亿tokens文本、生成3,000万张图片。为助力企业做好大模型场景落地,字节跳动自主研发的豆包大模型将通过火山引擎正式对
-
看过昨天OpenAI的春季发布后,不难猜到,在今天的谷歌I/O大会上,必然会有关于AI助手的介绍。毕竟,抢在谷歌I/O大会前发布GPT-4o的Altman,已经显示出了十足的针对性,凭借Altman的手段,自然也有着十足的把握做到精准打击,将这场“红蓝对抗”进行到底。果不其然,大会上,谷歌CEOPichai请来了DeepMind创始人Demis,谷歌全新的AI助手ProjectAstra正是由首次登台谷歌I/O大会的Demis揭开的神秘面纱。什么是ProjectAstra?ProjectAstra是一个由
-
IEEEICWS(IEEEInternationalConferenceonWebServices)即IEEE国际万维网大会将于2024年7月7日—13日在中国深圳举行!ICWS是CCF-B类国际论坛,旨在交流基于网络服务的最新技术和实践的最新基本进展,确定新兴的研究主题,并定义基于网络服务的未来。SRG是IEEEICWS首个针对智能服务监管的workshop。投稿链接:https://icws.conferences.computer.org/2024/srg-workshop/SRG介绍数
-
在软件技术的前沿,UIUC张令明组携手BigCode组织的研究者,近日公布了StarCoder2-15B-Instruct代码大模型。这一创新成果在代码生成任务取得了显著突破,成功超越CodeLlama-70B-Instruct,登上代码生成性能榜单之巅。StarCoder2-15B-Instruct的独特之处在于其纯自对齐策略,整个训练流程公开透明,且完全自主可控。该模型通过StarCoder2-15B生成了数千个指令,响应对StarCoder-15B基座模型进行微调,无需依赖昂贵的人工标注数据,也无需
-
写在前面&笔者的个人理解本文对自动驾驶领域内多模态大型语言模型(MLLMs)的应用进行了审慎的审视,并对一些常见的假设提出了质疑/验证,重点关注它们通过闭环控制环境中的图像/帧序列推理和解释动态驾驶场景的能力。尽管GPT-4V等MLLMs取得了显著的进步,但它们在复杂、动态的驾驶环境中的性能在很大程度上仍未经过测试,呈现出广阔的探索领域。我们从固定车载摄像头的角度,对各种MLLMs作为驾驶世界模型的能力进行了全面的实验研究。发现表明,虽然这些模型能够熟练地解释单个图像,但在合成描述动态行为的帧之间
-
数字化时代,网络不仅是连接世界的纽带,更是推动商业和社会进步的关键力量。随着移动设备、物联网(IoT)和云服务的爆炸性增长,用户对网络的依赖达到了前所未有的水平。一个能够随时随地提供安全、高效接入的网络环境,无论对个人还是企业,都已成为刚需。然而,这一需求的增长也带来了一系列挑战,尤其是在网络安全和网络架构的复杂性方面。在Gartner今年最新发布的有线、无线介入的魔力象限中,HPEArubaNetworking凭借其在自动化网络编排、先进的软件升级技术以及集成人工智能(AI)特性的解决方案,再次在Gar
-
机器人技术已经有70年的历史了,从诞生之初就一直由美国领跑。截至2009年,美国首次发布国家机器人路线图(NationalRoboticsRoadmap),美国在工业应用领域(如汽车、航空航天和家电等)的应用已经降低到了全球第四位。自15年以后,美国在机器人技术的采用量上持续拉胯,位列全球第十,其中亚洲的机器人市场更是扩大了美国市场的5-10倍。中国则在此领域“遥遥领先”,2023年,中国大约购买了52%的销出机器人,表明机器人技术在美国已经不再是国家级的优先事项。最近,来自加州大学、宾夕法尼亚大学、得克
-
MH-MoE能优化几乎所有专家,实现起来非常简单。混合专家(MoE)是个好方法,支持着现在一些非常优秀的大模型,比如谷歌家的Gemini1.5以及备受关注的Mixtral8x7B。“稀疏混合专家(SMoE)可在不显著增加训练和推理成本的前提下提升模型的能力。例如Mixtral8×7B就是一个SMoE模型,其包含8个专家(共7B参数),而其表现却可以超过或比肩LLaMA-270B和GPT-3.5。”但是,它也有两个问题。一是专家激活率低——也就是搞不好会出现下图这种情况:具体来说,优