开源的Nomic Embed嵌入模型可以完美复现,并击败了OpenAI
来源:51CTO.COM
时间:2024-02-08 12:37:34 398浏览 收藏
一分耕耘,一分收获!既然都打开这篇《开源的Nomic Embed嵌入模型可以完美复现,并击败了OpenAI》,就坚持看下去,学下去吧!本文主要会给大家讲到等等知识点,如果大家对本文有好的建议或者看到有不足之处,非常欢迎大家积极提出!在后续文章我会继续更新科技周边相关的内容,希望对大家都有所帮助!
一周前,OpenAI给用户送出福利。他们解决了GPT-4变懒的问题,并推出了5个新模型,其中包括text-embedding-3-small嵌入模型,它更小巧高效。
嵌入是用来表示自然语言、代码等内容中的概念的数字序列。它们帮助机器学习模型和其他算法更好地理解内容之间的关联,也更容易执行聚类或检索等任务。在 NLP 领域,嵌入起着非常重要的作用。
不过,OpenAI 的嵌入模型并不是免费给大家使用的,比如 text-embedding-3-small 的收费价格是每 1k tokens 0.00002 美元。
现在,比 text-embedding-3-small 更好的嵌入模型来了,并且还不收费。
Nomic AI,一家AI初创公司,近日发布了首个开源、开放数据、开放权重、开放训练代码的嵌入模型——Nomic Embed。该模型具有完全可复现和可审核的特点,其上下文长度为8192。在短上下文和长上下文的基准测试中,Nomic Embed击败了OpenAI的text-embeding-3-small和text-embedding-ada-002模型。这一成就标志着Nomic AI在嵌入模型领域的重要进展。
文本嵌入是现代NLP应用程序中的一个关键组成部分,用于提供检索增强生成(RAG)功能,为LLM和语义搜索提供支持。该技术通过将句子或文档的语义信息编码为低维向量,并将其应用于下游应用程序,如数据可视化、分类和信息检索的聚类,以实现更高效的处理。 目前,OpenAI的text-embedding-ada-002是最受欢迎的长上下文文本嵌入模型之一,它支持高达8192个上下文长度。然而,遗憾的是,Ada是闭源的,并且无法对其训练数据进行审计,这使得其可信度受到一定的限制。尽管如此,该模型仍然被广泛使用,并在许多NLP任务中表现出色。 未来,我们希望能够开发更加透明和可审计的文本嵌入模型,以提高其可信度和可靠性。这将有助于推动NLP领域的发展,并为各类应用程序提供更加高效和准确的文本处理能力。
性能最佳的开源长上下文文本嵌入模型,如E5-Mistral和jina-embeddings-v2-base-en,可能存在一些限制。一方面,由于模型大小较大,可能不适合用于通用用途。另一方面,这些模型可能无法超越OpenAI对应模型的性能水平。因此,在选择适合特定任务的模型时,需要考虑这些因素。
Nomic-embed 的发布改变了这一点。该模型的参数量只有 137M ,非常便于部署,5 天就训练好了。
论文地址:https://static.nomic.ai/reports/2024_Nomic_Embed_Text_Technical_Report.pdf
论文题目:Nomic Embed: Training a Reproducible Long Context Text Embedder
项目地址:https://github.com/nomic-ai/contrastors
如何构建 nomic-embed
现有文本编码器的主要缺点之一是受到序列长度限制,仅限于 512 个 token。为了训练更长序列的模型,首先要做的就是调整 BERT,使其能够适应长序列长度,该研究的目标序列长度为 8192。
训练上下文长度为 2048 的 BERT
该研究遵循多阶段对比学习 pipeline 来训练 nomic-embed。首先该研究进行 BERT 初始化,由于 bert-base 只能处理最多 512 个 token 的上下文长度,因此该研究决定训练自己的 2048 个 token 上下文长度的 BERT——nomic-bert-2048。
受 MosaicBERT 的启发,研究团队对 BERT 的训练流程进行了一些修改,包括:
- 使用旋转位置嵌入来允许上下文长度外推;
- 使用 SwiGLU 激活,因为它已被证明可以提高模型性能;
- 将 dropout 设置为 0。
并进行了以下训练优化:
- 使用 Deepspeed 和 FlashAttention 进行训练;
- 以 BF16 精度进行训练;
- 将词表(vocab)大小增加到 64 的倍数;
- 训练的批大小为 4096;
- 在掩码语言建模过程中,掩码率为 30%,而不是 15%;
- 不使用下一句预测目标。
训练时,该研究以最大序列长度 2048 来训练所有阶段,并在推理时采用动态 NTK 插值来扩展到 8192 序列长度。
实验
该研究在标准 GLUE 基准上评估了 nomic-bert-2048 的质量,发现它的性能与其他 BERT 模型相当,但具有显著更长的上下文长度优势。
nomic-embed 的对比训练
该研究使用 nomic-bert-2048 初始化 nomic-embed 的训练。对比数据集由约 2.35 亿文本对组成,并在收集过程中使用 Nomic Atlas 广泛验证了其质量。
在 MTEB 基准上,nomic-embed 的性能优于 text-embedding-ada-002 和 jina-embeddings-v2-base-en。
然而,MTEB 不能评估长上下文任务。因此,该研究在最近发布的 LoCo 基准以及 Jina Long Context 基准上评估了 nomic-embed。
对于 LoCo 基准,该研究按照参数类别以及评估是在监督或无监督设置中执行的分别进行评估。
如下表所示,Nomic Embed 是性能最佳的 100M 参数无监督模型。值得注意的是,Nomic Embed 可与 7B 参数类别中表现最好的模型以及专门针对 LoCo 基准在监督环境中训练的模型媲美:
在 Jina Long Context 基准上,Nomic Embed 的总体表现也优于 jina-embeddings-v2-base-en,但 Nomic Embed 在此基准测试中的表现并不优于 OpenAI ada-002 或 text-embedding-3-small:
总体而言,Nomic Embed 在 2/3 基准测试中优于 OpenAI Ada-002 和 text-embedding-3-small。
该研究表示,使用 Nomic Embed 的最佳选择是 Nomic Embedding API,获得 API 的途径如下所示:
最后是数据访问:为了访问完整数据,该研究向用户提供了 Cloudflare R2 (类似 AWS S3 的对象存储服务)访问密钥。要获得访问权限,用户需要先创建 Nomic Atlas 帐户并按照 contrastors 存储库中的说明进行操作。
contrastors 地址:https://github.com/nomic-ai/contrastors?tab=readme-ov-file#data-access
今天关于《开源的Nomic Embed嵌入模型可以完美复现,并击败了OpenAI》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
420 收藏
-
213 收藏
-
267 收藏
-
467 收藏
-
204 收藏
-
188 收藏
-
103 收藏
-
234 收藏
-
465 收藏
-
100 收藏
-
307 收藏
-
280 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习