登录
首页 >  科技周边 >  人工智能

旷视开源的多模态大模型:支持文档级OCR,中英文都行!证明OCR迈向了新的里程碑!

来源:51CTO.COM

时间:2023-12-25 18:42:56 284浏览 收藏

欢迎各位小伙伴来到golang学习网,相聚于此都是缘哈哈哈!今天我给大家带来《旷视开源的多模态大模型:支持文档级OCR,中英文都行!证明OCR迈向了新的里程碑!》,这篇文章主要讲到等等知识,如果你对科技周边相关的知识非常感兴趣或者正在自学,都可以关注我,我会持续更新相关文章!当然,有什么建议也欢迎在评论留言提出!一起学习!

想将一份文档图片转换成Markdown格式?

以往这一任务需要文本识别、布局检测和排序、公式表格处理、文本清洗等多个步骤——

这一次,只需一句话命令,多模态大模型Vary直接端到端输出结果:

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

无论是中英文的大段文字:

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

还包含了公式的文档图片

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

又或是手机页面截图:

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

甚至可以将图片中的表格转换成latex格式:

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

当然,作为一个多模大型模型,保持通用能力是必不可少的

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

Vary表现出了很大的潜力和极高的上限,OCR可以不再需要冗长的pipline,直接端到端输出,且可以按用户的prompt输出不同的格式如latex 、word 、markdown。

通过强大的语言先验,这种架构可以避免OCR中的易错字,如“杠杆”和“杜杆”等。对于模糊文档,借助语言先验的帮助,也有望实现更强的OCR效果

引发了不少网友的关注的项目一经推出,立即引起了广泛讨论。其中一位网友在看到后直呼“杀爆了!”

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

这样的效果是如何实现的呢?

受大模型启发打造

目前的多模态大模型几乎都是用CLIP作为Vision Encoder或者说视觉词表。确实,在400M图像文本对训练的CLIP有很强的视觉文本对齐能力,可以覆盖多数日常任务下的图像编码。

但是对于密集和细粒度感知任务,比如文档级别的OCR、Chart理解,特别是在非英文场景,CLIP表现出了明显的编码低效和out-of-vocabulary问题。

纯NLP大模型(如LLaMA)从英文过渡到中文(对大模型来说是“外语”)时,因为原始词表编码中文效率低,必须要扩大text词表才能实现较好的效果。

研究团队从中得到了启发,正是因为这一特点

现在基于CLIP视觉词表的多模态大模型,面临着同样的问题,遇到“foreign language image”,如一页论文密密麻麻的文字,很难高效地将图片token化。

Vary是为解决这个问题而提供的一种解决方案,它可以在不重新建立原有词表的情况下,高效地扩充视觉词表

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

不同于现有方法直接用现成的CLIP词表,Vary分两个阶段:

首先,我们将在第一阶段使用一个小型的仅解码器网络,以自回归的方式生成一个强大的新视觉词表

接下来,在第二阶段将新词表和CLIP词表进行融合,以便高效地训练LVLM并赋予其新的特性

以下是Vary的训练方法和模型结构图示:

OCR终结了?旷视提出支持文档级OCR的多模态大模型,支持中英文,已开源!图片

通过在公开数据集以及渲染生成的文档图表等数据上训练,Vary极大增强了细粒度的视觉感知能力。

在保持vanilla多模态能力的同时,激发出了端到端的中英文图片、公式截图和图表理解能力。

另外,研究团队注意到原本可能需要几千tokens 的页面内容,通过文档图片输入,信息被Vary压缩在了256个图像tokens中,这也为进一步的页面分析和总结提供了更多的想象空间。

目前,Vary的代码和模型均已开源,还给出了供大家试玩的网页demo。

感兴趣的小伙伴可以去试试了~

文中关于模型,OCR,页面的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《旷视开源的多模态大模型:支持文档级OCR,中英文都行!证明OCR迈向了新的里程碑!》文章吧,也可关注golang学习网公众号了解相关技术文章。

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>