> 自媒体 > (AI)人工智能 > 超火迷你GPT-4视觉能力暴涨,GitHub两万星,华人团队出品
超火迷你GPT-4视觉能力暴涨,GitHub两万星,华人团队出品
来源:量子位
2023-10-30 10:28:06
396
管理

白交 发自 凹非寺

量子位 | 公众号 QbitAI

GPT-4V来做目标检测?网友实测:还没有准备好。

虽然检测到的类别没问题,但大多数边界框都错放了。

没关系,有人会出手!

那个抢跑GPT-4看图能力几个月的迷你GPT-4升级啦——MiniGPT-v2。

△(左边为GPT-4V生成,右边为MiniGPT-v2生成)

而且只是一句简单指令:[grounding] describe this image in detail就实现的结果。

不仅如此,还轻松处理各类视觉任务。

圈出一个物体,提示词前面加个 [identify] 可让模型直接识别出来物体的名字。

「如何在单一模型的条件下,使用简单多模态指令来高效完成各类任务?」成为团队需要解决的难题。

简单来说,MiniGPT-v2由三个部分组成:视觉主干、线性层和大型语言模型。

该模型以ViT视觉主干为基础,所有训练阶段都保持不变。从ViT中归纳出四个相邻的视觉输出标记,并通过线性层将它们投影到 LLaMA-2语言模型空间中。

团队建议在训练模型为不同任务使用独特的标识符,这样一来大模型就能轻松分辨出每个任务指令,还能提高每个任务的学习效率。

训练主要分为三个阶段:预训练——多任务训练——多模式指令调整。

最终,MiniGPT-v2 在许多视觉问题解答和视觉接地基准测试中,成绩都优于其他视觉语言通用模型。

最终这个模型可以完成多种视觉任务,比如目标对象描述、视觉定位、图像说明、视觉问题解答以及从给定的输入文本中直接解析图片对象。

感兴趣的朋友,可戳下方Demo链接体验:

https://minigpt-v2.github.io/https://huggingface.co/spaces/Vision-CAIR/MiniGPT-v2

论文链接:https://arxiv.o‍rg/abs/2310.09478

GitHub链接:https://github.com/Vision-CAIR/MiniGPT-4

参考链接:https://twitter.com/leoyerrrr

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
御赐铲屎官..(普通会员)
文章
589
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索