GPT-4识图功能迟迟不开放,终于有人忍不住自己动手做了一个。
(相关资料图)
MiniGPT-4来了,Demo开放在线可玩。
传一张海鲜大餐照片上去,就能直接获得菜谱。
传一张商品效果图,就可以让AI写一篇带货文案。
手绘一个网页,可以给出对应的HTML代码:
除了生产力拉满,也支持根据常识推理图上内容是否合理、解释表情包为什么好笑,以及看截图找电影等娱乐玩法。
可以说,GPT-4发布时展示过的功能,MiniGPT-4基本也都有了。
这下网友直接把Demo服务器挤爆,开发团队连开4台备用服务器,都有几十人在排队。
除了研究团队给出的示例,网友也用MiniGPT-4玩出了各种花样
有人上传自己画的画,让AI评价评价。
有人上传一张从车道拍摄的飞机坠毁瞬间,让MiniGPT-4尽可能详细地描述,并思考自动驾驶AI能不能理解这个场面。
做到这么好的效果,MiniGPT-4实现起来却并不复杂。
把图像编码器与开源语言模型Vicuna(小羊驼)整合起来,并且冻结了两者的大部分参数,只需要训练很少一部分。
传统预训练阶段,使用4张A100在10个小时内就可完成,此时训练出来的Vicuna已能够理解图像,但生成能力受到很大影响。
为解决这个问题,团队让MiniGPT-4与ChatGPT合作创建了3500个图像文本的高质量数据集,也一并开源。
用新的数据集微调可以显著提高模型的生成可靠性和整体可用性,而且计算效率很高,使用单个A100只需要7分钟。
并且团队正在准备一个更轻量级的版本,部署起来只需要23GB显存。
也就是消费级显卡中拥有24GB显存的3090或4090就可以本地运行了。
MiniGPT-4开发团队来自KAUST(沙特阿卜杜拉国王科技大学),包括4位华人成员和他们的导师 Mohamed Elhoseiny。
两位正在读博的共同一作还在GitHub页面上特别标注正在找工作。
有意向的公司要抓紧抢人了~
在线Demo:https://minigpt-4.github.io
开源代码:https://github.com/Vision-CAIR/MiniGPT-4
论文:https://github.com/Vision-CAIR/MiniGPT-4/blob/main/MiniGPT_4.pdf
本文作者:梦晨,来源:量子位,原文标题:《华人团队迷你GPT-4抢跑看图聊天:OpenAI有的它都有,服务器已被挤爆》
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。