
网站简介:(通用)
SEEChat – 一见多模态对话模型
- “一见”取义自“百闻不如一见”,是一个侧重视觉能力的多模态对话大模型,基于单模态专家缝合路线(Single-modal Experts Efficient integration, SEEChat)。
- SEEChat项目的重点是将视觉能力与文本对话能力相集成,长期目标是赋予模型以文本/对话的方式解决视觉任务(图像理解,目标检测,跨模态,开放集)的能力
- “一见”多模态对话模型是SEEChat的开源版本,语言模型部分基于中文ChatGLM6B
能力展示
1. 多轮视觉问答、代码生成、目标分类
2. Image Captioning
- 从中文Zero数据集中随机选取1000张中文互联网图像,已排除训练集数据
- 使用ChineseCLIP计算图文相关性得分
- 上图为七种公开方法(原生的互联网文本做为其中一种)的图文相关性得分胜出情况
- SEEChat胜出率甚至大比例超过原生文本
技术方案
SEEChat基于单模态专家缝合路线,通过可学习的桥接层将视觉模态的专家模型与文本模态的专家模型进行缝合,形成具备视觉理解能力的多模态对话模型。
开源V1.0版本的SEEChat,视觉模态基于CLIP-ViT,文本模态基于ChatGLM,可学习的桥接层参考BLIP-2以及LLAVA等前期工作,进行如下的两阶段训练:
- Stage I 图文对齐: 使用360人工智能研究院开源的Zero数据集,共计2300万图文对桥接层进行训练
- Stage II 人机对齐:使用LLAVA开源的158K instruction数据经翻译后,对桥接层和语言模型部分进行微调
使用说明
硬件说明
GPU要求3090或者A100
环境安装
conda env create -f environment.yml
模型与数据
模型下载
从这里下载chatGLM所有的bin文件和ice_text.model,放于目录models/chatglm-6b中。
从百度云盘下载权重文件checkpoint_100.pth,放于目录models/chatglm-6b中。其中提取码为 qiho
运行推理脚本
进入到目录: cd code
运行启动脚本: sh demo_stage2.sh
启动后,即将开始一轮对话。当命令行显示“question”时,用户可以在终端输入问题,由seechat回答。当输入“break”时,本轮对话结束,进行下一轮对话。 实测效果如下:
相关工作
中文
英文
数据统计
数据评估
关于一见特别声明
本站IE网址导航号提供的一见都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由IE网址导航号实际控制,在2023-11-16 17:53收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,IE网址导航号不承担任何责任。
相关导航

本项目开源了基于 LLaMA 系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型。通过中文金融公开问答数据+爬取的金融问答数据构建指令数据集,并在此基础上对 LLaMA 系模型进行了指令微调,提高了 LLaMA 在金融领域的问答效果。

Auto-GPT
Auto-GPT | 爆火的实现GPT-4完全自主的实验性开源项目,GitHub超10万星 | AI训练模型

悟道
悟道3.0,视界视觉,AQUILA天鹰座,Aquila-7B,AquilaChat-7B,AquilaCode-7B-NV,AquilaCode-7B-TS,HuggingFace,EMU基于LLaMA

ChatLaw-法律大模型
ChatLaw-13B,此版本为学术demo版,基于姜子牙Ziya-LLaMA-13B-v1训练而来,中文各项表现很好,但是逻辑复杂的法律问答效果不佳,需要用更大参数的模型来解决。

HuatuoGPT
欢迎来到 HuatuoGPT 的存储库,这是一个在庞大的中文医学语料库上训练的大型语言模型 (LLM)。我们与HuatuoGPT的目标是为医疗咨询场景构建一个更专业的“ChatGPT”。

百川大模型
百川智能以帮助大众轻松、普惠地获取世界知识和专业服务为使命,致力于通过语言AI的突破,构建中国最优秀的大模型底座。百川大模型,融合了意图理解、信息检索以及强化学习技术,结合有监督微调与人类意图对齐,在知识问答、文本创作领域表现突出。

乾元
BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。

TechGPT
TechGPT是“东北大学知识图谱研究组”发布的垂直领域大语言模型。目前在HuggingFace?: neukg/TechGPT-7B开源了全量微调的7B版本。
暂无评论...