
网站简介:(通用)
SEEChat – 一见多模态对话模型
- “一见”取义自“百闻不如一见”,是一个侧重视觉能力的多模态对话大模型,基于单模态专家缝合路线(Single-modal Experts Efficient integration, SEEChat)。
- SEEChat项目的重点是将视觉能力与文本对话能力相集成,长期目标是赋予模型以文本/对话的方式解决视觉任务(图像理解,目标检测,跨模态,开放集)的能力
- “一见”多模态对话模型是SEEChat的开源版本,语言模型部分基于中文ChatGLM6B
能力展示
1. 多轮视觉问答、代码生成、目标分类
2. Image Captioning
- 从中文Zero数据集中随机选取1000张中文互联网图像,已排除训练集数据
- 使用ChineseCLIP计算图文相关性得分
- 上图为七种公开方法(原生的互联网文本做为其中一种)的图文相关性得分胜出情况
- SEEChat胜出率甚至大比例超过原生文本
技术方案
SEEChat基于单模态专家缝合路线,通过可学习的桥接层将视觉模态的专家模型与文本模态的专家模型进行缝合,形成具备视觉理解能力的多模态对话模型。
开源V1.0版本的SEEChat,视觉模态基于CLIP-ViT,文本模态基于ChatGLM,可学习的桥接层参考BLIP-2以及LLAVA等前期工作,进行如下的两阶段训练:
- Stage I 图文对齐: 使用360人工智能研究院开源的Zero数据集,共计2300万图文对桥接层进行训练
- Stage II 人机对齐:使用LLAVA开源的158K instruction数据经翻译后,对桥接层和语言模型部分进行微调
使用说明
硬件说明
GPU要求3090或者A100
环境安装
conda env create -f environment.yml
模型与数据
模型下载
从这里下载chatGLM所有的bin文件和ice_text.model,放于目录models/chatglm-6b中。
从百度云盘下载权重文件checkpoint_100.pth,放于目录models/chatglm-6b中。其中提取码为 qiho
运行推理脚本
进入到目录: cd code
运行启动脚本: sh demo_stage2.sh
启动后,即将开始一轮对话。当命令行显示“question”时,用户可以在终端输入问题,由seechat回答。当输入“break”时,本轮对话结束,进行下一轮对话。 实测效果如下: 
相关工作
中文
英文
数据统计
数据评估
关于一见特别声明
本站IE网址导航号提供的一见都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由IE网址导航号实际控制,在2023-11-16 17:53收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,IE网址导航号不承担任何责任。
相关导航

医学大模型提供基于LLaMA-7B、CaMA-13B和ChatGLM-6B 三个版本,用于PromptProtein的模型,法律大模型智海-录问基于Baichuan-7B,智海-三乐基于Qwen-7B

Stable Diffusion
Stable Diffusion | StabilityAI推出的文本到图像生成AI | AI训练模型

ChatLaw-法律大模型
ChatLaw-13B,此版本为学术demo版,基于姜子牙Ziya-LLaMA-13B-v1训练而来,中文各项表现很好,但是逻辑复杂的法律问答效果不佳,需要用更大参数的模型来解决。

达摩院
提供大数据和AI场景下的最佳实践案例,一站式引导体验帮您快速了解DataWorks、MaxCompute、机器学习PAI、Hologres、Flink等产品能力和解决方案,降低企业上云成本。

零一万物
零一万物-AI2.0大模型技术和应用的全球公司

K2
一个地球科学的开源大预言模型

MathGPT
MathGPT 是好未来自主研发的,面向全球数学爱好者和科研机构,以解题和讲题算法为核心的大模型

序列猴子开放平台
具有长序列、多模态、单模型、大数据等特点的超大规模语言模型,基于其通用的表示能力与推理能力,能够进行多轮交互,打造更便捷流畅的用户体验。
暂无评论...





