
网站状态:
BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
网站特色:
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
网站操作:
导航号正在努力测试中。。。
优点缺点:
导航号正在努力筹备中。。
数据统计
数据评估
关于乾元特别声明
本站IE网址导航号提供的乾元都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由IE网址导航号实际控制,在2023-11-20 11:05收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,IE网址导航号不承担任何责任。
相关导航

悟道3.0,视界视觉,AQUILA天鹰座,Aquila-7B,AquilaChat-7B,AquilaCode-7B-NV,AquilaCode-7B-TS,HuggingFace,EMU基于LLaMA

聚宝盆(Cornucopia)
本项目开源了基于 LLaMA 系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型。通过中文金融公开问答数据+爬取的金融问答数据构建指令数据集,并在此基础上对 LLaMA 系模型进行了指令微调,提高了 LLaMA 在金融领域的问答效果。

紫东太初多模态大模型
面向企业提供一站式研发管理解决方案,包括代码管理、项目管理、文档协作、测试管理、CICD、效能度量等多个模块,支持SaaS、私有化等多种部署方式,帮助企业有序规划和管理研发过程,提升研发效率和质量。

达摩院
提供大数据和AI场景下的最佳实践案例,一站式引导体验帮您快速了解DataWorks、MaxCompute、机器学习PAI、Hologres、Flink等产品能力和解决方案,降低企业上云成本。

魔搭社区
魔搭社区 | 阿里达摩院推出的AI模型社区,超过300+开源AI模型 | AI训练模型

AgentGPT
Assemble, configure, and deploy autonomous AI Agents in your browser.
揽睿Ai
集成全网大模型,全网最优算力租赁,一键启动Stable Diffusion,支持LLM等

LLaMA
LLaMA | Meta(Facebook)推出的AI大语言模型 | AI训练模型
暂无评论...


