网站属性:(实时查询)
备案状态 | 未备案 或 非根域名 或 国外域名 |
单位性质 | 暂无 |
公司主体 | 暂无 |
网站首页 | 暂无 |
备案号码 | 暂无 |
备案时间 | 暂无 |
最近检测 | 暂无 |
网站状态:(实时监测)温馨提示:快照无内容则网站无法正常访问可不用点击前往
BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
网站特色:
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
网站操作:
导航号正在努力测试中。。。
优点缺点:
导航号正在努力筹备中。。
数据统计
数据评估
本站IE网址导航号提供的乾元都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由IE网址导航号实际控制,在2023-11-20 11:05收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,IE网址导航号不承担任何责任。
相关导航
虽然LLaMA模型在通用领域通过指令微调已经展示出了令人印象深刻的性能,但对于自媒体创作、直播和运营等领域,由于缺乏专业的训练数据,其能力仍有待提高。为了解决这个问题,我们提出了MediaGPT,一个针对自媒体领域进行特殊训练的模型。gether. Contribute to the open source community, manage your Git repositories, review code like a pro, track bugs and features, power your CI/CD and DevOps workflows, and secure code before you commit it.