“封神榜”是由粤港澳大湾区数字经济研究院(International Digital Economy Academy,简称IDEA研究院)认知计算与自然语言中心的工程师、研究人员、实习生团队共同维护的一项长期开源计划。“封神榜”开源体系将会重新审视整个中文预训练大模型开源社区,全方位的推进整个中文大模型社区的发展,旨在成为中文认知智能的基础设施。
姜子牙(Ziya)通用大模型V1是基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练(PT)、多任务有监督微调(SFT)和人类反馈学习(RLHF)三阶段的训练过程。
姜子牙(Ziya)通用大模型能够在数字人、文案创作、聊天机器人、业务助手、问答、代码生成等多个应用场景助力人机协作,提高工作和生产效率。
"封神榜"中文最大的开源预训练模型体系,目前已有超过98个开源预训练模型。 目前已经开源了第一个中文Stable Diffusion,开源了中文第一个CLIP模型, 二郎神UniMC等模型多次获得FewCLUE / ZeroCLUE等榜单冠军。
将数据和算力沉淀成具有认知能力的预训练模型,目标是成为海量下游任务和各种算法创新研究的坚实基础。
GTS模型生产平台专注在自然语言处理领域,服务于智能客服、数据语义分析、 推荐系统等众多业务场景,支持电商评论情感分析、科学文献学科分类、新闻分类、内容审核等任务
在GTS训练体系下,只需要输入少量 训练样本,无需AI模型训练相关知识,就能得到一个 可以直接部署的轻量级小模型。