lnternLM 是上海人工智能实验室与商汤科技(同等贡献)联合香港中文大学、复旦大学、上海交通大学合作开发的多语言大语言模型。
我们隆重介绍 InternLM ,具有 104B 个参数的多语言基础语言模型。 InternLM 在具有 1.6T 代币的大型语料库上进行了多阶段渐进过程的预训练,然后进行微调以符合人类偏好。我们还开发了名为 Uniscale-LLM 的训练系统,用于高效的大语言模型训练。多项基准测试的评估表明,InternLM在知识理解、阅读理解、数学和编码等多个方面均达到了state-of-the-art的表现。凭借如此全面的功能,InternLM 在不借助外部工具的情况下,在 MMLU、AGIEval、C-Eval 和 GAOKAO-Bench 等综合考试中取得了出色的表现。在这些基准测试中,InternLM 不仅显着优于开源模型,而且与 ChatGPT 相比也获得了更优越的性能。此外,InternLM表现出出色的理解汉语和中国文化的能力,这使其成为支持面向汉语的语言应用的合适基础模型。这份手稿详细研究了我们的结果,并提供了跨不同知识领域和任务的基准和示例。
官网
https://github.com/InternLM/InternLM-techreport