1 月 17 日,上海人工智能实验室联合多所高校和企业的研发团队,推出了具有 200K 上下文窗口能力的开源 AI 模型:书生·浦语 InternLM2 7B 和 20B,它们在推理、数学、代码理解、对话体验等方面均展现出卓越的能力。
InternLM2 项目旨在构建一个强大而灵活的 AI 模型,以支持广泛的研究和应用场景。项目团队汇聚了来自不同领域的专家,他们的共同努力使得 InternLM2 在发布之初就展现出了卓越的性能和潜力。
InternLM2 系列包含两种模型:InternLM2 7B 基础模型和 InternLM2 20B 聊天模型 。7B 模型研究和应用效率较高,20B 模型功能更强大,可以支持更复杂的场景。
InternLM2 系列模型的特点包括:
1. 200K 上下文窗口: InternLM2 系列模型在处理长文本方面的能力得到了显著提升。它能够在 200K 的上下文窗口中近乎完美地进行信息检索,这在 LongBench 和 L -Eval 等长上下文任务中表现得尤为突出。通过 LMDeploy,用户可以体验到这一强大的上下文推理能力。
2. 综合性能提升: InternLM2 系列模型在多个维度上都有显著的性能提升。特别是在推理、数学、代码理解、对话体验、指令遵循和创意写作等方面,它在同类规模的开源模型中处于领先地位。在某些评估中,InternLM2-Chat-20B 甚至可能与 ChatGPT(GPT-3.5)相媲美或超越。
3. 代码解释器与数据分析: InternLM2-Chat-20B 模型借助代码解释器,在 GSM8K 和 MATH 等任务上展现出与 GPT- 4 相仿的性能。此外,InternLM2-Chat 还具备数据分析功能,这为模型的应用提供了更多的实用价值。
4. 更强的工具使用能力: InternLM2 在工具使用方面的能力得到了整体升级。基于更强的指令理解、工具筛选和结果反思能力,新版模型能够更可靠地支持复杂智能体的搭建,并能有效地进行多轮调用工具,完成较复杂的任务。
自 2023 年 9 月 20 日 InternLM-20B 发布以来,该系列模型不断迭代,为智能对话、自动化编程、数据分析等领域带来了新的可能。随着技术的不断进步和社区的积极参与,我们期待 InternLM2 能够在未来发挥更大的作用,为人类社会带来更多的便利和智慧。