Linly:全新中文基础与对话大模型

Linly,中文对话模型Linly-ChatFlow与基于LLaMA和Falcon的中文基础模型Chinese-LLaMA和Chinese-Falcon,提供高性能、多场景应用的语言模型。
直达下载
回到上一页
clickgpt_line.png_noView
介绍

Linly系列中文语言大模型,由大数据系统计算技术国家工程实验室开发,旨在填补中文基础模型在百亿到千亿级预训练参数的空白。这一系列模型包括中文基础模型和对话模型,均基于LLaMA底座,利用中英平行语料的增量预训练,强化了模型的中文处理能力。

github_ai_big_model_linly_1

模型的主要优势和特性:

  1. 多层次训练策略:利用32个A100 GPU进行不同量级和功能的中文模型训练,确保模型的充分训练并提供强大的baseline。Linly33B是目前最大的中文LLaMA模型,提供了丰富的训练细节和实验结果以确保项目的高可复现性。
  2. 高兼容性与易用性:模型支持CUDA和CPU的量化推理框架,并兼容HuggingFace格式,便于广泛使用。
  3. 开源策略:项目公开所有训练数据、代码、参数细节及实验结果,用户可以轻松地将这些资源用于自己的研究或项目中。

模型应用概览:

  • Linly-Chinese-LLaMA:以LLaMA为基础,进行高质量中文语料的增量训练,已开放7B、13B及33B版本,适用于广泛的语言理解任务。
  • Linly-ChatFlow:专注于对话模型,基于400万指令数据集进行精调,提供了7B和13B的对话模型版本。
  • Linly-ChatFlow-int4:4-bit量化版本,适合在CPU上部署模型推理,提高了模型在边缘设备上的应用灵活性。

未来发展方向:

项目团队正在对Linly说系列模型进行深入研发,未来将发布33B和65B的更新版本,可能带来更优异的性能。此外,团队计划通过人类反馈的强化学习(RLHF)、适用于中文的字词结合tokenizer、更高效的GPU int3/int4量化推理方法等技术进一步提升模型的效率和效果。Linly项目也将针对虚拟人、医疗及智能体场景推出更多专业化的应用模型。

这个项目不仅在技术上进行了大胆的创新,如通过全参数训练而非常见的LoRA方法,还在应用的多样性上展示了极大的潜力。特别是其对开源文化的承诺,为像我这样的开发者提供了极大的便利和机会,使我们能够在自己的项目中直接利用这些强大的模型。

编程学习
编程学习 免费领取编程学习资料 进编程学习交流群
订阅号
视频号
公众号 关注公众号,回复关键字java领取大厂最新面试题
×
编程学习
免费领取编程学习资料 进编程学习交流群