项目 | 描述 |
---|---|
Zero-Qwen-VL | 训练一个对中文支持更好的LLaVA模型,并开源训练代码和数据。 |
Zero-Chatgpt | 从0开始,将chatgpt的技术路线跑一遍。 |
小模型汇总 | 从零训练的 1B 以下小模型汇总 |
数据集 | 整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主,包括底座模型,垂直领域微调及应用,数据集与教程等。 |
minimind | 2小时完全从0训练26M的小参数GPT! |
Phi2-Chinese-0.2B | Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG |
ScratchLLMStepByStep | 一个手把手教你从零开始编写GPT并训练大语言模型的教程 |
暂无评论