Fork me on GitHub
摘要: 你训练大语言模型(LLM)用的什么框架?有没有想过不用框架训练 GPT-2? GitHub 上就有这么一位大神(Andrej Karpathy),他仅用大约 1k 行的 C 代码就完成了 GPT-2 模型的训练,代码纯手撸、不依赖任何机器学习框架,作者这么做仅仅是觉得很有趣。尽管这个项目(llm.c 阅读全文
posted @ 2024-04-16 08:33 削微寒 阅读(4056) 评论(4) 推荐(18) 编辑