欢迎 Mixtral - 当前 Hugging Face 上最先进的 MoE 模型

最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。a56爆大奖在线娱乐们很高兴能够在 Hugging Face 生态系统中全面集成 Mixtral 以对其提供全方位的支持 🔥! Hugging Fac
posted @ 2024-01-04 12:27  HuggingFace  阅读(1060)  评论(0编辑  收藏  举报