首页 / 模型层 / Mixtral 8x7B

Mixtral 8x7B

by Mistral AI

🔓 开源

Mistral AI的MoE模型,在保持高效推理的同时提供接近70B模型的性能。

✨ 核心特性

📊 能力评分

推理能力 ⭐⭐⭐⭐⭐
编码能力 ⭐⭐⭐⭐⭐
多语言能力 ⭐⭐⭐⭐

🔓 开源模型部署指南

📋 基本信息

开发公司
Mistral AI
发布日期
2023-12-01
开源协议
Apache 2.0
浏览次数
21

🔗 相关模型