继今年1月份开源国内首个MoE(Mixture of Experts,专家混合)模型后,DeepSeek公司经过4个月的深入研究,于今日宣布开源其第二代MoE模型——DeepSeek-V2。这一模型在多个主流大模型评测榜单中表现卓越,尤其在中文..