2024年11月,腾讯宣布推出其新一代的MoE(Mixture of Experts)大语言模型Hunyuan-Large,该模型在行业中首次达到3890亿参数,成为业界规模最大且功能最强大的开源模型之一。这一创新引发了广泛关注,同时也标志着AI大模型技术的进一步进化。腾讯不仅为开发者提供了强大的技术工具,同时也通过开源的方式推动了全球人工智能技术的普及与共享。
人工智能领域的新生力量不断涌现,腾讯近日宣布开源其最新力作——Hunyuan-Large(混元模型),这是一款基于Transformer架构的Mixture of Experts(MoE)模型,拥有惊人的3890亿参数,其中520亿个为活跃参数。这一巨大规模的模型不仅在参数量上打破了行业纪录,同时在多个重要的自然语言处理(NLP)基准测试中表现出色,标志着腾讯在AI技术研发领域的又一次突破。