Meta发布开源大模型Llama 4:首次采用“混合专家”架构
来源:每日消费报
每日消费报4月7日消息,近日,Meta公司正式推出新一代开源大语言模型Llama 4,其最大亮点是首次引入**“混合专家”(Mixture of Experts, MoE)架构**,显著提升了模型性能与效率。
据悉,Llama 4通过MoE技术将任务动态分配给多个专家子模型,在降低计算成本的同时保持高精度输出。这一设计使其在多项基准测试中表现优异,尤其在处理复杂任务时展现更强的灵活性和扩展性。
Meta强调,Llama 4将继续坚持开源策略,为开发者与研究社区提供免费商用许可,推动AI技术民主化。业界认为,此举将进一步加速大模型创新与应用落地,并对闭源模型形成竞争压力。
目前,Llama 4已开放预训练版本下载,后续将推出针对垂直场景的微调工具包。
【免责声明】
凡本站未注明来源为"每日消费报"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!