6月30日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型。
早在今年2月,一直坚持闭源路线的百度,已预告了文心大模型4.5系列的推出计划,并明确将于6月30日起正式开源。
目前,文心大模型4.5开源系列已可在飞桨星河社区、HuggingFace等平台下载部署使用,同时开源模型API服务也可在百度智能云千帆大模型平台使用。
同日,华为正式发布首个开源大模型,宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。
根据华为官网显示,盘古Pro MoE 72B模型权重、基础推理代码以及基于昇腾的超大规模MoE模型推理代码正式上线开源平台。而盘古7B相关模型权重与推理代码将于近期上线开源平台。
0 条