mistral 8*22b:开源大模型第一名再次易主,但吐槽下MOE组织大模型方式是一种鸡肋的方式,相比于单一的大参数模型占用GPU一点都没省,仅仅提升了并发
发布人