单卡、多卡 BERT、GPT2 训练性能【100亿模型计划】
发布人