随着AI大语言模型的持续爆发,最新一代的GPT参数量已经达到18000亿,训练一次需要消耗25000张英伟达A100 GPU、100天的时间,用电2.4亿度,几乎相当于 ...