「八卦炉」炼丹规模直逼人脑!清华、阿里等搞了个174万亿参数大模型

清华大学、阿里达摩院等机构的研究人员提出一种全新的思路——「八卦炉」(BaGuaLu)。这也是第一个针对在超算,也就是新一代「神威」上,训练参数量达到「百万亿级」模型的工作。

点击进入