首页
推荐
教程
列表
书单
工具
公司
云平台
论文
数据
文章
关于
「八卦炉」炼丹规模直逼人脑!清华、阿里等搞了个174万亿参数大模型
2 年前
Glacier
1438
清华大学、阿里达摩院等机构的研究人员提出一种全新的思路——「八卦炉」(BaGuaLu)。这也是第一个针对在超算,也就是新一代「神威」上,训练参数量达到「百万亿级」模型的工作。
点击进入