国产|一块3090单挑180亿参数大模型:国产开源项目这回杀疯了( 二 )
它俩常干的事呢 , 就是抢GPU显存 。
文章图片
所以 , 就需要在GPU显存不够时CPU能来帮忙 , 与此同时还要避免其他情况下内存浪费 。
Colossal-AI高效利用GPU+CPU的异构内存 , 就是这样的逻辑 。
而以上过程中 , 获取非模型数据的内存使用量其实非常难 。
因为非模型数据的生存周期并不归用户管理 , 现有的深度学习框架没有暴露非模型数据的追踪接口给用户 。其次 , CUDA context等非框架开销也需要统计 。
在这里Colossal-AI的解决思路是 , 在预热阶段用采样的方式 , 获得非模型数据对CPU和GPU的内存的使用情况 。
简单来说 , 这是道加减法运算:
非数据模型使用 = 两个统计时刻之间系统最大内存使用 — 模型数据内存使用
已知 , 模型数据内存使用可以通过查询管理器得知 。
具体来看就是下面酱婶的:
文章图片
所有模型数据张量交给内存管理器管理 , 每个张量标记一个状态信息 , 包括HOLD、COMPUTE、FREE等 。
然后 , 根据动态查询到的内存使用情况 , 不断动态转换张量状态、调整张量位置 , 更高效利用GPU显存和CPU内存 。
在硬件非常有限的情况下 , 最大化模型容量和平衡训练速度 。这对于AI普及化、低成本微调大模型下游任务等 , 都具有深远意义 。
而且最最最关键的是——加内存条可比买高端显卡划 算 多 了 。
文章图片
前不久 , Colossal-AI还成功复现了谷歌的最新研究成果PaLM (Pathways Language Model) , 表现同样非常奈斯 , 而微软DeepSpeed目前还不支持PaLM模型 。
文章图片
Colossal-AI还能做什么?
前面也提到 , Colossal-AI能挑战的任务非常多 , 比如加速训练、节省GPU资源 。
那么它是如何做到的呢?
简单来说 , Colossal-AI就是一个整合了多种并行方法的系统 , 提供的功能包括多维并行、大规模优化器、自适应任务调度、消除冗余内存等 。
文章图片
目前 , 基于Colossal-AI的加速方案FastFold , 能够将蛋白质结构预测模型AlphaFold的训练时间 , 从原本的11天 , 减少到只需67小时 。
而且总成本更低 , 在长序列推理任务中 , 也能实现9~11.6倍的速度提升 。
这一方案成功超越谷歌和哥伦比亚大学的方法 。
文章图片
此外 , Colossal-AI还能只用一半GPU数量训练GPT-3 。
相比英伟达方案 , Colossal-AI仅需一半的计算资源 , 即可启动训练;若使用相同计算资源 , 则能提速11% , 可降低GPT-3训练成本超百万美元 。
文章图片
与此同时 , Colossal-AI也非常注重开源社区建设 , 提供中文教程、开放用户社群论坛 , 根据大家的需求反馈不断更新迭代 。
比如之前有读者留言说 , Colossal-AI要是能在普通消费级显卡上跑就好了 。
文章图片
这不 , 几个月后 , 已经安排好了~
背后团队:LAMB优化器作者尤洋领衔
看到这里 , 是不是觉得Colossal-AI确实值得标星关注一发?
实际上 , 这一国产项目背后的研发团队来头不小 。
推荐阅读
- 内饰|汽车界的“奥斯卡奖” 2022沃德十佳内饰公布:国产车无一上榜
- 飞机|国产自研!13吨级大型民用直升机AC313A首飞成功
- 滑溜鱼块的做法
- 利亚红茶,国产拼配红茶
- 红茶拼配英国,国产拼配红茶
- 家庭版|国产自研桌面OS!统信UOS家庭版21.3公测:打通安卓、PC
- 熬夜|什么牌子的国产面膜好 十大热门国产面膜排行榜
- 西部数据|西数将量产162层闪存:一块晶圆容量100TB
- 内存|国产内存巅峰!朗科绝影DDR4-4266 CL18超低价799元
- 中国电信|6nm国产芯!中国电信天翼1号2022发布:通话不怕被监听
