Meta 推出 CATransformers 框架,AI 减排新利器
GoodNav 5 月 15 日消息,科技媒体 marktechpost 昨日(5 月 14 日)报道,Meta AI 的 FAIR 团队与佐治亚理工学院合作开发了 CATransformers 框架,该框架将碳排放作为核心设计因素,通过联合优化模型架构和硬件性能,显著降低了 AI 的碳足迹,为可持续 AI 发展迈出了重要一步。
机器学习的广泛应用带来了诸多革新,但也带来了环境成本。这些系统需要大量计算资源,通常依赖定制硬件加速器,训练和推理过程的高能耗直接导致运营碳排放增加。
此外,硬件从生产到报废的全生命周期也产生“间接碳排放”,加剧了环境负担。随着 AI 技术在各行各业的快速应用,解决运营和隐含碳排放的双重问题已成为当务之急。
目前,减排方法主要集中于提高运营效率,例如优化训练和推理的能耗,或提高硬件利用率。然而,这些方法往往忽略了硬件设计和制造阶段的碳排放,未能将模型设计和硬件效率的相互作用整合起来。
Meta 的 FAIR 团队和佐治亚理工学院联合推出的 CATransformers 框架,将碳排放纳入核心设计考量。该框架利用多目标贝叶斯优化引擎,综合评估模型架构和硬件加速器的性能,平衡延迟、能耗、精度和总碳足迹。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...