代码链接:https://github.com/lfwa/carbontracker
一、单次训练等于126个家庭一年能耗简单来说,深度学习训练的过程就是数学模型从大量数据中学习、识别模式的过程。这同时也是一个耗能的过程,需要高性能计算机一天24小时不间断运转。
Benjamin Kanding说:“随着数据集一天一天地增长,算法需要解决的问题变得越来越复杂。”
迄今为止技术人员开发过的最大的深度学习模型之一是称为GPT-3的高级语言模型。一次模型训练所消耗的能源就相当于126个丹麦家庭一年的能源消耗,还会产生与驾驶700000公里相同的二氧化碳排放量。
Lasse F. Wolff Anthony也提到:“人工智能领域发展迅猛,深度学习模型也不断从层级和架构方面扩大规模以满足人们的需求。现在,模型规模呈指数级增长,同时也意味着能源消耗的增加,这是大多数人都没有想到的。”
二、绿色能源、模型调参?能耗降低有妙招为了避免训练模型由于能源消耗可能造成的环境影响,Carbontracker也会收集在不同地区进行算法训练所消耗的二氧化碳数据,这样就可以将能耗问题转化为二氧化碳排放,从而更容易地对不同模型所产生的能耗进行预测。
Carbontracker开发者也呼吁深度学习的程序设计者关心能耗问题。
模型训练所消耗的能量跟很多因素都有关,像所运用的能源类型、配套硬件性能和算法模型设计。
其中,Lasse F. Wolff Anthony也提到有很多种方式可以减少模型训练对环境造成的负面影响。
例如,如果技术人员选择在一些绿色能源丰富的地方训练模型,像爱沙尼亚或瑞典,那么能耗也不会很高,因为绿色能源能将碳足迹减少60倍以上。
不同的算法能耗也大不相同。有些算法所需计算量较少,在能耗不高的情况下就可以达到相同的效果。如果技术人员调整模型中某些参数,以减少计算量,那模型训练所需的能耗也会有很大程度的降低。
参考信源:ScienceDaily
相关文章
猜你喜欢