高達(dá)30%的人工智能被浪費(fèi)了
密歇根大學(xué)的一項最新研究表明,培訓(xùn)大型語言模型的一種不那么浪費(fèi)的方法,如GTP系列,在相同的時間內(nèi)完成,最多能減少30%的能量。這一方法可以節(jié)省足夠的能源,為1
閱讀(189)標(biāo)簽: 人工智能能源消耗 大型語言模型訓(xùn)練 數(shù)據(jù)中心碳排放
密歇根大學(xué)的一項最新研究表明,培訓(xùn)大型語言模型的一種不那么浪費(fèi)的方法,如GTP系列,在相同的時間內(nèi)完成,最多能減少30%的能量。這一方法可以節(jié)省足夠的能源,為1
閱讀(189)標(biāo)簽: 人工智能能源消耗 大型語言模型訓(xùn)練 數(shù)據(jù)中心碳排放