北京時(shí)間2月13日消息,隨著ChatGPT的爆紅,,微軟,、谷歌,、百度相繼宣布對(duì)他們的搜索引擎進(jìn)行重大改革,試圖將大型人工智能模型整合到搜索中,,以便給用戶提供更豐富,、更準(zhǔn)確的體驗(yàn)。但是興奮之余,,新工具背后可能隱藏著一個(gè)“骯臟的秘密”,。
外媒指出,構(gòu)建高性能人工智能搜索引擎的競賽很可能需要計(jì)算能力的大幅提升,,它所產(chǎn)生的后果將是科技公司所需能源和碳排放量的大幅增加,。
英國薩里大學(xué)網(wǎng)絡(luò)安全教授艾倫·伍德沃德(Alan Woodward)表示:“已經(jīng)有大量資源被用于索引和搜索互聯(lián)網(wǎng)內(nèi)容,但人工智能的整合需要一種不同的火力,。
它需要處理能力,、存儲(chǔ)和高效搜索。每當(dāng)我們看到在線處理的步驟變化時(shí),,我們就會(huì)看到大型處理中心所需的電力和冷卻資源的顯著增加,。我認(rèn)為人工智能的整合可能是會(huì)走這一步。”
碳排放大增
訓(xùn)練大型語言模型(LLMs)意味著在大量數(shù)據(jù)中解析和計(jì)算鏈接,,這就是為什么它們往往是由擁有大量資源的公司開發(fā)的原因,,比如為微軟必應(yīng)搜索提供動(dòng)力的ChatGPT,為谷歌聊天機(jī)器人“巴德”(Bard)提供支持的那些語言模型,。
“訓(xùn)練這些模型需要大量的計(jì)算能力,,”西班牙科魯尼亞大學(xué)(University of Coruña)計(jì)算機(jī)科學(xué)家卡洛斯·戈麥茲·羅德里古茲(Carlos Gómez-Rodríguez)表示,“現(xiàn)在,,只有大型科技公司才能訓(xùn)練他們,。”
盡管OpenAI和谷歌都沒有透露其產(chǎn)品的計(jì)算成本是多少,但研究人員發(fā)布的第三方分析預(yù)計(jì),,ChatGPT部分依賴的GPT-3模型的訓(xùn)練會(huì)消耗1287兆瓦時(shí)電力,,產(chǎn)生550多噸的二氧化碳當(dāng)量,相當(dāng)于一個(gè)人在紐約和舊金山之間往返550次,。
“這個(gè)數(shù)字看起來沒有那么糟糕,,但你必須考慮到這樣一個(gè)事實(shí):你不僅要訓(xùn)練它,還要執(zhí)行它,,為數(shù)百萬用戶服務(wù),。”羅德里古茲表示。
而且,,把ChatGPT作為一個(gè)獨(dú)立產(chǎn)品使用與把它整合到必應(yīng)中還有很大不同,。投行瑞銀預(yù)計(jì),ChatGPT日均獨(dú)立訪問用戶為1300萬,。相比之下,,必應(yīng)每天要處理5億次搜索,。
加拿大數(shù)據(jù)中心公司QScale聯(lián)合創(chuàng)始人馬丁·布查德(Martin Bouchard)認(rèn)為,根據(jù)他對(duì)微軟和谷歌搜索計(jì)劃的了解,,在搜索過程中添加生成式人工智能,,需要“每次搜索至少增加4到5倍的計(jì)算量”。
為了滿足搜索引擎用戶的需求,,企業(yè)必須做出改變,。“如果他們要經(jīng)常重新訓(xùn)練模型,,并添加更多參數(shù)之類的東西,,這是一個(gè)完全不同的規(guī)模,”布查德表示,,“這將需要在硬件上進(jìn)行大量投資,。我們現(xiàn)有的數(shù)據(jù)中心和基礎(chǔ)設(shè)施將無法應(yīng)對(duì)生成式人工智能的消耗。它們對(duì)性能的需求太高了,。”
如何減少碳排放,?
根據(jù)國際能源署發(fā)布的數(shù)據(jù),數(shù)據(jù)中心的溫室氣體排放量已經(jīng)占到全球溫室氣體排放量的1%左右,。隨著云計(jì)算需求的增長,,這一數(shù)字預(yù)計(jì)還會(huì)上升,但運(yùn)營搜索引擎的公司已承諾減少它們對(duì)全球變暖的凈貢獻(xiàn),。
微軟已經(jīng)承諾到2050年實(shí)現(xiàn)碳負(fù)排放,,該公司計(jì)劃今年購買150萬噸碳信用額。碳信用又稱碳權(quán),,是指排放1噸二氧化碳當(dāng)量的溫室氣體的權(quán)利,。谷歌承諾到2030年在其整個(gè)業(yè)務(wù)和價(jià)值鏈實(shí)現(xiàn)凈零排放。
對(duì)于這些巨頭來說,,減少將人工智能整合到搜索中的環(huán)境足跡和能源成本的一個(gè)方式就是將數(shù)據(jù)中心轉(zhuǎn)移到更清潔的能源上,,并重新設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)讓讓變得更高效,減少所謂的“推斷時(shí)間”,,也就是算法處理新數(shù)據(jù)所需的計(jì)算能力,。
“我們必須研究如何減少這種大型模型所需要的推斷時(shí)間,”謝菲爾德大學(xué)自然語言處理講師納菲斯·薩達(dá)特·莫薩維(Nafise Sadat Moosavi)表示,,她致力于自然語言處理的可持續(xù)性研究,,“現(xiàn)在是關(guān)注效率方面的好時(shí)機(jī)。”
谷歌發(fā)言人簡·帕克(Jane Park)表示,,谷歌最初發(fā)布的“巴德”版本是一個(gè)由輕量級(jí)大型語言模型支持的版本,。“我們還發(fā)表了一項(xiàng)研究,,詳細(xì)介紹了最先進(jìn)語言模型的能源成本,,包括早期和更大版本的LaMDA,”
帕克稱,“我們的研究結(jié)果表明,,將高效的模型、處理器和數(shù)據(jù)中心與清潔能源相結(jié)合,,可以將機(jī)器學(xué)習(xí)系統(tǒng)的碳足跡減少1000倍,。”
文章出處:鳳凰網(wǎng)科技