1月29日消息,谷歌,、Facebook和微軟幫助構(gòu)建了人工智能的框架,,但規(guī)模較小的初創(chuàng)公司正在將其推向大眾,這迫使科技巨頭們加快AI開發(fā)速度,。
據(jù)消息人士透露,,由于圍繞ChatGPT的關(guān)注激增,,meta和谷歌內(nèi)部壓力也在增大,甚至可能為了行動更快而撇開某些潛在的安全擔憂,。
早在AI研究公司OpenAI于2011年11月份首次推出AI聊天機器人ChatGPT三個月前,F(xiàn)acebook母公司meta就曾發(fā)布過類似的聊天機器人,。但meta首席人工智能科學家雅恩·勒昆(Yann LeCun)表示,,與ChatGPT立即爆火、上線五天里就有100多萬用戶不同,,meta的Blenderbot讓人覺得很無聊,。
上周,勒昆在AI咨詢公司Collective[i]主辦的論壇上表示:“Blenderbot之所以讓人覺得無聊,,是因為它的設計非常安全,。”他將Blenderbot的不溫不火歸咎于meta對內(nèi)容審核過于謹慎,比如若用戶詢問宗教問題,,該公司就會指示聊天機器人改變話題,。另一方面,ChatGPT卻在談論宗教著作中的謬誤概念,。
ChatGPT正在迅速成為主流,,因為微軟正在努力將其納入其流行的辦公軟件中,并向其他企業(yè)出售該工具的使用權(quán)限,。微軟最近向ChatGPT開發(fā)公司OpenAI公司投資了數(shù)十億美元,。
根據(jù)對六名離職和在職谷歌、meta員工的采訪,,對ChatGPT的關(guān)注激增正在促使包括這兩家公司在內(nèi)的科技巨頭內(nèi)部壓力激增,,迫使他們更快地采取行動,可能會擱置對某些潛在安全問題的擔憂,。
科技巨頭AI工具發(fā)布慢受到質(zhì)疑
其中一人表示,,在meta,員工最近分享了內(nèi)部備忘錄,,敦促公司加快AI項目的審批流程,,以便利用最新技術(shù)。而谷歌本身就幫助開創(chuàng)了支撐ChatGPT的部分技術(shù),,該公司最近發(fā)布了圍繞推出AI產(chǎn)品的“紅色代碼”,,并提出了所謂的“綠色車道”,以縮短評估和減輕AI潛在危害的過程,。
ChatGPT以及Dall-E 2,、Stable Diffusion等文本轉(zhuǎn)圖像等工具,都屬于所謂的生成性人工智能(AIGC),。它們通過借鑒現(xiàn)有的,、人類創(chuàng)造的內(nèi)容來確定某些模式,,以此來創(chuàng)作自己的作品。
這項技術(shù)是由谷歌等大型科技公司首創(chuàng)的,,但它們近年來變得更加保守,,只發(fā)布新的模型或演示版本,而對整個產(chǎn)品保密,。與此同時,,像OpenAI這樣的研究實驗室迅速發(fā)布了他們的最新版本,這引發(fā)了人們對谷歌語言模型Lamda等企業(yè)產(chǎn)品的質(zhì)疑,。
自從像微軟AI聊天機器人Tay等失敗以來,,科技巨頭們始終都感覺很緊張。2016年發(fā)布僅僅不到一天,,Tay就發(fā)布種族歧視等不當言論,,導致微軟立即將其關(guān)閉,。meta為Blenderbot進行了辯護,,并在其發(fā)表種族歧視言論后放棄了它。去年11月,,另一款名為Galactica的AI工具因其不夠準確,、有時存在偏見而受到批評,,也在短短三天后被下線。
谷歌AI部門的一名員工表示:“人們覺得OpenAI的技術(shù)比這些老牌公司更新,、更令人興奮,,而且犯下的錯誤更少,他們現(xiàn)在可以逃脫諸多指責,。”他指的是公眾愿意在不那么嚴格的情況下接受ChatGPT,。有些AI領域的頂尖人才已經(jīng)跳槽到機制更靈活的初創(chuàng)公司,比如OpenAI和Stable Diffusion等,。
有些AI倫理學家擔心,,在信任和安全專家能夠研究這些風險之前,大型科技公司匆忙進入市場可能會讓數(shù)十億人面臨潛在的危害,,比如分享不準確的信息,、生成假圖像或讓學生有能力在學校考試中作弊,。
該領域的其他人也認同OpenAI的理念,,即向公眾發(fā)布工具是評估現(xiàn)實世界危害的唯一途徑。在減輕了某些可預測的風險后,,向公眾發(fā)布工具通常名義上處于“測試期”,。
創(chuàng)企搶先發(fā)布AI工具獲巨大優(yōu)勢
meta基礎AI研究部門董事總經(jīng)理喬爾·皮諾(Joelle Pineau)說:“AI的發(fā)展速度快得令人難以置信,我們一直在關(guān)注這個領域,,并確保我們擁有高效的審查流程,,但當務之急是做出正確的決定,,并發(fā)布最適合我們社區(qū)的AI模型和產(chǎn)品。”
谷歌發(fā)言人林莉莉(Lily Lin)表示:“我們相信,,AI是一項基礎性和變革性技術(shù),,對個人、企業(yè)和社區(qū)都非常有用,。我們需要考慮這些創(chuàng)新可能產(chǎn)生的更廣泛的社會影響,。我們繼續(xù)在內(nèi)部測試我們的AI技術(shù),以確保它能提供幫助,,并能夠安全使用。”
微軟通信主管弗蘭克·肖(Frank Shaw)稱,,當微軟在其產(chǎn)品中使用DALE-2等AI工具,,并將與OpenAI合作時,該公司將構(gòu)建額外的安全措施,。他說:“微軟多年來始終在致力于推動AI領域的發(fā)展,,并公開指導如何以負責任和符合道德的方式在我們的平臺上創(chuàng)建并使用這些技術(shù)。”
美國佐治亞理工學院計算機教授,、機器學習專家馬克·里德爾(Mark Riedl)表示,,ChatGPT背后的技術(shù)不一定比谷歌和meta開發(fā)的技術(shù)更好,但其發(fā)布語言模型供公眾使用的做法給了它巨大優(yōu)勢,。
里德爾說:“在過去的兩年里,,他們始終在利用一群人類向GPT提供反饋,比如對不合適或不滿意的答案給予‘否定’,,這個過程被稱為“從人類反饋中強化學習”,。
科技巨頭愿意冒險加速部署AI工具
在科技股暴跌之際,硅谷突然愿意考慮承擔更多的聲譽損失風險,。當谷歌上周裁員1.2萬人時,,其首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)寫道,該公司已經(jīng)進行了嚴格的審查,,將重點放在最優(yōu)先事項上,,并兩次提到了其對AI的早期投資。
十年前,,谷歌成為AI領域無可爭辯的領導者,。2014年,谷歌收購了尖端AI實驗室DeepMind,,并于2015年開源了其機器學習軟件TensorFlow,。到2016年,皮查伊承諾將谷歌轉(zhuǎn)變?yōu)橐患?ldquo;AI優(yōu)先”的公司,。次年,,谷歌發(fā)布了轉(zhuǎn)換器,,這是其軟件架構(gòu)的關(guān)鍵部分,掀起了當前的生成式AI浪潮,。
谷歌不斷推出更先進的技術(shù),,推動整個領域向前發(fā)展,在語言理解方面取得了許多突破,,幫助改進了谷歌搜索,。在大型科技公司內(nèi)部,審查尖端AI道德影響的制衡體系沒有確保隱私或數(shù)據(jù)安全那么成熟,。
通常,,由AI研究人員和工程師組成的團隊會就他們的發(fā)現(xiàn)發(fā)表論文,將他們的技術(shù)整合到公司現(xiàn)有的基礎設施中,,或者開發(fā)新產(chǎn)品,,這一過程有時可能會與其他負責AI開發(fā)的團隊產(chǎn)生沖突,因為他們面臨著將創(chuàng)新更快推向公眾的壓力,。
谷歌在2018年發(fā)布了其著名的AI原則,,此前員工曾抗議Project Maven(為美國國防部無人機提供計算機視覺的合同),消費者對Duplex(可以呼叫餐廳并進行訂餐的AI系統(tǒng))的演示也表示強烈反對,。
去年8月,,谷歌開始通過其應用程序AI Test Kitchen向消費者提供限量版LaMDA。前谷歌軟件工程師布萊克·萊莫因(Blake Lemoine)聲稱,,他相信LaMDA存在感知能力,,但該功能還沒有完全向公眾發(fā)布,谷歌計劃在2022年底這樣做,。
但這些技術(shù)進步背后的頂尖AI人才卻正變得焦躁不安,。在過去1年左右的時間里,谷歌許多頂級AI研究人員離職,,成立了圍繞大型語言模型的初創(chuàng)公司,,包括Character.AI、Cohere,、Adept,、Inflection.AI以及Inworld AI等。此外,,還有使用類似模型開發(fā)聊天界面的搜索初創(chuàng)公司,,例如由谷歌前高管斯里達爾·拉馬斯瓦米(Sridhar Ramaswamy)運營的Neeva。
Character.AI創(chuàng)始人諾姆·沙澤(Noam Shazeer)幫助發(fā)明了轉(zhuǎn)換器和其他核心機器學習架構(gòu),。他表示,,用戶數(shù)據(jù)的飛輪效應是無價的。當他首次將用戶反饋應用于Character.AI時,參與度上升了30%以上,。Character.AI允許任何人根據(jù)對真人或虛構(gòu)人物的簡短描述來生成聊天機器人,。
在Google Brain工作了三年的尼克·弗羅斯特(Nick Frosst)說,像谷歌和微軟這樣的大公司通常都專注于利用AI來改進他們龐大的現(xiàn)有商業(yè)模式,。弗羅斯特在多倫多與人聯(lián)合創(chuàng)立了Cohere,,這是一家創(chuàng)建大型語言模型的初創(chuàng)公司,可以定制這些模型來幫助企業(yè),。
他的創(chuàng)業(yè)伙伴艾丹·戈麥斯(Aidan Gomez)在谷歌工作時也幫助開發(fā)了轉(zhuǎn)換器,。弗羅斯特說:“這個領域發(fā)展得如此之快,對我來說,,領先的都是小公司并不令人感到驚訝,。”
在過去的十年里,AI領域經(jīng)歷了幾次炒作周期,,但對Dall-E和ChatGPT的狂熱達到了新的高度,。在OpenAI發(fā)布ChatGPT后不久,推特上的科技網(wǎng)紅開始預測,,AIGC將預示著谷歌搜索的衰亡。
ChatGPT以一種可訪問的方式提供簡單的答案,,并且不要求用戶在藍色鏈接中搜索,。此外,在發(fā)布25年之后,,谷歌的搜索界面變得臃腫起來,,充斥著試圖利用該系統(tǒng)的廣告和營銷人員。
技術(shù)專家Can Duruk在他的時事通訊《Margins》上寫道:“由于他們的壟斷地位,,谷歌已經(jīng)讓他們曾經(jīng)令人難以置信的搜索體驗退化成了垃圾郵件泛濫,、搜索引擎驅(qū)動的地獄。”
AI消費產(chǎn)品蘊藏巨大盈利潛力,?
在匿名應用Blind上,,科技工作者發(fā)布了數(shù)十個關(guān)于谷歌能否與ChatGPT競爭的問題。著名研究科學家David Ha在推特上寫道:“如果谷歌不采取行動,,開始發(fā)布類似應用,,他們將被載入史冊:它培養(yǎng)了整整一代機器學習研究人員和工程師,而這些研究人員和工程師后來又在其他公司部署了這項技術(shù),。”最近,,David Ha離開Google Brain,加盟開源文本轉(zhuǎn)圖像的初創(chuàng)公司Stable Diffusion,。
谷歌的員工們表示,,仍留在公司內(nèi)部的AI工程師和他一樣沮喪。多年來,,員工們始終在發(fā)送備忘錄,,表示要在搜索中加入AI聊天功能,。
但他們也明白,谷歌有合理的理由不急于改變其搜索產(chǎn)品,。如果聊天機器人直接通過谷歌搜索回答問題,,如果該答案被發(fā)現(xiàn)是有害的或抄襲的,則可能會增加它的責任,。
像OpenAI這樣的聊天機器人經(jīng)常犯事實性錯誤,,并經(jīng)常根據(jù)問題的提問方式改變答案。一位前谷歌AI研究員表示,,從提供一系列直接鏈接到原始材料的問題的答案,,轉(zhuǎn)向使用聊天機器人給出單一、權(quán)威的答案,,將是一個重大轉(zhuǎn)變,,讓谷歌內(nèi)部的許多人感到緊張。
這位知情人士說,,谷歌不想承擔這種提供單一答案的角色或責任,。之前的搜索更新,比如添加即時答案,,都是非常緩慢而謹慎進行的,。
然而,在谷歌內(nèi)部,,對AI安全流程的部分失望來自一種感覺,,即由于擔心負面宣傳,尖端技術(shù)從未作為產(chǎn)品發(fā)布,。比方說,,有些AI模型存在偏見。
據(jù)一位了解公司內(nèi)部討論情況的人士透露,,meta員工還不得不應對公司對糟糕公關(guān)的擔憂,。在推出新產(chǎn)品或發(fā)表研究成果之前,meta員工必須回答有關(guān)宣傳其工作的潛在風險問題,,包括其研究如何可能被誤解,。有些項目由公關(guān)人員以及內(nèi)部合規(guī)專家進行審查,這些專家確保該公司的產(chǎn)品符合2011年聯(lián)邦貿(mào)易委員會關(guān)于如何處理用戶數(shù)據(jù)的協(xié)議,。
對于非營利組織“分布式AI研究所”(Distributed AI Research Institute)的執(zhí)行董事蒂姆尼特·格布魯(Timnit Gebru)來說,,谷歌將其負責任AI團隊邊緣化的前景并不一定意味著權(quán)力或安全擔憂的轉(zhuǎn)移,因為那些警告潛在危害的人從一開始就沒有得到授權(quán),。
從格布魯?shù)慕嵌葋砜?,谷歌發(fā)布AI工具的速度很慢,因為該公司缺乏足夠強大的商業(yè)動機,不愿冒著聲譽受損的風險,。然而,,在ChatGPT發(fā)布后,谷歌可能會看到其從這些消費產(chǎn)品中賺錢的能力發(fā)生了變化,,而不僅僅是為搜索或在線廣告提供動力,。格布魯稱:“現(xiàn)在他們可能認為這對他們的核心業(yè)務構(gòu)成了威脅,所以或許他們應該冒險一試,。”
拉姆曼·喬杜里(Rumman Chowdhury)曾領導推特的機器學習倫理團隊,,直到去年11月埃隆·馬斯克(Elon Musk)解散了該團隊。
她表示,,她預計谷歌等公司在爭先恐后地追趕OpenAI的過程中,,將越來越多地將內(nèi)部批評者和倫理學家排擠在外。她說:“我們原來以為是中國在推動美國AI技術(shù)進步,,但現(xiàn)在看起來像是初創(chuàng)企業(yè)在背后發(fā)力,。”
文章出處:網(wǎng)易科技