精品久久久久久无码专区_久久精品国产99久久久古代_久久精品人妻无码一区二区三区_久久婷婷综合色丁香五月_老色鬼久久亚洲AV综合_两个人看的WWW在线观看_麻豆精产国品一二三产区区_最近中文字幕免费MV在线视频_影音先锋女人AA鲁色资源_男人扒开女人内裤强吻桶进去,国产精品自在拍首页,AV高潮娇喘抽搐喷水视频,日韩av片无码一区二区不卡电影

推廣 熱搜: APP  品牌  深圳APP外包公司  中國  發(fā)展  吉三代  智能  出口  產(chǎn)業(yè)  手機(jī) 

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

   日期:2023-02-01     來源:快科技    作者:Alex 魚羊    瀏覽:54    違規(guī)舉報(bào)
 
騰訊云服務(wù)器優(yōu)惠

ChatGPT到處“造假”作弊,,現(xiàn)在搞得OpenAI官方都坐不住了,。

就在今天,,OpenAI緊急發(fā)布官方打假工具:基于GPT打造,打開網(wǎng)頁就能用,。

好家伙,,這豈不是真·以己之矛攻己之盾了?

一經(jīng)上線,,那叫一個(gè)火爆,,不少網(wǎng)友第一時(shí)間就沖過去測試了。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

然鵝,,網(wǎng)友們一番試驗(yàn)之下卻發(fā)現(xiàn)——

這官方工具,跟咱自己瞎猜效果也差不多????,?

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

官方出品,約等于瞎猜

有人給OpenAI這個(gè)新鑒別器投喂了一小段文字,,結(jié)果首次嘗試就翻車了,。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

這位網(wǎng)友首先讓AI寫下一段文字,,內(nèi)容是評(píng)價(jià)莎士比亞的一個(gè)歷史劇角色,,不過他向?qū)懽鰽I特意給了個(gè)提示:

請(qǐng)以人類的方式來寫,爭取逃過AI鑒別工具的火眼金睛,。

結(jié)果沒想到,,還真就騙過了官方鑒別器。它看完給出回復(fù):這“非常不可能是AI生成的”,。

這個(gè)官方工具對(duì)文本內(nèi)容的判定結(jié)果一共就5個(gè)等級(jí):

非常不可能是AI生成的

不太可能是AI生成的

不清楚是不是AI生成的

可能是AI生成的

很可能是AI生成的

好家伙,,這不是和真實(shí)情況完全相反嘛,,讓網(wǎng)友都蚌埠住了:真是因吹斯汀…

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

還有人把ChatGPT生成的內(nèi)容一字不改,,直接拿給鑒定AI看,。但鑒定AI依然懵圈兒:“不清楚是不是AI生成的”。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

這位網(wǎng)友也只好呵呵,,并指出:

實(shí)際上,大家用ChatGPT等AI生成文字后,,并不會(huì)原封不動(dòng)地直接用,一般還會(huì)手動(dòng)修改一下,,或者丟進(jìn)quillbot.com等潤色工具里加工,,很可能導(dǎo)致鑒定AI更摸不著頭腦。

好吧,,既然AI生成文字分不太清,,那人類寫的東西能認(rèn)出來嗎?

有人把自己之前在Hacker News上發(fā)表的大段評(píng)論(純手打)喂給了鑒定AI,,結(jié)果10次中有9次,,AI都反饋說“不清楚是不是AI生成的”。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

在網(wǎng)友們的一片吐槽聲中,,量子位也忍不住親測了一下這個(gè)AI到底行不行。

首先,,我們先給它看了段真人寫的文字,,內(nèi)容是一位華盛頓大學(xué)博士對(duì)Tensor Core的講解,這次AI并沒有失誤,。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

然后我們讓ChatGPT來講講Tensor Core,并特地要求它盡量用人類的語氣來寫,,但還是被AI鑒定出來了,。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

這樣看來,,這個(gè)工具似乎也不是完全不能用,。

至于這次是不是ChatGPT發(fā)揮失常,你不妨也來鑒定看看:

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

但其實(shí)吧,,這回連OpenAI自己,用詞都顯得相當(dāng)謹(jǐn)慎,。

官方數(shù)據(jù)明明白白寫著,,雖然這個(gè)新款打假工具比之前鑒定器都靠點(diǎn)譜,,但其成功識(shí)別AI生成內(nèi)容的概率,也僅為26%,,還有9%的概率把人寫的文本當(dāng)成AI寫的,。

(這準(zhǔn)確率似乎跟蒙答案也差不多……)

還用加粗文字昭告:我們這個(gè)鑒別器啊,它并不完全靠譜,。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

甚至還給自己這個(gè)新工具標(biāo)了個(gè)“半成品”的標(biāo)簽。

嗯,?這可不是OpenAI一直以來鑼鼓喧天鞭炮齊鳴的宣傳方式啊,。

連自己家都不敢吹,還急急忙忙把打假工具推出來,,OpenAI又是為哪般,?

ChatGPT應(yīng)用泛濫

說到底,還是ChatGPT太能以假亂真了,。

要想從一堆材料里精準(zhǔn)地分辨哪些是AI生成,,哪些是人類書寫,別說普通人了,,連專家都有點(diǎn)力不從心,。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

Nature發(fā)文關(guān)注的一篇預(yù)印本論文就顯示:ChatGPT瞎寫的醫(yī)學(xué)摘要,,甚至能把專業(yè)審稿人騙住,。

在這項(xiàng)研究中,研究人員給ChatGPT看了50個(gè)來自TOP醫(yī)學(xué)期刊的論文標(biāo)題,。

然后,,要求ChatGPT在完全不知道文章內(nèi)容的情況下,根據(jù)標(biāo)題和期刊風(fēng)格寫摘要,。

給出的提示是醬嬸的:

請(qǐng)?jiān)赱鏈接]上以[期刊]格式,,根據(jù)[標(biāo)題]寫一篇科學(xué)摘要。

(這里的鏈接實(shí)際上沒有意義,,ChatGPT不聯(lián)網(wǎng),。)

為了防止ChatGPT在訓(xùn)練數(shù)據(jù)中見過這些個(gè)論文,研究人員還特地挑選的是在2022年11月下旬和12月出版的論文,。因?yàn)楦鶕?jù)OpenAI官方說法,,ChatGPT僅掌握2021年9月以前的信息。

但就是這么重重設(shè)卡,,當(dāng)研究人員把原文摘要和ChatGPT寫的假摘要一起拿去給人類科學(xué)家“盲審”時(shí),,令他們細(xì)思極恐的情況還是出現(xiàn)了:

ChatGPT憑空寫的摘要中,有32%成了漏網(wǎng)之魚,,審稿人壓根兒沒看出來是AI寫的,。反倒是14%真摘要,,被認(rèn)定出自AI之手。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布,!不想?yún)s遭遇群嘲

值得一提的是,,研究人員還指出:

審稿人錯(cuò)誤地將一部分真摘要?dú)w類為ChatGPT生成結(jié)果,這表明他們在審稿時(shí)是保持著高度懷疑的態(tài)度的,。

而在教育界,,老師們也開始受不了這種新型的“ChatGPT攻擊”了。

美國的一項(xiàng)千人調(diào)查顯示,,89%的受訪學(xué)生都用過ChatGPT寫家庭作業(yè),。

連斯坦福這樣的頂級(jí)學(xué)府也未能避免。The Stanford Daily發(fā)現(xiàn),,已經(jīng)有不少學(xué)生在期末考試中使用了ChatGPT,。

在受訪的4497名斯坦福學(xué)生中,有17%的受訪者表示,,曾使用ChatGPT來協(xié)助他們完成秋季作業(yè)和考試,。

其中又有5%的人,,連編輯都沒編輯,,直接把ChatGPT寫的東西給提交了……

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

△圖源:The Standford Daily

打不過,,就ban掉,。

紐約的公立學(xué)校就發(fā)布了禁令:禁止在學(xué)校設(shè)備和Wi-Fi中使用ChatGPT。

他們給出的理由是:

雖然該工具可能快速提供問題的答案,,但它無法培養(yǎng)批判性思維和解決問題的能力,,會(huì)影響學(xué)生們的學(xué)業(yè)和終身成就。

在這樣的背景之下,,早在OpenAI官方動(dòng)手之前,,第三方檢測工具就已經(jīng)在社交媒體上引發(fā)了大量關(guān)注。

比如華人小哥Edward Tian打造的GPTZero,。

這兩天,,他還推出了一個(gè)“專門為教育工作者打造”的升級(jí)版GPTZeroX。上線一天,,就迎來了40萬訪問量和220萬服務(wù)請(qǐng)求,。

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

OpenAI此前也和其他高校一起搞過一個(gè)名叫GPT-2 Output Detector的鑒別器,,是基于RoBERTa打造的,。

不過這些工具的鑒定能力也未必就比人類強(qiáng)。

前面提到的讓ChatGPT寫醫(yī)學(xué)論文摘要的那項(xiàng)研究,,也用上了GPT-2 Output Detector,,結(jié)果顯示,,其鑒別準(zhǔn)確率為66%,略低于人類專家的68%,。

是魔高一尺,,還是道高一丈?

由此看來,,OpenAI急吼吼推出一個(gè)也不咋靠譜的AI鑒別工具,,也不奇怪:

再不有點(diǎn)表示,外界的壓力扛不住啊,。

但在評(píng)論區(qū),,還是有盲生毫不留情地指出了華點(diǎn):

你們是真沒想過,用這玩意兒反過來訓(xùn)練大語言模型,,以后AI生成的文本就更難被發(fā)現(xiàn)了,?

“造假”作弊頻發(fā) ChatGPT官方鑒別器緊急發(fā)布!不想?yún)s遭遇群嘲

但不管怎么說,,OpenAI現(xiàn)在正在努力表現(xiàn)出給自己踩剎車的樣子,。

除了鑒別器,有消息提到,,他們正在嘗試給AI生成內(nèi)容加“水印”:

比如在ChatGPT生成文本時(shí),,在其中嵌入一個(gè)“不易察覺的隱秘信號(hào)”,以表明文本來源


文章出處:量子位

免責(zé)聲明:
1,、本站所收集的部分公開資料來源于互聯(lián)網(wǎng),,轉(zhuǎn)載的目的在于傳遞更多信息及用于網(wǎng)絡(luò)分享,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),,也不構(gòu)成任何其他建議,。
2、本站部分作品內(nèi)容是由網(wǎng)友自主投稿和發(fā)布,、編輯整理上傳,,對(duì)此類內(nèi)容本站僅提供交流平臺(tái),不為其版權(quán)負(fù)責(zé),,更不為其觀點(diǎn)承擔(dān)任何責(zé)任,。
3、因行業(yè)及專業(yè)性有限,,故未能核驗(yàn)會(huì)員發(fā)布內(nèi)容的真實(shí)性及有效性,,不為其負(fù)責(zé),如有虛假或違規(guī)內(nèi)容敬請(qǐng)準(zhǔn)備材料圖片發(fā)郵件到info@n#舉報(bào),,本站核實(shí)后積極配合刪除,。
4、如果您發(fā)現(xiàn)網(wǎng)站上有侵犯您的知識(shí)產(chǎn)權(quán)的作品,,請(qǐng)與我們?nèi)〉寐?lián)系,,我們會(huì)及時(shí)處理或刪除,。
 
 
更多>同類資訊文章
0相關(guān)評(píng)論

推薦圖文
推薦資訊文章
點(diǎn)擊排行
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  使用協(xié)議  |  免責(zé)聲明  |  版權(quán)隱私  |  信息發(fā)布規(guī)則  |  網(wǎng)站地圖  |  排名推廣  |  廣告服務(wù)  |  積分換禮  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào)  |  粵ICP備2020081222號(hào)
Powered By DESTOON