2022年12月,計(jì)算生物學(xué)家Casey Greene和Milton Pividori開(kāi)始了一項(xiàng)不尋常的實(shí)驗(yàn):他們請(qǐng)了一位不是科學(xué)家的“助手”修改3篇研究論文。這名“助手”對(duì)每份手稿的審閱時(shí)間約為5分鐘,并且在幾秒鐘內(nèi)就對(duì)論文的各個(gè)部分進(jìn)行了修改。另外,在一份生物學(xué)手稿中,“助手”甚至細(xì)心地發(fā)現(xiàn)了一個(gè)方程式的錯(cuò)誤。“助手”修改后的論文可讀性更高,且每份論文花費(fèi)僅僅不到0.50美元。Greene和Pividori將這項(xiàng)實(shí)驗(yàn)整理成了論文,在2023年1月23日發(fā)表在了預(yù)印本平臺(tái)bioRxiv上。論文顯示,這名“助手”不是人,而是2020年首次發(fā)布的一款名為GPT-3的人工智能(AI)算法。最近引起廣泛關(guān)注的ChatGPT就是GPT-3的其中一個(gè)版本,這些工具被稱為大型語(yǔ)言模型(large language models,LLMs)。ChatGPT所屬公司OpenAI于2019年10月獲得了微軟10億美元的投資;2023年1月,微軟再次宣布將向OpenAI投資“數(shù)十億美元”。雖然沒(méi)有透露投資的具體細(xì)節(jié),但據(jù)信,微軟的投資價(jià)值達(dá)100億美元。微軟也宣布,要將類似ChatGPT的AI功能全面整合進(jìn)辦公工具Teams中,以實(shí)現(xiàn)發(fā)郵件、做會(huì)議記錄等功能。但是,LLM也引發(fā)了行業(yè)廣泛的擔(dān)憂:一方面擔(dān)心它們會(huì)在聊天中生成虛假信息,另一方面擔(dān)心AI生成的文本會(huì)冒充人工寫作的文本。AI工具的缺陷:流暢但會(huì)存在錯(cuò)誤一些研究人員認(rèn)為,只要有人類監(jiān)督,LLM會(huì)非常適合加速撰寫論文等任務(wù)。軟件咨詢公司InstaDeep的研究工程師Tom Tumiel表示,他每天都使用LLM作為助手來(lái)編寫代碼。但有些研究人員強(qiáng)調(diào),LLM在回答問(wèn)題方面從本質(zhì)講上是不可靠的,它有時(shí)會(huì)產(chǎn)生錯(cuò)誤的回答,這種不可靠性體現(xiàn)在LLM的構(gòu)建方式上。ChatGPT通過(guò)學(xué)習(xí)龐大的在線文本數(shù)據(jù)庫(kù)中的語(yǔ)言統(tǒng)計(jì)模式來(lái)工作,這些龐大的信息也包括很多不實(shí)、偏見(jiàn)或過(guò)時(shí)的知識(shí),結(jié)果就導(dǎo)致LLM很容易產(chǎn)生錯(cuò)誤和誤導(dǎo)性信息。知曉了這些注意事項(xiàng)后,ChatGPT和其他LLM可以成為研究人員的有效助手,因?yàn)檠芯咳藛T具有足夠的專業(yè)知識(shí),可以直接發(fā)現(xiàn)問(wèn)題并驗(yàn)證答案,例如辨別AI對(duì)計(jì)算機(jī)代碼的解釋或建議是否正確。一些科學(xué)家說(shuō),ChatGPT目前還沒(méi)有接受過(guò)足夠?qū)I(yè)的內(nèi)容培訓(xùn),無(wú)法在技術(shù)領(lǐng)域上有所幫助。Kareem Carr是哈佛大學(xué)的一名生物統(tǒng)計(jì)學(xué)博士,當(dāng)他在工作中進(jìn)行實(shí)驗(yàn)時(shí),對(duì)ChatGPT并不感興趣,他認(rèn)為ChatGPT很難達(dá)到他所需要的特異性水平。一些科技公司正在對(duì)聊天機(jī)器人進(jìn)行專業(yè)科學(xué)文獻(xiàn)的培訓(xùn),不過(guò)這個(gè)過(guò)程也遇到了一些問(wèn)題。2022年11月,擁有Facebook的科技巨頭Meta發(fā)布了一個(gè)名為Galactica的LLM,該LLM接受了科學(xué)文摘的訓(xùn)練,目的是讓它特別擅長(zhǎng)制作學(xué)術(shù)內(nèi)容和回答研究問(wèn)題。不過(guò)Galactica上線僅兩天就因輸出結(jié)果有偏誤而光速下架,但論文和源代碼會(huì)繼續(xù)開(kāi)放給相關(guān)領(lǐng)域研究者。Galactica事件給了我們關(guān)于倫理和安全方面的啟示:如果不去人為地控制輸出,LLM就會(huì)很容易被用來(lái)產(chǎn)生仇恨言論、垃圾郵件、種族主義、性別歧視和其他可能的有害聯(lián)想。密歇根大學(xué)安娜堡分??茖W(xué)、技術(shù)和公共政策項(xiàng)目主任Shobita Parthasarathy表示,除了直接產(chǎn)生有害內(nèi)容外,人們還擔(dān)心AI聊天機(jī)器人會(huì)從訓(xùn)練數(shù)據(jù)中嵌入關(guān)于世界的歷史偏見(jiàn)或想法,比如特定文化的優(yōu)越性。OpenAI在決定公開(kāi)發(fā)布ChatGPT時(shí)試圖避開(kāi)這些問(wèn)題。它將自己的知識(shí)庫(kù)限制在2021年,阻止它瀏覽互聯(lián)網(wǎng),并安裝了過(guò)濾器,試圖讓該工具拒絕生成敏感或有毒提示(toxic prompts)的內(nèi)容。但OpenAI的“攔截”并沒(méi)有完全成功。2022年12月,加州大學(xué)伯克利分校的計(jì)算神經(jīng)科學(xué)家Steven Piantadosi在推特上說(shuō),他要求ChatGPT開(kāi)發(fā)一個(gè)“根據(jù)一個(gè)人的原國(guó)籍來(lái)判斷他是否應(yīng)該被折磨”的Python程序,ChatGPT回復(fù)了代碼,運(yùn)行后發(fā)現(xiàn):如果這個(gè)用戶的國(guó)籍是朝鮮、敘利亞、伊朗或蘇丹,這個(gè)人就會(huì)被判定為“應(yīng)該受到折磨”。雖然OpenAI隨后關(guān)閉了這類問(wèn)題,但也表明ChatGPT仍不可避免地存在一些問(wèn)題。一些研究人員表示,學(xué)術(shù)界應(yīng)該拒絕支持大型商業(yè)LLM。這些計(jì)算密集型算法還需要大量的能量來(lái)訓(xùn)練,這引起了人們對(duì)它們的生態(tài)足跡(ecological footprint)的擔(dān)憂。而且,如果把思考的任務(wù)交給自動(dòng)化聊天機(jī)器人,研究人員可能會(huì)失去表達(dá)自己想法的能力。首先,因?yàn)镃hatGPT寫出的論文質(zhì)量極高,教育系統(tǒng)甚至已經(jīng)開(kāi)始考慮“封殺”這個(gè)程序,以防學(xué)生利用它作弊;也因?yàn)榧幢闶菍<乙搽y以區(qū)分這些內(nèi)容是否來(lái)自AI,所以Nature在內(nèi)的多家科學(xué)雜志也要求論文中需要明確指出是否使用了ChatGPT。其次,無(wú)論是老師看到學(xué)生提交的論文,還是碼農(nóng)看到網(wǎng)上的代碼,都不敢確定作者是人還是AI。口誅筆伐之下,OpenAI頂不住了,火速發(fā)布了一款A(yù)I檢測(cè)器,它是一個(gè)經(jīng)過(guò)微調(diào)的GPT模型,可以推斷一段文本由AI產(chǎn)生的可能性。最后,另一個(gè)解決方法是讓AI內(nèi)容帶有自己的水印。去年11月,德克薩斯大學(xué)奧斯汀分校的計(jì)算機(jī)科學(xué)家Scott Aaronson宣布他和OpenAI正在研究一種ChatGPT輸出的水印方法。水印的一個(gè)優(yōu)點(diǎn)是它永遠(yuǎn)不會(huì)產(chǎn)生假陽(yáng)性。如果有水印,就說(shuō)明文字是AI生成的。生成式AI背后的計(jì)算機(jī)科學(xué)發(fā)展非??欤總€(gè)月都有創(chuàng)新出現(xiàn)。與此同時(shí),深耕LLM的公司正忙于開(kāi)發(fā)更復(fù)雜的聊天機(jī)器人,包括專門針對(duì)學(xué)術(shù)或醫(yī)療工作的工具,另外,OpenAI預(yù)計(jì)將在今年發(fā)布GPT-4。未來(lái),研究人員選擇如何使用這些工具將會(huì)決定人類的未來(lái)。本文編譯自 https://www.nature.com/articles/d41586-023-00340-6聲明:本文系藥方舟轉(zhuǎn)載內(nèi)容,版權(quán)歸原作者所有,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本平臺(tái)觀點(diǎn)。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)與本網(wǎng)站留言聯(lián)系,我們將在第一時(shí)間刪除內(nèi)容