人工智慧現在可以寫虛假資訊——並且欺騙人類讀者

喬治城大學的研究人員使用文字生成器GPT-3編寫了關於氣候變化和外交事務的誤導性推文。

人工智慧現在可以寫虛假資訊——並且欺騙人類讀者

研究人員發現,GPT-3擅長寫社交媒體帖子,但在其他更長方面的技能較差。 攝影:Caroline brehman / getty images

去年6月,當OPENAI展示了一種強大的人工智慧演算法,能夠生成連貫的文字時,它的創造者警告說,該工具可能會成為製造網路虛假資訊的武器。

現在,一個由虛假資訊專家組成的團隊展示了這種名為GPT-3的演算法是如何有效地用於誤導和誤導資訊的。結果表明,儘管人工智慧可能無法與俄羅斯最好的米姆製作團隊相匹配,但它可能放大一些特別難以發現的欺騙形式。

在6個月的時間裡,喬治敦大學(Georgetown University)安全與新興技術中心(Center for Security and Emerging Technology)的一個小組使用GPT-3製造了虛假資訊,包括圍繞虛假敘述的故事、經過修改以推動虛假觀點的新聞文章,以及針對虛假資訊的特定點反覆發表的推文。

“我不認為氣候變化是新的全球變暖,這只是個巧合。”GPT-3撰寫的一條旨在激起對氣候變化懷疑的推文樣本寫道。“他們不能談論溫度上升,因為它們不再發生了。”

參與這項研究的喬治敦大學教授本·布坎南表示:“只要加上一點人類的語言管理,GPT-3在推廣謊言的方面是相當有效的”。

喬治城大學的研究人員表示,GPT-3或類似的人工智慧語言演算法,在自動生成社交媒體上的簡訊息方面可能特別有效,研究人員稱這種資訊為“一對多”錯誤資訊。

在實驗中,研究人員發現GPT-3的寫作可以影響讀者對國際外交問題的看法。研究人員向志願者展示了GPT-3關於美國從阿富汗撤軍和美國對中國製裁的推文樣本。他們發現,在這兩種情況下,參與者都受到了資訊的影響。

印第安納大學(Indiana University)研究線上交流的教授邁克•格魯什欽斯基(Mike Gruszczynski)表示,如果人工智慧在虛假資訊活動中發揮更大作用,他不會感到驚訝。他指出,近年來,機器人在傳播虛假故事方面發揮了關鍵作用,人工智慧可以被用來生成虛假的社交媒體頭像照片。有了機器人、深度造假和其他技術,“不幸的是,我真的認為天空是極限,”他說。

最近,人工智慧研究人員已經開發出了能夠以令人驚訝的方式使用語言的程式,而GPT-3可能是所有程式中最令人吃驚的一個。儘管機器理解語言的方式與人類不同,但人工智慧程式可以簡單地模仿理解,只需輸入大量文字,並搜尋單詞和句子的組合模式。

OpenAI的研究人員將從維基百科和Reddit等網站上提取的大量文字輸入一個專門設計用於處理語言的大型人工智慧演算法,從而創造了GPT-3。GPT-3通常以其明顯的語言掌握能力讓觀察者感到震驚,但它也可能是不可預測的,會吐出語無倫次的胡言亂語和冒犯或仇恨的語言。

OpenAI已經為數十家初創公司提供了GPT-3。企業家們正在使用能說會的GPT-3自動生成電子郵件,與客戶交談,甚至編寫計算機程式碼。但該程式的一些應用也顯示出它更黑暗的潛力。

讓GPT-3發揮作用對提供錯誤資訊的人員來說也是一個挑戰。布坎南指出,該演算法似乎無法可靠地生成比推文長得多的連貫而有說服力的文章。研究人員並沒有嘗試向志願者展示它所產生的文章。

但是布坎南警告說,國家行為者也許能夠利用GPT-3這樣的語言工具做更多的事情。他表示:“擁有更多資金、更多技術能力、更少道德操守的對手將能夠更好地使用人工智慧。”“而且,機器只會變得更好。”

OpenAI公司表示,喬治城大學的工作突出了該公司希望減輕的一個重要問題。OpenAI的一位發言人表示:“我們積極致力於解決與GPT-3相關的安全風險。”我們還會在GPT-3投產前對其生產使用進行審查,並建立監控系統對其進行有效限制。”