你看過人工智慧寫的雞湯文了嗎?也許你根本看不出來!(下)
本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請點此。
人工智慧寫的雞湯文,逼真到我們需要反思未來網路世界的真真假假!
真相大白
Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。
最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3)
這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 ,透過人工智慧批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。
Porr 表示:「這種人工智慧技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」、「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。
GPT-3 的隱憂
人工智慧技術越強大,網路上的萬事萬物就越不可信任。
而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。
2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。
即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。
GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。
延伸閱讀:
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀
人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜