你看過人工智慧寫的雞湯文了嗎?也許你根本看不出來!(下)

本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請 點此 。 人工智慧 寫的雞湯文,逼真到我們需要反思未來網路世界的真真假假! 真相大白 Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。 最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3) ▲ (Photo by Patrick Fore on Unsplash) 這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 ,透過 人工智慧 批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。 Porr 表示:「這種 人工智慧 技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」、「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。 推薦閱讀: 特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲 GPT-3 的隱憂 人工智慧 技術越強大,網路上的萬事萬物就越不可信任。 而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。 2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。 推薦閱讀: 馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞? 即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。 GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。 ...