發表文章

目前顯示的是有「勵志」標籤的文章

你看過人工智慧寫的雞湯文了嗎?也許你根本看不出來!(下)

圖片
  本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請 點此 。 人工智慧 寫的雞湯文,逼真到我們需要反思未來網路世界的真真假假! 真相大白 Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。 最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3) ▲ (Photo by Patrick Fore on Unsplash) 這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 ,透過 人工智慧 批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。 Porr 表示:「這種 人工智慧 技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」、「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。 推薦閱讀: 特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲   GPT-3 的隱憂 人工智慧 技術越強大,網路上的萬事萬物就越不可信任。 而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。 2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。 推薦閱讀: 馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞? 即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。 GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。       ...

你看過人工智慧寫的雞湯文了嗎?也許你根本看不出來!(上)

圖片
分辨 人工智慧 和人類寫的文章,竟成為一個大難題!!!   過去討論「哪些工作 人工智慧 搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器不可能寫出感動人心的文章,但這個說法或許已被打破了。 日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是 人工智慧 寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更…… ▲ 一個正在寫經卷的機器人(示意圖,與本文無關。) 非營利 人工智慧 研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。 簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。 但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,若遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。 他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。   妙筆生花的人工智慧 雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。 Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《F...