以假亂真?這人工智慧直接寫出跟真人一樣,毫無破綻的文章!

以假亂真?這人工智慧直接寫出跟真人一樣,毫無破綻的文章!




之前提到人工智慧寫出自編版且漏洞百出的哈利波特,但今天介紹的可不一樣,它毫無破綻,你也許就會這麼相信它了!


產出「可信度高」的假新聞與文章

擁有強大撰文能力的 AI「GPT-2」出自特斯拉的 CEO 馬斯克所投資的人工智慧研究團隊「OpenAI」。它可以替各種題材、風格的文章產出續集內容,且會依照原著的寫作風格與陳述內容呼應銜接,無論是經典名作 (點我看範例) 或是現代科普 (點我看範例),通通難不倒它。

Python課程的老師在課堂上為我們舉了例:根據英國媒體《衛報》(The Guardian)報導:將一則關於英國脫歐的新聞,其中的第一段中的一些句子餵給它,GPT2 可立刻產生另一則似是而非的新聞內容、如同原本的報紙般的編排、以及出現跟原文一樣的人物等。

另外,若讓它吸收《動物農莊》的作者,喬治歐威爾的《1984》小說裏的第一句話「It was a bright cold day in April, and the clocks were striking thirteen (四月間,天氣寒冷晴朗,鐘敲了十三下。)」,它能立刻辨識出這句話中的社會科幻小說敘事風格,而能接續相應的故事 (點此連結看 GPT2 怎樣接續)。《衛報》認為 GPT2 產生的句子,幾乎沒有過去 AI 系統撰文時,前後語意不一致或是文法錯誤的問題。例如曾經分享過的-《哈利波特》的續集(點此看:哈利扯下眼睛丟進森林、妙麗被...AI 寫《哈利波特》續章大獲好評!






新的文字編輯AI擁有破天荒的寫作能力,影片中英國《衛報》的編輯不斷餵給它不同風格的文章,AI都能依據原文的風格與內容寫下相對應的續集。

可惜「GPT-2」畢竟是 AI,沒有明辨是非的能力。所以生產出的文章都是虛構的。

「GPT-2」的寫作能力,恐怕被有心人士利用。他們有可能先讓 AI 學習擁有真實存在的人名 (如政壇人物的名字)、地名與事件等的文章,再讓 AI 來移花接木,而捏造出大量的假新聞、假消息。這些假新聞幾可亂真 — 看起來就像是出自 BBC、紐約時報、CNN 等公信力高的媒體一樣,大眾無法辨識其真實性,就會被誤導。據網路新聞指出,有人稱 GPT-2 為「Deepfake 文字版」。

根據維基百科記載:Deepfake 是英文「deep learning 深度學習」和「fake偽造」的混成詞,專指用基於人工智慧的人體圖像合成技術。上過Python課程的學生多少都知道,此技術可將圖像和影音疊加至目標圖像或影片上。

Deepfake 亦可用來製作虛假的名人性愛影片和報復性色情媒體。帶色情成份的Deepfake作品於2017年間在網際網路上流出,特別是在Reddit上。這些 Deepfake 作品現已被 Reddit、Twitter 和Pornhub等網站禁止發布是專指利用 AI 將名人嘴形、臉部與色情或他人影片移花接木,以遂惡作劇或栽贓嫁禍的目的的影片。

因此,研究團隊「OpenAI」決定不釋出完整的「GPT-2」模型,而只公開一小部份模型和範例,以防止「GPT-2」被用作為捏造假新聞的工具。儘管只釋出一小部分,OpenAI 仍擔心 GPT-2 有研究團隊或人員成功破解、衍生出另一套擁有跟完整的 GPT-2 一樣能力的 AI 系統。現今,我們身旁已經有夠多人被網路上流傳的謠言和假新聞誤導過。若「GPT-2」開放的話,恐怕會造成許多社會問題 — 煽動民心、讓人民陷於心慌意亂等等,恐怕會被武器化。

近日馬斯克退出「OpenAI」,不少人猜測原因是跟善於虛構假新聞的「GPT-2」有關。但馬斯克本人倒是對此撇清關係,他在推持上表示希望更專注於解決旗下特斯拉和 SpaceX 面臨的又大又難的工程、製造問題,加上在 OpenAI的發展方向與團隊分歧,於是決定退出 OpenAI。(點此看:馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞?)




延伸閱讀:

喵星人也被人工智慧盯上了!現在合成人太無聊!來合成貓吧!

成為AI人工智慧.物聯網.大數據.VR/AR人才,贏在起跑點!

小心!看影片還在用共享帳號嗎?Python課程來抓人囉!

想看看疊疊樂第一名長什麼樣子嗎?快去上Python課程!

HTML5教學的CSS好複雜阿!別怕!這邊幫你整理好了!(1)

網路行銷課程教你揮別舊思維,請使用主關鍵字

人人都能是工程師!台灣 IT 培訓中心推「找到工作再付學費」專案,要試試嗎?

這個網誌中的熱門文章

前端工程師設定CSS背景的五種方法(一)背景固定模式設定

前端工程師設定CSS背景的五種方法(五)設定背景顏色

前端工程師入門HTML5就靠這些撇步!(8上)製作拖曳元素