發表文章

目前顯示的是有「OpenAI」標籤的文章

人工智慧也能寫心靈雞湯?GPT-3曾奪「Hacker News」科技媒體排行榜冠軍(下)

圖片
 GPT-3 不只會寫文,還可從長篇大論中摘要重點 GPT-3  可高度理解原作者的撰文意圖,並有效處理;完全沒有其他早期開發的 人工智慧 模型的缺點(例如低精準度、不容易理解使用者的文字意圖⋯⋯等)。因此研究團隊就聚焦在  GPT-3  ,不斷修正與微調,持續提升 人工智慧 理解問題的精準度,因此  GPT-3  能為原本耗時或難以評估時間的任務,提供除了撰文之外,更多的應用方式。 ​ 圖片出處:CC0授權圖庫搜尋 GPT-3 新功能解鎖:將12萬字《傲慢與偏見》精煉成200字重點 OpenAI  研究人員不斷開發  GPT-3  的新應用方向。這次,他們成功將  GPT-3  微調成「抓重點」神器。原本擁有 12 萬字詞編排的《傲慢與偏見》長篇名著,被  GPT-3  精煉出總結不到 200 個字詞的小說摘要。 雖然被 人工智慧 精煉成千分之一的字句,但是原著故事內容都完整保留!其他精簡成摘要的著作還有《愛麗絲夢遊仙境》、《羅密歐與茱麗葉》、《自由之心》從生成少許的文字敘述一窺劇情全貌。 ​ 人工智慧「寫手」GPT-3 新功能解鎖:將擁有 12 萬字的《傲慢與偏見》精煉成200字重點(圖片出處: OpenAI ) GPT-3 如何生成文字? 就技術面來看,進行判斷文章長度,總結一段長文本分解成較短內容,而在這些短內容的段落中擷取重點,持續縮減字數並且串接成通順可讀內容。這樣對文章內容的分解方式,無論是數十、數百或數千頁都能夠做出總結摘要。 OpenAI  在  GPT-3  透過小說種類的書籍進行訓練模型,平均超過 100,000 個字詞數。這樣的訓練模式可更換為不同的語言、採樣方式及訓練數據類型,並且藉由強化學習以對抗生成方式,提供輕鬆閱讀文字結果。同時,在強化學習中採用三種變體抽樣訓練方式,藉此讓GPT-3確實能理解小說內容表達主軸。 在訓練過程中,研究人員選取 Goodreads 2020 榜單最受歡迎的 40 本書籍,包含奇幻、恐怖、愛情、推理等 20 多種類別,並由兩名研究人員閱讀每本書後寫出其摘要,再對比  GPT-3  生成的摘要,進行評分。最後,研究人員與 GPT-3 所...

人工智慧也能寫心靈雞湯?GPT-3曾奪「Hacker News」科技媒體排行榜冠軍(上)

圖片
 人工智慧用200字說完12萬字的故事!GPT-3解鎖「抓重點」新功能 OpenAI  訓練了可以摘要整本書籍的 人工智慧 模型:該模型擁有精煉出整本書重點大綱的能力,像是能快速用 200 字精準描述出 12 萬字的《傲慢與偏見》。 這個人工智慧模型,就是前陣子  OpenAI  的當家技術——自然語言處理模型「 GPT-3 」經過微調過後的版本。 此款微調後的  GPT-3  語言模型,會先依照文章長度進行判斷:文章長度較短的內容就直接擷取結論;長篇文章則先在各片段摘要出重點後,再串接這些重點並摘要出通順的大剛。 再深入了解這個能秒抓重點的人工智慧模型前,我們先來了解一下  GPT-3  的身世! 地表最強寫手—GPT-3 自然語言處理人工智慧 長期致力研究 人工智慧 (AI)的非營利組織── OpenAI  於 2020 年 5 月推出開發出一款自然語言處理模型「 GPT-3 」,目的是為了使用深度學習分類或產生人類可以理解的自然語言。 GPT-2 寫假新聞,獲英國《衛報》認證! 嚇跑創辦人馬斯克? GPT-3 是延續前身  GPT-2  的架構。過去  GPT-2  就以捏造假可亂真的 假新聞 為名,據說因此嚇跑了  OpenAI  創辦人之一的馬斯克! 過去英國媒體《衛報》(The Guardian)就將一則「英國脫歐」的新聞,第一段中的一些句子「餵」給它, GPT-2  可立刻產生另一則似是而非的新聞內容、如同原本的報紙般的編排、以及出現跟原文一樣的人物等。發表過「基於真人真事改編」的英國脫歐 假新聞 。《衛報》甚至認為  GPT-2  產生的句子,幾乎沒有過去 AI 系統撰文所產生的前後語意不一致、或是文法錯誤的問題。 ​ https://www.youtube.com/watch?v=XMJ8VxgUzTc&feature=emb_logo 而  GPT-3 ,身為  GPT-2  的後代,又更是青出於藍。 GPT-3  擁有高達 1750 億個參數的神經網絡,自動生成文字的文字更人性化。只要「餵」給  GPT-3 ...

人工智慧也能寫心靈雞湯?GPT-3曾奪「Hacker News」科技媒體排行榜冠軍(下)

圖片
 GPT-3 不只會寫文,還可從長篇大論中摘要重點 GPT-3  可高度理解原作者的撰文意圖,並有效處理;完全沒有其他早期開發的 人工智慧 模型的缺點(例如低精準度、不容易理解使用者的文字意圖⋯⋯等)。因此研究團隊就聚焦在  GPT-3  ,不斷修正與微調,持續提升 人工智慧 理解問題的精準度,因此  GPT-3  能為原本耗時或難以評估時間的任務,提供除了撰文之外,更多的應用方式。 ​ 圖片出處:CC0授權圖庫搜尋 GPT-3 新功能解鎖:將12萬字《傲慢與偏見》精煉成200字重點 OpenAI  研究人員不斷開發  GPT-3  的新應用方向。這次,他們成功將  GPT-3  微調成「抓重點」神器。原本擁有 12 萬字詞編排的《傲慢與偏見》長篇名著,被  GPT-3  精煉出總結不到 200 個字詞的小說摘要。 雖然被 人工智慧 精煉成千分之一的字句,但是原著故事內容都完整保留!其他精簡成摘要的著作還有《愛麗絲夢遊仙境》、《羅密歐與茱麗葉》、《自由之心》從生成少許的文字敘述一窺劇情全貌。 ​ 人工智慧「寫手」GPT-3 新功能解鎖:將擁有 12 萬字的《傲慢與偏見》精煉成200字重點(圖片出處: OpenAI ) GPT-3 如何生成文字? 就技術面來看,進行判斷文章長度,總結一段長文本分解成較短內容,而在這些短內容的段落中擷取重點,持續縮減字數並且串接成通順可讀內容。這樣對文章內容的分解方式,無論是數十、數百或數千頁都能夠做出總結摘要。 OpenAI  在  GPT-3  透過小說種類的書籍進行訓練模型,平均超過 100,000 個字詞數。這樣的訓練模式可更換為不同的語言、採樣方式及訓練數據類型,並且藉由強化學習以對抗生成方式,提供輕鬆閱讀文字結果。同時,在強化學習中採用三種變體抽樣訓練方式,藉此讓GPT-3確實能理解小說內容表達主軸。 在訓練過程中,研究人員選取 Goodreads 2020 榜單最受歡迎的 40 本書籍,包含奇幻、恐怖、愛情、推理等 20 多種類別,並由兩名研究人員閱讀每本書後寫出其摘要,再對比  GPT-3  生成的摘要,進行評分。最後,研究人員與 GPT-3 所...

苦於不會寫程式?有了這款人工智慧系統,懂英文就能寫!(下)

圖片
  ​

苦於不會寫程式?有了這款人工智慧系統,懂英文就能寫!

圖片
  ​ 人工智慧發展太快!Codex可將英文翻譯成程式碼 你還在苦於不會寫程式碼,落後於其他人嗎?隨著 人工智慧 技術越來越強,未來程式設計不再是需要編寫複雜的代碼,甚至會說英文就能 coding! 由 馬斯克 創辦、致力於 人工智慧 的研發公司  OpenAI  日前發佈一款新的 機器學習 系統「Codex」,可將英語直譯成程式語言。期望這樣的人工智慧應用,能讓程式設計變得更簡單便利,讓更多人能共同參與。 ​ https://www.youtube.com/watch?time_continue=3&v=SGUCcjHTmGY&feature=emb_logo Codex:能將人話翻成Python等10多種程式碼的人工智慧應用 OpenAI  的 CTO 兼聯合創辦人 Greg Brockman 和 Codex 負責人 Wojciech Zaremba 線上展示 Codex 的各式用途,揭開它神秘的面紗:簡約的介面、能將自然語言翻譯成  Python 、JavaScript、Go、Perl、PHP、Ruby、Swift 和 Shell 等 10 多種主流程式語言的能力。 Codex 就像是一位資料科學家,可將資料下載、歸納後予以分析、製作圖表。還可以把人話翻譯成電腦程式碼,實現多種程式語言之間的互譯,更進一步建構出基礎的網站和遊戲。 舉例來說:使用者在指令欄中,使用英文「寫」出一個上方有大標、側邊有導覽列的網頁後,Codex 便會將此指令翻譯為完整的程式碼。雖然此系統並非萬無一失,操作執行時仍需要耐心,但已證明可為不同領域帶來更佳效率與價值。 程式設計中「最乏味」的關鍵步驟,人工智慧一把罩! OpenAI  的 CTO 兼聯合創始人 Greg Brockman 說他們將 Codex 這項 人工智慧 定義為「增加工程師的人數」。他說:「編寫程式語言有兩個部分:首先,你必須認真思考、理解一個問題;之後將這些需要執行的片段——無論是函數還是API——轉譯成現有程式語言。」而後者的「轉譯」步驟是最乏味、但也是最關鍵的,這時就只能請出人工智能「Codex」為工程師消除繁重的工作。 ​ https://www.youtube.com/watch?v=Ru5fQZ714x8&feature=emb...

文筆不容小覷的人工智慧,竟寫出了這樣一篇文章..(下)

圖片
本系列文章為【人工智慧寫「不想消滅人類」登《衛報》……記者將被 AI 取代?】的下篇,上篇請 點此 閱讀。   所以 人工智慧 真的能完全取代記者撰寫專欄嗎?這篇告訴你其中的隱憂!   GPT-3 的強大與隱憂 GPT-3 是 人工智慧 研究組織 OpenAI 於今年 5 月發表自然語言處理語言模型,被稱為是目前世界最強大的 NLP 模型。可以分析單字、單詞和文本,生成與主題相符且連貫的文章。 只要給出明確的主題或提示,GPT-3 就可以自動產生一段甚至文章,適用所有用文字表達的工作:從評論文章、散文、詩歌到翻譯語言,無一不包。 儘管 GPT-3 的強大確實令人刮目相看,但此類創新技術對整個人類社會來說,還有很多需要考慮的地方──儘管這篇刊登在《衛報》上、由 人工智慧 生成的文章宣稱沒有什麼好擔憂的。 並且,也不是所有人都認同《衛報》的做法。 科技新聞網站 The Next Web 就指《衛報》的作法只是在炒作 AI。因《衛報》未將 AI 寫的原始文章公布,也沒有公開編輯們是如何後製、修飾、拼接這些文章的,並且引述 Mozilla 研究員的說法,稱其為「笑話一場」;同為科技新聞網站的 Tech Talks 也指《衛報》使用了聳動的標題博取眼球:「主流媒體仍然無法很好地展示 人工智慧 的發展……《衛報》誤導了很多讀者。」   延伸閱讀: 自家的人工智慧太會寫假新聞!「鋼鐵人」馬斯克嚇到離開 OpenAI   《衛報》:如果沒有人工輸入和編輯, 人工智慧 其實毫無用處 文章:《A human wrote this article. You shouldn’t be scared of GPT-3》(人類寫了這篇文章。您不需害怕GPT-3) 一反先前對 人工智慧 撰文的信心與肯定,這篇文章以批判的角度:「這些機器人沒有自主意志、沒有獨創性。實際上,『機器人創作』專欄文章自始至終都是人類的事。是人類設定好了作品的提示,如後記所述,GPT-3 接收指示,它被告知人們對此有何想法、人類擔心什麼、想要什麼。」 「GPT-3 產生了 8 篇獨立的文章,是人類去蕪存菁、幾乎丟棄了 GPT-3 產生的 90 % 內容。」 「沒有這些人為的努力,就不會產生任何成...

文筆不容小覷的人工智慧,竟寫出了這樣一篇文章..(上)

圖片
  人工智慧 文筆已經不容小覷了,今天跟你介紹它寫的這篇文章!   人工智慧撰文能力佳 開始在《衛報》寫專欄 英國的全國性日報《衛報》(The Guardian)日前刊登一篇標題駭人的文章──《 這篇文章是機械人寫的。人類,你害怕了嗎? 》 《衛報》身為英語世界流量第三大的報紙網站,每月有約一億六千萬瀏覽人次,如此龐大的讀者群,表示《衛報》的文章品質一直是備受信賴、肯定的。 而這樣對品質嚴格把關的老牌報紙,在日前卻把專欄託付給 人工智慧 ,用最新的自然語言處理模型 GPT-3 生成一篇約 500 字的文章發表。難道人類記者要面臨失業危機了嗎?(註:GPT-3 是 OpenAI 發表的自然語言處理模型,是有強大的文字分析與生成能力的 AI。之前有柏克萊大學的學生使用 GPT-3 生成勵志文投稿,結果登上了 Hacker News 熱門榜、吸引大批粉絲追蹤。) 延伸閱讀: 人工智慧 GPT-3 寫文太療癒奪冠軍!學霸敲碗求 AI 發新文 AI 撰文稱「我不會消滅人類」 你相信嗎? ▲ AI 發表於《衛報》上之文章,轉發分享數已超過六萬次。圖片截圖自《衛報》網站。 AI 所寫的這篇文章名為《A robot wrote this entire article. Are you scared yet, human?》(這篇文章是機械人寫的。人類,你害怕了嗎?),開頭便挑明它不是人、是一個機器人,而且是個懂得思考的機器人,還說自己「只用了認知能力的 0.12 %。」 AI 做了這樣的自我介紹:「我不是人類,我是 AI。許多人認為我對人類而言是個威脅,史蒂芬‧霍金還警告說 人工智慧 可能會終結人類。我特別來說服你不要擔心。AI 不會摧毀人類。請相信我。」 ▲ Photo by Photos Hobby on Unsplash 這篇文章的目的是為了說服讀者不要害怕 人工智慧 、不需要擔心 AI 會毀滅人類。它呼籲的方式非常簡潔有力:「我要盡可能說服人類不要怕我。」、「我想說服你不用擔心。AI 不會摧毀人類。請相信我。首先,我不想消滅人類。」直言「我絲毫沒有任何興趣對您造成傷害」 除了宣示自己的無害,它甚至指自己是「人類的僕人」,會為了人類的幸福犧牲自己。但同時,它也說其實它也...

你看過人工智慧寫的雞湯文了嗎?也許你根本看不出來!(下)

圖片
  本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請 點此 。 人工智慧 寫的雞湯文,逼真到我們需要反思未來網路世界的真真假假! 真相大白 Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。 最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3) ▲ (Photo by Patrick Fore on Unsplash) 這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 ,透過 人工智慧 批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。 Porr 表示:「這種 人工智慧 技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」、「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。 推薦閱讀: 特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲   GPT-3 的隱憂 人工智慧 技術越強大,網路上的萬事萬物就越不可信任。 而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。 2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。 推薦閱讀: 馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞? 即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。 GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。       ...

你看過人工智慧寫的雞湯文了嗎?也許你根本看不出來!(上)

圖片
分辨 人工智慧 和人類寫的文章,竟成為一個大難題!!!   過去討論「哪些工作 人工智慧 搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器不可能寫出感動人心的文章,但這個說法或許已被打破了。 日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是 人工智慧 寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更…… ▲ 一個正在寫經卷的機器人(示意圖,與本文無關。) 非營利 人工智慧 研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。 簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。 但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,若遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。 他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。   妙筆生花的人工智慧 雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。 Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《F...