發表文章

目前顯示的是有「對話機器人」標籤的文章

人工智慧也能寫心靈雞湯?GPT-3曾奪「Hacker News」科技媒體排行榜冠軍(下)

圖片
 GPT-3 不只會寫文,還可從長篇大論中摘要重點 GPT-3  可高度理解原作者的撰文意圖,並有效處理;完全沒有其他早期開發的 人工智慧 模型的缺點(例如低精準度、不容易理解使用者的文字意圖⋯⋯等)。因此研究團隊就聚焦在  GPT-3  ,不斷修正與微調,持續提升 人工智慧 理解問題的精準度,因此  GPT-3  能為原本耗時或難以評估時間的任務,提供除了撰文之外,更多的應用方式。 ​ 圖片出處:CC0授權圖庫搜尋 GPT-3 新功能解鎖:將12萬字《傲慢與偏見》精煉成200字重點 OpenAI  研究人員不斷開發  GPT-3  的新應用方向。這次,他們成功將  GPT-3  微調成「抓重點」神器。原本擁有 12 萬字詞編排的《傲慢與偏見》長篇名著,被  GPT-3  精煉出總結不到 200 個字詞的小說摘要。 雖然被 人工智慧 精煉成千分之一的字句,但是原著故事內容都完整保留!其他精簡成摘要的著作還有《愛麗絲夢遊仙境》、《羅密歐與茱麗葉》、《自由之心》從生成少許的文字敘述一窺劇情全貌。 ​ 人工智慧「寫手」GPT-3 新功能解鎖:將擁有 12 萬字的《傲慢與偏見》精煉成200字重點(圖片出處: OpenAI ) GPT-3 如何生成文字? 就技術面來看,進行判斷文章長度,總結一段長文本分解成較短內容,而在這些短內容的段落中擷取重點,持續縮減字數並且串接成通順可讀內容。這樣對文章內容的分解方式,無論是數十、數百或數千頁都能夠做出總結摘要。 OpenAI  在  GPT-3  透過小說種類的書籍進行訓練模型,平均超過 100,000 個字詞數。這樣的訓練模式可更換為不同的語言、採樣方式及訓練數據類型,並且藉由強化學習以對抗生成方式,提供輕鬆閱讀文字結果。同時,在強化學習中採用三種變體抽樣訓練方式,藉此讓GPT-3確實能理解小說內容表達主軸。 在訓練過程中,研究人員選取 Goodreads 2020 榜單最受歡迎的 40 本書籍,包含奇幻、恐怖、愛情、推理等 20 多種類別,並由兩名研究人員閱讀每本書後寫出其摘要,再對比  GPT-3  生成的摘要,進行評分。最後,研究人員與 GPT-3 所...

人工智慧也能寫心靈雞湯?GPT-3曾奪「Hacker News」科技媒體排行榜冠軍(上)

圖片
 人工智慧用200字說完12萬字的故事!GPT-3解鎖「抓重點」新功能 OpenAI  訓練了可以摘要整本書籍的 人工智慧 模型:該模型擁有精煉出整本書重點大綱的能力,像是能快速用 200 字精準描述出 12 萬字的《傲慢與偏見》。 這個人工智慧模型,就是前陣子  OpenAI  的當家技術——自然語言處理模型「 GPT-3 」經過微調過後的版本。 此款微調後的  GPT-3  語言模型,會先依照文章長度進行判斷:文章長度較短的內容就直接擷取結論;長篇文章則先在各片段摘要出重點後,再串接這些重點並摘要出通順的大剛。 再深入了解這個能秒抓重點的人工智慧模型前,我們先來了解一下  GPT-3  的身世! 地表最強寫手—GPT-3 自然語言處理人工智慧 長期致力研究 人工智慧 (AI)的非營利組織── OpenAI  於 2020 年 5 月推出開發出一款自然語言處理模型「 GPT-3 」,目的是為了使用深度學習分類或產生人類可以理解的自然語言。 GPT-2 寫假新聞,獲英國《衛報》認證! 嚇跑創辦人馬斯克? GPT-3 是延續前身  GPT-2  的架構。過去  GPT-2  就以捏造假可亂真的 假新聞 為名,據說因此嚇跑了  OpenAI  創辦人之一的馬斯克! 過去英國媒體《衛報》(The Guardian)就將一則「英國脫歐」的新聞,第一段中的一些句子「餵」給它, GPT-2  可立刻產生另一則似是而非的新聞內容、如同原本的報紙般的編排、以及出現跟原文一樣的人物等。發表過「基於真人真事改編」的英國脫歐 假新聞 。《衛報》甚至認為  GPT-2  產生的句子,幾乎沒有過去 AI 系統撰文所產生的前後語意不一致、或是文法錯誤的問題。 ​ https://www.youtube.com/watch?v=XMJ8VxgUzTc&feature=emb_logo 而  GPT-3 ,身為  GPT-2  的後代,又更是青出於藍。 GPT-3  擁有高達 1750 億個參數的神經網絡,自動生成文字的文字更人性化。只要「餵」給  GPT-3 ...

人工智慧也能寫心靈雞湯?GPT-3曾奪「Hacker News」科技媒體排行榜冠軍(下)

圖片
 GPT-3 不只會寫文,還可從長篇大論中摘要重點 GPT-3  可高度理解原作者的撰文意圖,並有效處理;完全沒有其他早期開發的 人工智慧 模型的缺點(例如低精準度、不容易理解使用者的文字意圖⋯⋯等)。因此研究團隊就聚焦在  GPT-3  ,不斷修正與微調,持續提升 人工智慧 理解問題的精準度,因此  GPT-3  能為原本耗時或難以評估時間的任務,提供除了撰文之外,更多的應用方式。 ​ 圖片出處:CC0授權圖庫搜尋 GPT-3 新功能解鎖:將12萬字《傲慢與偏見》精煉成200字重點 OpenAI  研究人員不斷開發  GPT-3  的新應用方向。這次,他們成功將  GPT-3  微調成「抓重點」神器。原本擁有 12 萬字詞編排的《傲慢與偏見》長篇名著,被  GPT-3  精煉出總結不到 200 個字詞的小說摘要。 雖然被 人工智慧 精煉成千分之一的字句,但是原著故事內容都完整保留!其他精簡成摘要的著作還有《愛麗絲夢遊仙境》、《羅密歐與茱麗葉》、《自由之心》從生成少許的文字敘述一窺劇情全貌。 ​ 人工智慧「寫手」GPT-3 新功能解鎖:將擁有 12 萬字的《傲慢與偏見》精煉成200字重點(圖片出處: OpenAI ) GPT-3 如何生成文字? 就技術面來看,進行判斷文章長度,總結一段長文本分解成較短內容,而在這些短內容的段落中擷取重點,持續縮減字數並且串接成通順可讀內容。這樣對文章內容的分解方式,無論是數十、數百或數千頁都能夠做出總結摘要。 OpenAI  在  GPT-3  透過小說種類的書籍進行訓練模型,平均超過 100,000 個字詞數。這樣的訓練模式可更換為不同的語言、採樣方式及訓練數據類型,並且藉由強化學習以對抗生成方式,提供輕鬆閱讀文字結果。同時,在強化學習中採用三種變體抽樣訓練方式,藉此讓GPT-3確實能理解小說內容表達主軸。 在訓練過程中,研究人員選取 Goodreads 2020 榜單最受歡迎的 40 本書籍,包含奇幻、恐怖、愛情、推理等 20 多種類別,並由兩名研究人員閱讀每本書後寫出其摘要,再對比  GPT-3  生成的摘要,進行評分。最後,研究人員與 GPT-3 所...