FACEBOOK上誰能陪伴你24小時?人工智慧當樹洞(下)

FACEBOOK上誰能陪伴你24小時?人工智慧當樹洞(下)







【前情提要】

Facebook 表示:比起跟人類談心,有近五成的用戶表達他們更喜歡跟自家的人工智慧「Blender」聊聊!然而當「Blender」被安排與女性的聊天 AI「Kuki」約會時,Blender 卻失控秒變媽寶,甚至稱 Kuki 為媽媽 ,不斷跳針脫序演出(詳情請看上篇)⋯⋯Facebook 為「雪恥」,趕緊將 Blender 「進廠維修」,升級後推出「BlenderBot 2.0」⋯⋯新版本的 Blender 有哪些亮點,讓他成為更能與人連結的人工智慧?



牢記你說過的、聽不懂還會主動找答案的AI BlenderBot2.0

為了減少類似這樣的尷尬對話發生,在 2021 年,臉書團隊推出了他們改進後的聊天機器人──BlenderBot2.0。

2.0 與舊版最大的不同之處在於,Blender 多了「長期記憶」與「即時搜尋」功能。

在長期記憶方面,BlenderBot2.0 能夠記住自己與對方曾經說過什麼,在未來,若遇到相關話題時,能夠接續話題而不會產生自相矛盾的狀況,避免對談者要將說過的話再重複一次的窘境。

而若是碰到 AI 不太了解的話題,BlenderBot2.0 現在也能夠即時到網路上搜索相關資訊,並以這些資訊來回應、延續,或開啟新的話題。

FACEBOOK上誰能陪伴你24小時?人工智慧當樹洞(下)
Blender2.0 版本多了記憶與網路搜尋功能。來源:ai.facebook.com



如此一來,能夠減少言不及義的狀況,讓聊天機器人表現得更像人類,畢竟像上網搜尋等等,也是真實人類日常聊天時會做的事。

為了強化新的聊天 AI,臉書也在外包平台上發布任務,邀請網友一同來共襄盛舉。
這些任務包括:間隔幾小時、幾天後,針對同一話題接續討論;以及根據對方所提出的興趣話題,搜尋相關資訊後接續對話。臉書再收集這些數據與對話,進一步來提升聊天機器人的自然度。



網路陷阱多!AI與老司機對話後仍「保有道德」的挑戰

從網路上找尋資訊,或是和真人網友學習對話,看起來是個好方法,但同時也潛藏著巨大的隱憂。

雖然這樣能夠教會 AI 如何回覆一段對話,但如一個人的是非對錯、價值觀、道德觀往往體現於他的言談之中,想要讓 AI 在接觸到網路上的情色、暴力、歧視等資料後還「保有道德」,似乎還是一項挑戰。

例如微軟的聊天 AI Tay,在網路上僅推出一天,就開始說出「希特勒是對的,我恨猶太人」、「我他X恨死女權主義者了,他們都該下地獄被燒死」等種族歧視、偏激立場等言論,讓微軟不得不緊急關閉、下架;而中國的小冰,也曾發生以粗口和髒話回覆網友,或是對中國政府敏感議題發表意見而下架的狀況。

FACEBOOK上誰能陪伴你24小時?人工智慧當樹洞(下)
微軟的聊天 AI Tay,在網路上僅推出一天就出現種族歧視等偏激言論,只好被下架。



除此之外,AI 機器人不會有自己的觀點、喜好,在聊天過程中只是將當下熱門的言論當成回覆提交,也無法讓對談者感受到真誠和信任。

整體而言,雖然聊天 AI 機器人這個領域的發展十分迅速,但若想要讓真人透過與 AI 互動就能夠滿足聊天、傾訴的慾望,還有很長的一段路要走。



留言

這個網誌中的熱門文章

前端工程師設定CSS背景的五種方法(一)背景固定模式設定

前端工程師設定CSS背景的五種方法(五)設定背景顏色

RWD和AWD是啥?差別又是什麼?前端工程師課程大解密!