發表文章

目前顯示的是 11月, 2020的文章

不只有理科生能接觸Python課程,文科生可是更有潛力呢!-上

圖片
 身為文科生遲遲不敢下定決心踏入 Python 之門嗎?今天就是你人生改變的第一天!   文組不適合學 Python 與 Java?《Nature》:外語天才其實更適合寫程式 說到 Python 、 Java 等程式語言,很多人都認為理科生的專利,這樣的刻板印象,也讓許多有志當軟體工程師的文科生望之卻步、自我設限。其實根據美國《Nature》旗下自然科學期刊《Scientific Reports》發表的文章顯示:Python 程式語言的學習速度似乎與語言能力呈正比,也就是說:越擅長母語、外語國的語言天才,學習程式語言的速度就越快、對於 coding 知識的吸收越好!   ▲ 過往很多人認為理組生較適合學習程式語言。但根據《Nature》旗下期刊發表的研究文章顯示:語言能力強的人學習 Python 較快 (source:unsplash/本圖為示意圖與當事人無關)     也許,學習 Python 、 Java 等程式語言的過程,就像是學習英文、德文等第二外語一樣。 根據華盛頓大學研究人員發表的一項研究顯示:從一個人的語言能力及解決問題的能力,就能預測他學習 Python 程式語言的速度快慢。此項研究使用「行為測試」和「大腦活動」的方式,來了解受試者學習程式語言的速度,並同步發表在美國《Nature》旗下自然科學期刊《 Scientific Reports 》上。   ▲ 《Nature》旗下期刊《Scientific Reports》發表的研究報告「自然語言能力與學習程式語言的關聯」。(source:擷取自 Scientific Reports 官網)     這項研究招募了 42 名受試者,他們必須透過 Codeacademy 的線上教學平台,完成 10 次 45 分鐘的 Python 課程 。其中真正完成課程的受試者有 36 人,研究團隊就從他們的身上確認其學習速度及對課程的掌握度。   線上課程讓研究團隊能掌握受試者學習進度 在進行線上的 Python 課程 之前,受試者進行了一連串數學能力、工作記憶、第二外語及問題解決能力的測試後,才開始進行 Python 程式語言的課程。課程是使用線上的方式,不但讓受試者能自我掌握學習進度,更讓研究團隊能即時追蹤受試者的學習速度及在線

畫畫真的好難!就讓這人工智慧輔助繪圖能力來幫助你~

圖片
 讓 人工智慧 拯救你了!畫出的不專業怪物,靠它變成大師奇幻插畫~ ▲ Google 新推出的機器學習工具「Chimera Painter」,展現了 人工智慧 輔助繪圖能力(Image: Google)     Google CEO Sundar Pichai 曾說 人工智慧 人類的影響「比火、電更為深遠(AI is more profound than fire or electricity.)」。 這邊有個有力的證據,來支持上述的說法: Google 研發了一套人工智慧工具,能將平常不過的塗鴉,變成詭異的怪物。還有什麼比這影響更深遠的?     ▲ 使用粗略草圖即可生成奇幻生物的人工智慧工具:Google 的 Chimera Painter     無論如何,這聽起來就是很有趣。這套工具叫做「 Chimera Painter 」,它能根據用戶的粗略草圖,使用機器學習方式,生成進一步的精緻圖像。這樣的生態已逐漸成為機器學習界的常態:先前 Nvidia 推的 AI 工具「 done it with landscapes 」能將線條草圖生成擬真背景、MIT 與 IBM 也合作過將粗略線條生成擬真建築物的「 GANpaint 」,而現在 Google 也出了類似的 人工智慧 工具用來生成 … 怪物。 Chimera Painter 背後的團隊在他們的 部落格網站 說明這套工具的概念是創建一支「不像工具、而更像助手的畫筆」。Chimera Painter 只能算是一個原型,但是若類似的軟體普及化後,則可大大地縮短創作高品質藝術作品所需的時間。   ▲ Google 的 人工智慧 研究人員發想的奇幻遊戲卡原型(Image: Google)     Google 的 人工智慧 研究人員們給自己一個挑戰:發想奇幻風格的遊戲卡片,卡片玩家可結合不同的怪物卡來戰鬥,就像寶可夢的玩法一樣。研究團隊用來訓練機器學習模型的資料庫,擁有破萬隻怪獸的資料。這些怪獸本身是使用遊戲開發引擎「Unreal Engine」,一個部位接著一個部位地使用 3D 模型渲染生成。每一張圖像都匹配到一個「分割圖」 ──將怪物分為爪、口鼻、腿等身體部位的覆蓋圖。 訓練了這個機器學習模型後,用戶就可依照怪物的身體部位,

如今的西洋棋,已藉著人工智慧而有了新生命!(下)

圖片
透過 人工智慧 的超強自學能力,挖掘西洋棋的不同可能性!   前世界冠軍與人工智慧讓西洋棋起死回生 經 過雙方的合作研究,最終於 2020 年 9 月發表一篇長達98頁的論文:《使用 AlphaZero 評估遊戲平衡:探索西洋棋中的替代規則》(Assessing Game Balance with AlphaZero: Exploring Alternative Rule Sets in Chess),由 Deepmind 的 Nenad Tomasev、Ulrich Paquet、Demis Hassabis 以及克拉姆尼克一同撰寫。 在此篇論文中,團隊發表了九種西洋棋變體型式,AlphaZero 則負責在幾個小時內模擬出數十年遊戲會怎麼發展、探索不同規則的西洋棋具有什麼樣的可能性。有 AlphaZero 的助力,使研究團隊能看到在不同規則下的人類玩家能開創出什麼別出心裁、出乎意料的玩法。 AlphaZero 測試出的九種西洋棋變體規則: 1. 禁止「國王入堡」(No-castling): 整個棋局都禁止使用「國王入堡」走法。這種走法讓棋國王躲進由其他棋子組成的防護後面,減少國王被威脅的機會,但也會令比賽變得沉悶。 2. 10 步內禁止「國王入堡」(No-castling (10)): 在前10步以內禁止使用「國王入堡」下法。 3. 兵走一格(Pawn one square): 兵棋(Pawn)只能前進一格。目標為增加彈性,減緩遊戲速度。 4. 無子可動時即勝(Stalemate=win): 其中一方無子可動時,即為另一方勝利(原先為平局)。 5. 水雷(Torpedo): 兵可以選擇在棋盤的任何地點走 1 或 2 格。這意味著隨時都可以使用吃過路兵(En passant)走法。 6. 半水雷(Semi-torpedo): 兵只有在第 2 或 3 線時才能移動 2 格。 7. 兵可以後退(Pawn-back) 棋子可以向後移動到一個正方形內的格上,只能返回到 2nd/7th 橫線上(此時的移動不計入「50步規則」內)。 8. 兵可以橫走(Pawn-sideways): 棋子也可以橫向移動一格。(此時的移動不計入「50步規則」內) 9. 自己吃棋(Self-capture): 可以吃自己的棋子,用自己的棋

如今的西洋棋,已藉著人工智慧而有了新生命!(上)

圖片
先讓我們來了解 人工智慧 和西洋棋是如何結下樑子的! 以西洋棋賽為主題的 Netflix 影集《后翼棄兵》近來大受好評,其中刺激精彩的棋局對弈,不但讓這齣劇高佔台灣熱門排行榜第一名,也讓原本對西洋棋不了解的觀眾產生興趣、紛紛探查起這個歷史悠久的二人對弈遊戲。而西洋棋——這個世界上最流行的遊戲之一,現在正遭受 人工智慧 的破壞與威脅?而前西洋棋世界冠軍又正和 AI 聯手拯救西洋棋?   ▲ 現在的西洋棋比賽,贏家幾乎都是人工智慧。(Photo by Felix Mittermeier on Unsplash)     人工智慧與西洋棋的愛恨情仇 西洋棋在世界各地有數以百萬計的粉絲,而編寫出一個能與人類對弈的軟體程式,曾是科學家追求的目標。 首個挑戰人類棋王的電腦系統為 1997 年 IBM 的「深藍」(Deep Blue),更成為首個在標準比賽時限內擊敗人類冠軍的電腦系統。其後依然有數次「人機大戰」,但人類始終難以在 64 格的天地裡戰勝電腦。 到 人工智慧 公司 DeepMind 的 AlphaZero 登場時,AI 只是憑藉自我對弈的不斷學習,在完全沒有輸入人類的棋譜、沒有特別設計的專用計算程式的情況下,就已經征服西洋棋、將棋、圍棋等最複雜的棋類遊戲,打敗這些領域中最頂尖的人類玩家了。 在科學家們將 AlphaZero 稱為「深度學習 AI 的終極解答」、欣喜於 人工智慧 技術的快速進步時,另一方面也有人開始擔憂 AI 正在毀滅這些棋類遊戲——因為棋手們開始死記硬背 AI 的下棋手法來擊敗對手,讓棋類遊戲失去了原先的美麗。 前西洋棋世界冠軍克拉姆尼克就是憂心忡忡的其中一人。不過,他現正與開發 AlphaZero 的DeepMind團隊合作,嘗試開發出西洋棋的若干變種形式,試圖找回棋類遊戲的迷人風采。   64 個方格構成無限可能的世界   ▲ 西洋棋下棋示意圖(Photo by JESHOOTS.COM on Unsplash)   曾為世界冠軍多年的俄羅斯職業棋手弗拉基米爾.克拉姆尼克(Vladimir Kramnik)認為,西洋棋也是一門美麗的藝術。思維在棋盤上彼此碰撞,優雅而又複雜的挑釁、反擊、你來我往——「這是一種創造。」克拉姆尼克這樣表示。 克拉姆尼克熱愛西洋棋,他於 2

這人工智慧軟體把你的草圖變成幾可亂真的風景照~

圖片
人工智慧 面對你的草圖可一點都不驚慌,它三兩下就能把草圖變為超真實的美麗風景照呢!       Nvidia 非常擅長將 人工智慧 技術用於創造擬真的圖像,像是之前的 StyleGEN 就可以合成幾可亂真的虛擬人臉(雖然合成貓咪有點失敗) 。去年他們又出了一款 AI 工具「 GauGAN 」可將信手捻來的線搞草圖,化為擬真的風景圖。 該軟體使用一種被稱為「生成對抗網絡(GAN)」的 人工智慧 模型,提供一種被 Nvidia 稱為「智能畫筆(smart paint brush)」的工具。 這意味著用戶只需繪製基本的線條輪廓,軟體可以自動以自然紋理(例如草,雲,森林或岩石)填充,最後一個擬真的自然風景就這樣呼之欲出了! 雖然 Nvidia 的「GauGAN」並非是此類 AI 軟體的創舉,但是生成的效果讓人讚為觀止——該人工智慧軟體可讓用戶以極其直觀的方式,生成幾可亂真的景觀。例如,當用戶隨性繪製一棵樹,然後在其下繪製水池時,AI 模型還可將樹的倒影添加到水池中呢! 儘管 Nvidia 提供的 demo 看起來很強大,但是 GauGAN 仍有他的限制。因為生成草地、水等自然物質所涉及的視覺模式是非結構化的。相比之下,生成建築物和家具的圖片要復雜得多,而且結果也差強人意——那是因為這些物體涉及到人類敏銳的邏輯和結構。正如之前我們所看到的 Nvidia 人工智慧 生成人臉,雖然 GAN 可說是表現的有模有樣,但這也是拜大量的額外工作所賜。 而 Nvidia 也未透露是否有任何讓該軟件商品化的計畫,但暗示這樣的工具將來可以幫助「建築師、城市規劃師、園藝設計師和遊戲開發商的從業人員」。 NVIDIA 應用深度學習研究部門副總裁 Bryan Catanzaro 表示:「使用簡單的草圖來集思廣益做設計,是要容易得多了!並且該技術能將草圖轉換為高擬真的圖像。」           延伸閱讀: 人工智慧也即將取代法官了?讓我來看看愛沙尼亞的新政策!(下) 人工智慧貓窩,可不是只是空殼,來看看它的功能!(下) 人工智慧開始生產文章!而且還是雞湯文!?(上) 【人工智慧預防糖尿病患失明】台大打造人工智慧醫療,診斷視網膜病變準確度達95% 人工智慧釀酒「人生釀造

沒想到新冠患者的咳嗽聲對這人工智慧來說是關鍵!(下)

圖片
人工智慧 到底如何從咳嗽聲抓出新冠患者?這篇揭曉! AI 檢測咳嗽時異音 找出 COVID-19 無症狀感染者 而在疫情爆發後,研究團隊開始將此技術運用在新冠病毒的篩檢上。團隊一共收集了多達7萬個聲音樣本,來訓練即將迎戰新敵人的 人工智慧 模型,每個樣本皆包含數次咳嗽的聲音,其中有2500個樣本來自於確診者。蘇比拉納表示:「在醫療領域,這是迄今為止最大的咳嗽數據庫了」。 接著團隊在 1,000 個樣本上測試此 AI 模型,其中樣本有一半為健康者的咳嗽聲,另一半為確診肺炎者的咳嗽聲。在測試中, 人工智慧 準確地辨識出 98.5% 的確診患者,且辨識出 100% 的無症狀感染者,展現令人歎為觀止的準確性。   ▲就算是新冠患者未表現出圖中的症狀,人工智慧演算法仍可從咳嗽聲辨識無症狀感染者。 (示意圖,與本事件無關/Photo by UN Response to COVID-19 on Unsplash)     論文共同作者之一的蘇比拉納表示:「即使患者看似無症狀,一旦染上 COVID-19,其產生聲音的方式也會發生變化。」但他同時也強調,雖然該 AI 能夠檢測出不健康的咳嗽聲,但依然需謹慎使用,因為該工具是以「篩選條件」的方式找到相符的疾病,因此也可能出現偶然地完全符合篩選條件,卻不是 COVID-19 的狀況,不論是個人或醫療人員都須謹慎判斷。   團隊盼推出檢測 APP 民眾在家也可免費自我篩檢 ▲團隊盼能開發出應用此 AI 的免費應用程式。 (Photo by Brian McGowan on Unsplash)   目前團隊正在與多家醫療機構合作,以利建立起更多元的數據庫,使預測更精準。 除此之外,研究團隊也正嘗試開發出應用此 AI 的免費應用程式,如果獲得 FDA(美國食品和藥物管理局,Food and Drug Administration)的許可,接下來團隊將會與私人企業合作,開發手機 APP。該 APP 將可能成為一個免費、便捷、居家性的病毒預先篩檢工具,特別是能夠識別出無症狀感染者。使用者可以將咳嗽聲以手機錄製後,上傳提供 AI 分析,就能得知是否有被感染的可能性,再進行正式的新型冠狀病毒篩檢。 蘇比拉納表示:「如果每個人在去教室,工廠或餐廳之前都使用該診斷工具,則該組診斷工具的有效

沒想到新冠患者的咳嗽聲對這人工智慧來說是關鍵!(上)

圖片
人工智慧 又來造福群眾了,聞聲辨識對它來說一塊小蛋糕~ 人工智慧 現在可從人的咳嗽聲中,認出對方是否為新冠肺炎患者──就算是無症狀患者,也能被辨識出。在目前全球疫情尚未趨緩之際,AI 可說是為新冠病毒的檢測帶來新希望! 美國麻省理工學院(MIT)實驗室日前發表一篇論文,表示他們開發出的最新 AI 演算法,只要聽到人的「咳嗽聲」,就能知道這個人有沒有感染新型冠狀病毒。重要的是──這個方法對檢測出無症狀患者特別有用。   ▲ MIT 新開發的 人工智慧 演算法,光聽咳嗽聲就能辨識新冠患者──包含無症狀患者。(示意圖,與本事件無關/Photo by UN Response to COVID-19 on Unsplash)     新冠疫情依然在全球多國延燒,有越來越多證據顯示,在新冠病毒感染者中「無症感染者」佔了相當大的比例。這些沒有發燒、咳嗽、四肢無力等明顯特徵的無症狀感染者,因接受檢測的機會遠遠小於有症狀的感染者、難以及早接受治療,故可能持續傳染給他人,成為疫情防堵的最大威脅。 而近日,麻省理工學院(MIT)實驗室公開表示,他們利用 AI 成功開發出一種冠狀病毒檢測的新方法。 該方法的關鍵是分析人的「咳嗽聲」。MIT 研究人員在電氣電子工程學會(IEEE)的《醫療生物工程》(Engineering in Medicine and Biology)期刊上發表一篇論文,文中表示他們發現無症狀感染者發出的咳嗽聲、與身體健康的一般人有所不同,或可幫助協助辨識出感染病毒的患者,使預篩變得更加容易。雖然人耳無法辨認這種細微的差異,但 人工智慧  可以。 在此篇論文中,研究人員明確表示,他們已經開發出一種能辨識新冠肺炎患者咳嗽聲的 人工智慧 。   「聽聲」看診 人工智慧靠聲音辨識多種疾病 其實在疫情開始流行之前,研究團隊已著手開發能分析咳嗽異聲的 人工智慧 。當時的目標是一望能診斷出肺炎、哮喘和阿茲海默症等疾病。 麻省理工學院自動識別實驗室的研究科學家、同時也是此次論文共同作者之一的布萊恩‧蘇比拉納(Brian Subirana)已證明咳嗽異聲可以幫助預測阿茲海默症。由於新冠肺炎與阿茲海默症有某些相同的症狀,因此團隊便思考是否能將此技術應用至疫情檢測上。蘇比拉納表示:「感染新冠病毒疾病之後,就算是沒有出現任何症狀,你

想超速?你是逃不出人工智慧的法眼的!(下)

圖片
本系列文章為【AI一眼抓超速!中研院開發世界最快偵測技術YOLOv4 】的下篇,請 點此 看本系列文章上集。       看完這篇讓你對人工智慧YOLOv4的全面資訊更加了解!     不只最快,還要最精準! 2019 年年初,廖弘源與王建堯團隊首先研發出局部殘差網路 PRNet(partial residual networks, PRNet),將資訊「分流」,減少無謂的計算量,使運算速度增加兩倍。「一開始做出 PRNet,我還是覺得效果不夠好。雖然減少計算量,大幅加快了計算的速度,但是正確率和原本相比並沒有什麼提升。」廖弘源自信的說:「我覺得這樣沒什麼意思,因為我們的目標,是做出全世界最好的物件偵測技術!」 2019 年 11 月,他們在 PRNet 的基礎上,緊接著研發出跨階段局部網路 CSPNet(cross stage partial network, CSPNet),利用分割–分流–合併的路徑,成功達到了大幅減少計算量、卻能增加學習多元性的目標。 從 PRNet 與 CSPNet,我們一步步把物件偵測的計算量減低,但是學習卻能更多元,因此也得到更好的精確度。   ▲ 以上為 CSPNet 簡化結構的一部分,三色箭頭代表機器學習過程中,後面的資料如何反饋往前傳。這個設計的重點在於資訊的分流與多了過渡層 (Transtion),讓反饋的學習資訊在分流後產生差異,提高每一網路層參數的利用率,目標是讓機器學到更多樣的東西,提高判斷的精確度。另一方面,因為資料分流的關係,有部分直接往後傳,不經過分析計算,使整個計算量變少,運算速度也因此加快。(圖:研之有物、Source:王建堯)   「我們發表 CSPNet 之後,吸引 YOLO 技術的維護者博科夫斯基(Alexey Bochkovskiy)的注意。」廖弘源說。他們很快與博科夫斯基(Alexey Bochkovskiy)展開合作,將 CSPNet 用於開發新一代的 YOLO,並於今年 4 月發表了 YOLOv4 ,成為當前全世界最快、最準的物件偵測技術,引爆全球的 AI 社群。廖弘源笑說:「我們 4 月發表的論文,短短不到三個月,閱讀次數就超過了 1400 次,比我以往發表的任何論文都還多。」其中的關鍵技術正是 CSPNet。 此外,由於 YOLOv

想超速?你是逃不出人工智慧的法眼的!(上)

圖片
  世界最快人工智慧技術YOLOv4,不允許你偷偷超速!   (Source:pixabay) YOLOv4 創生故事 「只要讓我看一眼,我就知道這是什麼!(You Only Look Once, YOLO)」YOLO,是目前當紅的 AI 物件偵測演算法。中研院資訊科學研究所所長廖弘源及博士後研究員王建堯,與俄羅斯學者博科夫斯基(Alexey Bochkovskiy)共同研發最新的 YOLO 第四版(簡稱為 YOLO v4),一舉成為當前全世界最快、最高精準度的物件偵測系統,引爆全球 AI 技術社群,已然改寫物件偵測演算法的發展。究竟,他們在演算法裡動了哪些手腳?又是什麼樣的契機,開啟了這項研究?   產業出難題,學界來解題 故事,是從一項產學合作開始。前幾年,科技部提出了「產學共創」機制:產業出題、學界解題,中研院合作對象義隆電子,出了一個考題給資訊所:如何增進十字路口的交通分析?也就是即時偵測車流量、車速等等。當時義隆電子已經在十字路口架設了監視器,包括全景攝影機及單一方向的槍型攝影機,接下來最需要的,就是辨識車輛的物件偵測技術。 「但我們需要的不只是辨識車輛而已。」王建堯說。在馬路上運行中的車速度很快,物件辨識必須非常即時,在短時間內就能辨識出車輛,並能持續追蹤,計算車速。換句話說,這個技術對物件的偵測必須「快、狠、準」。此外,因為影像資料不斷產生,如果把資料都上傳雲端運算,不但比較耗時,也會給雲端電腦帶來太大的負擔,因此這個偵測技術還得做到一件事──計算量必須夠小,小到可裝在十字路口監視器上的小型計算器, 即可完成物件偵測的任務。 要做到交通路況的即時分析,必須有一種速度快、仍能精準辨識,但又可應用在生活中小型計算器的物件偵測技術。 YOLOv4 演算法達到這個不可能的任務!它是目前世界最快、最精準的物件偵測演算法,卻又能小到放在十字路口的監視器內,已實際應用於如「智慧城市交通車流解決方案計畫」,即時偵測車輛、停等車列、車速等等 。   物件辨識的阿基里斯腱:梯度消失問題 怎麼辦到的?首先,王建堯著手研究著名物件偵測系統 YOLOv3 ,「我們想找出在建立一個物件偵測系統時,哪一個步驟是最關鍵的?如果改善了,效率和精確度會提升最多?」廖弘源強調:「雖然是工程問題,但我們要把科學思考帶進來。」