發表文章

目前顯示的是有「線性迴歸」標籤的文章

十種你不能錯過的的機器學習演算法圖解-監督與非監督式學習(上)

圖片
機器學習之海肯定很~~~大的,今天要分享一塊小小海域-監督與非監督式學習演算法圖解,快往下看! 隨著人工智慧的深入發展,沒有學習能力的 AI 侷限性越發明顯,為了突破這個瓶頸,「 機器學習 」逐漸成為 AI 領域的研究核心之一,也發展出各種 機器學習 的演算法。 現在有哪些熱門的算法?各有什麼特點?本次就要來盤點幾大常用的 機器學習 演算法,並告訴你為何 機器學習 語言要首選 Python  ,你沒聽錯,就是那個鼎鼎大名的python! 接著讓我們來進入正題! 機器學習 演算法大致上可以分為三類:監督式學習(Supervised learning)、非監督式學習(Unsupervised learning)與強化式學習(Reinforcement learning)。 本次將著重介紹「監督式學習」與「非監督式學習」的演算法。 一、監督式學習 監督學習算法可以分成兩個大方向:分類和迴歸。 1. 線性迴歸(Linear Regression) ▲ 線性回歸的視覺化,平面內有一系列點,尋找出一條最能擬合資料趨勢分布的線用來預測新的資料出現的位置 線性回歸源自於統計學的方法,通過一個或多個自變量與因變量進行建模的回歸分析。視覺化後如上圖,平面內有一系列點,尋找出一條最能擬合資料趨勢分布的線,也能用來預測新的資料出現的位置,就叫線性回歸。 在線性回歸中,數據使用線性預測函數來建模,並且未知的模型參數也是通過數據來估計,簡單的線性回歸公式為: ▲ 簡單的線性回歸公式 y 是因變量(y)對自變量(x)任何給定值的預測值;B0 是截距,即 x 為 0 時 y 的預測值;B1 是回歸係數–表示期望 y 隨著 x 的增加而改變多少;x 是自變量(期望的變量影響 y);e 是估計值的誤差,或表示回歸係數估計值有多少變化。 2. 邏輯回歸(Logistic Regression) 邏輯回歸延伸自線性回歸,是一個二元分類算法,透過選取不同的特徵與權重來對樣本進行機率分類。 邏輯回歸會使用某種函數將機率值壓縮到某一特定範圍,如 Sigmoid 函數。S 函數是一種具有 S 形曲線、用於二分類的函數。 ▲ 邏輯分布函數圖像(圖片來源:Wikipedia) 邏輯...