AI 數學馬拉松
想了解無所不在的AI服務,數學是你必備的基礎能力,因為所有的機器學習算法底層都是從數據中探索規則,而找出規則的根本方法就是數學。 本讀習會將帶你剖析介紹機器學習算法會使用到的數學原理,以目標導向
內容簡介
作者介紹
適合人群
你將會學到什麼
購買須知
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。
-
機器學習的入門概念
了解此章節後,能喚起各位對於數字符號與運算的回憶,以及對於預測模型能夠有基本的認識。
-
從函數了解機器學習
所謂函數(function),其實是一種映射(mapping),最簡單的說法,就是將數值 x 映射為數值y,數學符號是 f(x) = y,其中 x 被稱之為獨立變數,而y則被稱之為依變數。注意 x 可能不指一個,也不一定是數值。其實整個機器學習的目的,就是讓電腦尋找一個函數,能夠預測,分類和分群。
-
函數概念、座標圖與線性函數
在機器學習的領域哩,我們經常會面對函數的概念、座標圖,與線性函數的運算。在這裡,我們就先來了解一下他們的意義和概念。
-
函數方程式與多項式
讓我們來了解函數(Function)、方程式(Equation) 和多項式(Polynomial)的定義和彼此間的同異點
-
三角函數
三角函數定義和運算線段或向量之間的角度和弧度,在機器學習上用來計算文件距離,以及在神經元上當作激活函數等功能扮演重要角色。讓我們來了解角度與弧度,正弦餘弦正切等三角函數,以及餘弦距離,或稱餘弦相似度。
-
基礎幾何
幾何和線性代數有不可分割的關係,我們經常把機器學習的問題轉化成幾何問題的點線面方程式或不等式,然後以線性代數解之。
-
指數函數與對數函數
指數與對數互為反函數,用途非常廣泛。在機器學習中的邏輯思迴歸(Logistic Regression)用到 S-函數(Sigmoid function),以及和線性迴歸互換的Logit函數都用到了自然指數與對數,另外在對數損失函數(Log Loss function)也用到對數函數。
-
次方與方根
次方與方根經常出現在多項式的表達與解法中,也是機器學習的線性迴歸中計算損失(比方MSE:Mean Squared Error)必要的函數,讓我們一起來學習次方與方根的表示與運算
-
-
從機率了解機器學習
機率(probability)又成為或然率,用來描述某事件發生的可能性,比方洋基隊贏紅襪的可能性,或者這個數字是7的可能性,以0到1之間的小數表達。數字愈接近1愈可能,愈接近0愈不可能。如果是0.5,則機會對半。投擲一枚硬幣,落地後頭朝上的機會應是0.5 機率在機器學習裡扮演重要腳色。我們在做機器學習分類時,最後的到的答案總是機率,然後我們往往取機率最大的那個結論當作結果。
-
集合論
集合是學習機率的基礎,機率則是機器學習預測分類分群等重要功能的基礎。學習集合再學機率觀念就會很清楚。
-
簡單的機率(機率介紹)
簡單的機率讓我們從物件或事件發生的排列組合中,正確的了解機率的定義及計算。機率在機器學習中扮演關鍵的角色,所有預測的結果都是機率。
-
期望值、方差與協方差
期望值是隨機變數千變萬化的預期值,方差和協方差則描述隨機變數本身或兩隨機變數間的變化量。這些數值提供機器學習訓練和預測堅實的基礎。
-
常見的隨機變數
自然界常見的的機率分佈是機器學習用來模擬真實世界的發生狀況的假設基礎,有了這些基礎才能逼近自然界真實的狀況,做準確的分析。讓我們來了解隨機變數的這些分佈
-
貝氏定理
貝氏定理基於條件機率,利用先驗機率預測未知的機率,在機器學習中是非常有效率的分類演算法,可用來做文件分類,辨識垃圾郵件等。
-
-
機器學習需要了解的統計觀念
此章節主要著重於一些統計名詞與傳統算法的介紹,以此讓各位在後續的學習路程上,能輕鬆理解每個更深奧的方法,進一步實踐在機器學習中。
-
從向量與矩陣了解機器學習
我們一般看到的數字,如7, 1.34, ⅓ 等都是純量,而向量(vector)呢,其實是一維的一系列數字組,比方[1 2 3 4 5],矩陣(matrix)是二維的一系列數字的組合,陣列(array)則為多維的一系列數字組,多維方陣我們又稱為張量(tensor) 人類的眼睛只能看到二維的報表,和三圍的世界。但是機器學習卻必須運算高維的數字與抽象事件。為了要準備高維的數字讓電腦運算,我們必須要讓電腦有二維或者以上的張量辨識運算與表達的能力。所以說向量矩陣以及張量,是機器學習運算元的基礎 。在運送過程當中經常會使用線性代數。
-
向量基礎觀念與量度
認識純量 / 向量 / 張量 / 向量分量 / 列向量&行向量,衡量向量的長度與向量間的距離。
-
向量運算與內積
向量和、向量差、向量乘積、向量內積的幾何意義、分量與內積公式
-
相關係數
從向量的內積了解相關係數
-
餘弦相似性
餘弦相似性英文叫做 Cosine Similarity,是一種量測向量之間的角度距離的量度。當兩向量重合時會等於最大值1;當兩向量背道而馳時會等於-1。餘弦相似性在文字探勘上十分重要。
-
矩陣表示法與運算規則
矩陣根據其維度的多寡,可分為一維的向量,二維真正的矩陣,以及三維以上的陣列或者叫做張量
-
特殊向量與矩陣
特殊向量與矩陣,如對角矩陣,對稱矩陣,單位矩陣,單位向量,正交向量,單位正交向量與矩陣,在向量和矩陣的運算中扮演重要角色
-
特徵值與特徵向量
特徵值(Eigenvalue)與特徵向量(Eigenvector)在數學上有非常廣泛的應用。在機器學習當中我們可以用來作為降維。降維的應用一則是把最重要的參數挑出來,或者是讓人類有辦法看懂機器學習產生的高維度報告
-
-
從微分了解機器學習
微積分在應用上扮演著不可或缺的角色,當然包括機器學習。此章節希望能帶給各位對於微積分有新的認識,並且,能夠把看起來較抽象的數學應用在我們想達成的目標上。
-
廻歸模型相關的數學能力
此章節專注於介紹回歸模型,其中包括較常見的線性回歸模型與羅吉斯回估模型,這邊特別強調一下,本章的運算過程會較複雜,因為本章目的是要讓大家從較簡單的模型作為切入,實踐前面所學到的數學概念,如此一來,複雜的神經網路(下一章節)也難不倒我們了。
-
深度學習相關的數學能力
完成此章節,我們將對於機器學習的運作脈絡有更完整的視野,並了解到微分是如何在電腦中處理的,在最後一堂的內容中,也希望各位對於數值方法有些許的了解,並希望學員們學習完畢可以了解到,數學,是非常廣泛且實用的工具,直到如今,還有非常多的人們為了新領域在研究新的數學手法,希望大家能在完成此馬拉松,不再以枯燥乏味來形容妙不可言的數學,祝大家在學習的航道上,一帆風順。