機(jī)器學(xué)習(xí)簡(jiǎn)介
回歸算法理論與實(shí)戰(zhàn):
1.一元線性回歸
2.代價(jià)函數(shù)
3.梯度下降法
4.使用梯度下降法實(shí)現(xiàn)一元線性回歸
5.標(biāo)準(zhǔn)方程法
6.使用sklearn實(shí)現(xiàn)一元線性回歸
7.多元線性回歸
8.使用sklearn實(shí)現(xiàn)多元線性回歸
9.特征縮放,交叉驗(yàn)證法
10.過(guò)擬合正則化
11.嶺回歸
12.sklearn實(shí)現(xiàn)嶺回歸
13.LASSO回歸
14.sklearn實(shí)現(xiàn)LASSO回歸
決策樹(shù)算法理論與實(shí)戰(zhàn)
15.決策樹(shù)-信息熵,ID3,C4.5算法介紹
16.sklearn實(shí)現(xiàn)決策樹(shù)
17.決策樹(shù)-CART算法
18.決策樹(shù)應(yīng)用
集成學(xué)習(xí)算法理論與實(shí)戰(zhàn)
19.Bagging介紹與使用
20.隨機(jī)森林介紹與使用
21.Adaboost介紹與使用
22.Stacking和Voting介紹與使用
泰坦尼克號(hào)獲救人員預(yù)測(cè)項(xiàng)目
KNN算法和決策樹(shù)算法理論與實(shí)戰(zhàn)
1.KNN算法介紹
2.python實(shí)現(xiàn)knn算法
3.sklearn實(shí)現(xiàn)knn算法完成iris數(shù)據(jù)集分類
聚類算法理論與實(shí)戰(zhàn)
4.k-means算法原理
5.k-means算法實(shí)現(xiàn)
6.DBSCAN算法原理
7.DBSCAN算法實(shí)現(xiàn)
神經(jīng)網(wǎng)絡(luò)算法
8.神經(jīng)網(wǎng)絡(luò)基本原理
9.單層感知器程序
10.線性神經(jīng)網(wǎng)絡(luò)
11.激活函數(shù),損失函數(shù)和梯度下降法
12.線性神經(jīng)網(wǎng)絡(luò)異或問(wèn)題
13.BP神經(jīng)網(wǎng)絡(luò)介紹
14.BP算法推導(dǎo)
15.BP神經(jīng)網(wǎng)絡(luò)解決異或問(wèn)題
16.BP算法完成手寫數(shù)字識(shí)別
16.sklearn-BP神經(jīng)網(wǎng)絡(luò)解決手寫數(shù)字識(shí)別
17.GOOGLE神經(jīng)網(wǎng)絡(luò)平臺(tái)
特征工程貸款拖欠預(yù)測(cè)項(xiàng)目
用戶流失預(yù)測(cè)項(xiàng)目
Tensorflow(一)
1.深度學(xué)習(xí)框架介紹
2.Tensorflow安裝
3.Tensorlfow基礎(chǔ)知識(shí):圖,變量,fetch,feed
4.Tensorflow線性回歸
5.Tensorflow非線性回歸
6.Mnist數(shù)據(jù)集合Softmax講解
7.使用BP神經(jīng)網(wǎng)絡(luò)搭建手寫數(shù)字識(shí)別
8.交叉熵(cross-entropy)講解和使用
Tensorflow(二)
9.過(guò)擬合,正則化,Dropout
10.各種優(yōu)化器Optimizer
11.改進(jìn)手寫數(shù)字識(shí)別網(wǎng)絡(luò)
12.卷積神經(jīng)網(wǎng)絡(luò)CNN的介紹
13.使用CNN解決手寫數(shù)字識(shí)別
14.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)LSTM介紹
15.LSTM的使用
16.模型保存與載入
圖像識(shí)別項(xiàng)目
1.介紹Google圖像識(shí)別模型Inception-v3
2.使用Inception-v3做圖像識(shí)別
圖像識(shí)別項(xiàng)目
3.訓(xùn)練自己的圖像識(shí)別模型
驗(yàn)證碼識(shí)別項(xiàng)目
4.多任務(wù)學(xué)習(xí)介紹
5.生存驗(yàn)證碼圖片
6.構(gòu)建驗(yàn)證碼識(shí)別模型
文本分類項(xiàng)目
7.文本分類任務(wù)介紹
8.word2vec介紹
9.使用CNN完成文本分類
10.使用LSTM完成文本分類
生成式對(duì)抗網(wǎng)絡(luò)GANs
11.GANs介紹
12.使用tensorflow完成GANs
|