班級(jí)規(guī)模及環(huán)境--熱線:4008699035 手機(jī):15921673576( 微信同號(hào)) |
每期人數(shù)限3到5人。 |
上課時(shí)間和地點(diǎn) |
開課地址:【上?!客瑵?jì)大學(xué)(滬西)/新城金郡商務(wù)樓(11號(hào)線白銀路站)【深圳分部】:電影大廈(地鐵一號(hào)線大劇院站) 【武漢分部】:佳源大廈【成都分部】:領(lǐng)館區(qū)1號(hào)【沈陽分部】:沈陽理工大學(xué)【鄭州分部】:錦華大廈【石家莊分部】:瑞景大廈【北京分部】:北京中山學(xué)院 【南京分部】:金港大廈
最新開班 (連續(xù)班 、周末班、晚班):2020年3月16日 |
實(shí)驗(yàn)設(shè)備 |
☆資深工程師授課
☆注重質(zhì)量
☆邊講邊練
☆合格學(xué)員免費(fèi)推薦工作
★實(shí)驗(yàn)設(shè)備請(qǐng)點(diǎn)擊這兒查看★ |
質(zhì)量保障 |
1、培訓(xùn)過程中,如有部分內(nèi)容理解不透或消化不好,可免費(fèi)在以后培訓(xùn)班中重聽;
2、培訓(xùn)結(jié)束后,授課老師留給學(xué)員聯(lián)系方式,保障培訓(xùn)效果,免費(fèi)提供課后技術(shù)支持。
3、培訓(xùn)合格學(xué)員可享受免費(fèi)推薦就業(yè)機(jī)會(huì)。 |
課程大綱 |
|
第1章課程簡(jiǎn)介
1-1課程簡(jiǎn)介
1-2環(huán)境配置
第2章NLP常用工具包實(shí)戰(zhàn)
2-1Python字符串處理
2-2正則表達(dá)式基本語法
2-3正則常用符號(hào)
2-4常用函數(shù)介紹
2-5NLTK工具包簡(jiǎn)介
2-6停用詞過濾
2-7詞性標(biāo)注
2-8數(shù)據(jù)清洗實(shí)例
2-9Spacy工具包
2-10名字實(shí)體匹配
2-11恐怖襲擊分析
2-12統(tǒng)計(jì)分析結(jié)果
2-13結(jié)巴分詞器
2-14詞云展示
第3章Pandas工具包實(shí)戰(zhàn)
3-1Pandas概述
3-2Pandas基本操作
3-3Pandas索引
3-4groupby操作
3-5數(shù)值運(yùn)算
3-6對(duì)象操作
3-7對(duì)象操作
3-8merge操作
3-9顯示設(shè)置
3-10數(shù)據(jù)透視表
3-11時(shí)間操作
3-12時(shí)間序列操作
3-13Pandas常用操作
3-14Pandas常用操作
3-15Groupby操作延伸
3-16字符串操作
3-17索引進(jìn)階
3-18Pandas繪圖操作
3-19大數(shù)據(jù)處理技巧
第4章案例實(shí)戰(zhàn):商品信息可視化與文本分析
4-1任務(wù)概述
4-2商品類別劃分
4-3商品類別可視化展示
4-4描述長(zhǎng)度對(duì)價(jià)格的影響
4-5詞云展示
4-6tf-idf結(jié)果
4-7降維可視化展示
4-8聚類與主題模型
第5章貝葉斯算法
5-1貝葉斯算法概述
5-2貝葉斯推導(dǎo)實(shí)例
5-3貝葉斯拼寫糾錯(cuò)實(shí)例
5-4垃圾郵件過濾實(shí)例
5-5貝葉斯實(shí)現(xiàn)拼寫檢查器
第6章新聞分類任務(wù)實(shí)戰(zhàn)
6-1文本分析與關(guān)鍵詞提取
6-2相似度計(jì)算
6-3新聞數(shù)據(jù)與任務(wù)簡(jiǎn)介
6-4TF-IDF關(guān)鍵詞提取
6-5LDA建模
6-6基于貝葉斯算法進(jìn)行新聞分類
第7章HMM隱馬爾科夫模型
7-1馬爾科夫模型
7-2隱馬爾科夫模型基本出發(fā)點(diǎn)
7-3組成與要解決的問題
7-4暴力求解方法
7-5復(fù)雜度計(jì)算
7-6前向算法
7-7前向算法求解實(shí)例
7-8Baum-Welch算法
7-9參數(shù)求解
7-10維特比算法
第8章HMM工具包實(shí)戰(zhàn)
8-1hmmlearn工具包
8-2工具包使用方法
8-3中文分詞任務(wù)
8-4實(shí)現(xiàn)中文分詞
第9章走進(jìn)深度學(xué)習(xí)-神經(jīng)網(wǎng)絡(luò)算法
9-1深度學(xué)習(xí)概述
9-2挑戰(zhàn)與常規(guī)套路
9-3用K近鄰來進(jìn)行分類
9-4超參數(shù)與交叉驗(yàn)證
9-5線性分類
9-6損失函數(shù)
9-7正則化懲罰項(xiàng)
9-8softmax分類器
第10章神經(jīng)網(wǎng)絡(luò)整體架構(gòu)
10-1最優(yōu)化形象解讀
10-2最優(yōu)化問題細(xì)節(jié)
10-3反向傳播
10-4整體架構(gòu)
10-5實(shí)例演示
10-6過擬合解決方案
第11章語言模型
11-1語言模型
11-2N-gram模型
11-3詞向量
11-4神經(jīng)網(wǎng)絡(luò)模型
11-5Hierarchical Softmax
11-6CBOW模型實(shí)例
11-7CBOW求解目標(biāo)
11-8銻度上升求解
11-9負(fù)采樣模型
第12章使用Gemsim構(gòu)建詞向量
12-1使用Gensim庫構(gòu)造詞向量
12-2維基百科中文數(shù)據(jù)處理
12-3Gensim構(gòu)造word2vec模型
12-4測(cè)試模型相似度結(jié)果
第13章基于word2vec的分類任務(wù)
13-1影評(píng)情感分類
13-2基于詞袋模型訓(xùn)練分類器
13-3準(zhǔn)備word2vec輸入數(shù)據(jù)
13-4使用gensim構(gòu)建word2vec詞向量
第14章NLP-文本特征方法對(duì)比
14-1任務(wù)概述
14-2詞袋模型
14-3詞袋模型分析
14-4TFIDF模型
14-5word2vec詞向量模型
14-6深度學(xué)習(xí)模型
第15章遞歸網(wǎng)絡(luò)模型
15-1遞歸神經(jīng)網(wǎng)絡(luò)(RNN)概述
15-2RNN網(wǎng)絡(luò)細(xì)節(jié)
15-3LSTM網(wǎng)絡(luò)架構(gòu)
第16章卷積網(wǎng)絡(luò)模型
16-1卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
16-2卷積層解釋
16-3卷積計(jì)算過程1
16-4pading與strid
16-5卷積參數(shù)共享
16-6池化層原理
第17章Tensorflow基本操作
17-1Tensorflow簡(jiǎn)介與安裝
17-2Tensorflow中的變量
17-3變量常用操作
17-4實(shí)現(xiàn)線性回歸算法
17-5Mnist數(shù)據(jù)集簡(jiǎn)介
17-6邏輯回歸算法
第18章Tensorflow卷積神經(jīng)網(wǎng)絡(luò)
18-1神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
18-2卷積網(wǎng)絡(luò)結(jié)構(gòu)基本定義
18-3卷積神經(jīng)網(wǎng)絡(luò)迭代
18-4Cifar-10圖像分類任務(wù)
第19章RNN遞歸神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)
19-1RNN網(wǎng)絡(luò)基本架構(gòu)
19-2實(shí)現(xiàn)RNN網(wǎng)絡(luò)架構(gòu)
19-3RNN實(shí)現(xiàn)自己的小demo
19-4RNN預(yù)測(cè)時(shí)間序列
第20章項(xiàng)目實(shí)戰(zhàn):CNN應(yīng)用于文本分類任務(wù)
20-1CNN應(yīng)用于文本分類任務(wù)
20-2文本分類任務(wù)特征定義
20-3卷積網(wǎng)絡(luò)定義
20-4完成預(yù)測(cè)分類任務(wù)
第21章項(xiàng)目實(shí)戰(zhàn):LSTM情感分析
21-1RNN網(wǎng)絡(luò)架構(gòu)
21-2LSTM網(wǎng)絡(luò)架構(gòu)
21-3案例:使用LSTM進(jìn)行情感分類
21-4情感數(shù)據(jù)集處理
21-5基于word2vec的LSTM模型
第22章項(xiàng)目實(shí)戰(zhàn):NLP-相似度模型
22-1任務(wù)概述
22-2數(shù)據(jù)展示
22-3正負(fù)樣本制作
22-4數(shù)據(jù)預(yù)處理
22-5網(wǎng)絡(luò)模型定義
22-6基于字符的訓(xùn)練
22-7基于句子的相似度訓(xùn)練
第23章Seq2Seq網(wǎng)絡(luò)架構(gòu)
23-1Seq2Seq網(wǎng)絡(luò)基本架構(gòu)
23-2Seq2Seq網(wǎng)絡(luò)應(yīng)用
23-3Seq2Seq基本模型
23-4Attention機(jī)制
第24章項(xiàng)目實(shí)戰(zhàn):對(duì)話機(jī)器人
24-1效果演示
24-2參數(shù)配置與數(shù)據(jù)加載
24-3數(shù)據(jù)處理
24-4詞向量與投影
24-5seq網(wǎng)絡(luò)
24-6網(wǎng)絡(luò)訓(xùn)練
第25章項(xiàng)目實(shí)戰(zhàn):動(dòng)手打造自己的輸入法
25-1數(shù)據(jù)準(zhǔn)備
25-2網(wǎng)絡(luò)結(jié)構(gòu)概述
25-3加載數(shù)據(jù)
25-4訓(xùn)練測(cè)試模型
第26章項(xiàng)目實(shí)戰(zhàn):機(jī)器人
26-1任務(wù)概述與環(huán)境配置
26-2參數(shù)配置
26-3數(shù)據(jù)預(yù)處理模塊
26-4batch數(shù)據(jù)制作
26-5RNN模型定義
26-6完成訓(xùn)練模塊
26-7訓(xùn)練唐詩生成模型
26-8測(cè)試唐詩生成效果
第27章項(xiàng)目實(shí)戰(zhàn):NMT機(jī)器翻譯框
27-1機(jī)器翻譯框架概述
27-2參數(shù)設(shè)置
27-3數(shù)據(jù)加載
27-4網(wǎng)絡(luò)結(jié)構(gòu)定義
27-5訓(xùn)練模型
第28章項(xiàng)目實(shí)戰(zhàn):LSTM時(shí)間序列預(yù)測(cè)任務(wù)
28-1時(shí)間序列模型
28-2網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)定義
28-3構(gòu)建LSTM模型
28-4訓(xùn)練模型與效果展示
28-5多序列預(yù)測(cè)結(jié)果
28-6股票數(shù)據(jù)預(yù)測(cè)
28-7數(shù)據(jù)預(yù)處理
28-8預(yù)測(cè)結(jié)果展示
第29章項(xiàng)目實(shí)戰(zhàn):Keras文本分類實(shí)戰(zhàn)
29-1文本數(shù)據(jù)讀取預(yù)處理
29-2基本模型
29-3Embeeding-layer效果
29-4準(zhǔn)備詞向量數(shù)據(jù)
29-5詞嵌入訓(xùn)練結(jié)果
29-6加入LSTM層效果
29-7加入卷積層效果
29-8參數(shù)調(diào)優(yōu)
第30章項(xiàng)目實(shí)戰(zhàn):地址郵編多序列任務(wù)
30-1數(shù)據(jù)與目標(biāo)
30-2字符表制作
30-3數(shù)據(jù)讀取
30-4數(shù)據(jù)增強(qiáng)
30-5網(wǎng)絡(luò)模型
30-6測(cè)試效果
第31章項(xiàng)目實(shí)戰(zhàn):基于Keras的序列網(wǎng)絡(luò)實(shí)戰(zhàn)
31-1網(wǎng)絡(luò)模型解讀
31-2數(shù)據(jù)介紹與讀取
31-3配置文件制作
31-4編碼器模型
31-5解碼器模型
31-6制作訓(xùn)練batch數(shù)據(jù)
31-7測(cè)試數(shù)據(jù)準(zhǔn)備
31-8完成測(cè)試模塊
第32章項(xiàng)目實(shí)戰(zhàn):Keras實(shí)戰(zhàn)模板總結(jié)
32-1模板目錄結(jié)構(gòu)
32-2模型與訓(xùn)練結(jié)構(gòu)
32-3評(píng)論數(shù)據(jù)集與任務(wù)目標(biāo)
32-4數(shù)據(jù)準(zhǔn)備
32-5模型整體架構(gòu)
32-6準(zhǔn)備模型
32-7訓(xùn)練網(wǎng)絡(luò)
32-8多標(biāo)簽訓(xùn)練
|