《機(jī)器學(xué)習(xí)》課程教學(xué)大綱

上傳人:無*** 文檔編號:24457919 上傳時間:2021-06-30 格式:DOCX 頁數(shù):2 大?。?8.36KB
收藏 版權(quán)申訴 舉報 下載
《機(jī)器學(xué)習(xí)》課程教學(xué)大綱_第1頁
第1頁 / 共2頁
《機(jī)器學(xué)習(xí)》課程教學(xué)大綱_第2頁
第2頁 / 共2頁

最后一頁預(yù)覽完了!喜歡就下載吧,查找使用更方便

10 積分

下載資源

資源描述:

《《機(jī)器學(xué)習(xí)》課程教學(xué)大綱》由會員分享,可在線閱讀,更多相關(guān)《《機(jī)器學(xué)習(xí)》課程教學(xué)大綱(2頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、機(jī)器學(xué)習(xí) 課程教學(xué)大綱課程中文名稱:機(jī)器學(xué)習(xí)課程英文名稱:Machine Learning適用專業(yè):計算機(jī)應(yīng)用技術(shù),管理科學(xué)與工程總學(xué)時: 36(講課:28 ,實驗: 8)學(xué)分: 2大綱撰寫人:大綱審核人:編寫日期:一、 課程性質(zhì)及教學(xué)目的:本課程是面向計算機(jī)與信息工程學(xué)院研究生開設(shè)的專業(yè)基礎(chǔ)課。其教學(xué)重點(diǎn)是使學(xué)生掌握常見機(jī)器學(xué)習(xí)算法,包括算法的主要思想和基本步驟,并通過編程練習(xí)和典型應(yīng)用實例加深了解;同時對機(jī)器學(xué)習(xí)的一般理論,如假設(shè)空間、采樣理論、計算學(xué)習(xí)理論,以及無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)有所了解。二、對選課學(xué)生的要求:要求選課學(xué)生事先受過基本編程訓(xùn)練,熟悉C/C+ 或 Matlab 編程語言,

2、具有多元微積分、高等代數(shù)和概率統(tǒng)計方面基本知識。三、課程教學(xué)內(nèi)容和要求 ( 200 字左右的概述, 然后給出各 “章”“節(jié)” 目錄及內(nèi)容簡介)1. 決策論與信息論基礎(chǔ):a) 損失函數(shù)、錯分率的最小化、期望損失的最小化等b) 相對熵、互信息2. 概率分布:a) 高斯分布、混合高斯分布、 Dirichlet 分布、 beta 分布等b) 指數(shù)分布族:最大似然估計、充分統(tǒng)計量、共軛先驗、無信息先驗等c) 非參數(shù)方法:核密度估計、近鄰法3. 回歸的線性模型:a) 線性基函數(shù)模型b) 貝葉斯線性回歸c) 貝葉斯模型比較4. 分類的線性模型:a)判別函數(shù):二分類和多分類的Fisher 線性判別b) 概率生

3、成模型:連續(xù)輸入、離散特征5. 核方法:a) 對偶表示b) 構(gòu)造核函數(shù)c) 徑向基函數(shù)網(wǎng)絡(luò): Nadaraya-Watson 模型d)高斯過程:高斯過程模型用于回歸和分類、Laplace 逼近、與神經(jīng)網(wǎng)絡(luò)的聯(lián)系6. 支持向量機(jī):a) 最大邊緣分類器:歷史回顧b) 用于多分類和回歸的支持向量機(jī):幾何背景、各種變種c) 統(tǒng)計學(xué)習(xí)理論簡介: Vapnik 等人的工作7. 圖模型:a) 貝葉斯網(wǎng)絡(luò)b) Markov 隨機(jī)場:條件獨(dú)立、因子分解c) 圖模型中的推斷8. 混合模型和期望最大化( Expectation Maximization , EM)算法( 3 學(xué)時):a)高斯混合模型的參數(shù)估計:最大

4、似然估計、EM 算法b) EM 一般算法及其應(yīng)用:貝葉斯線性回歸9.隱 Markov 模型和條件隨機(jī)場模型(3 學(xué)時):a) 隱 Markov 模型:向前 -向后算法、 Viterbi 算法、 Baum-Welch 算法等b) 條件隨機(jī)場及其應(yīng)用四、 課程教學(xué)環(huán)節(jié)的學(xué)時安排和基本要求1. 決策論與信息論基礎(chǔ)( 2 學(xué)時):了解并掌握統(tǒng)計決策理論和信息論的基礎(chǔ)知識。2. 概率分布( 3 學(xué)時):熟悉常見的分布,熟練掌握最大似然估計方法,學(xué)會利用無信息先驗和共軛先驗簡化計算,了解一些常用的非參數(shù)方法。3.回歸的線性模型(3 學(xué)時):掌握線性回歸的一般方法,學(xué)會使用R 中有關(guān)回歸的程序包,并能將之用

5、于解決實際問題。4. 分類的線性模型( 3 學(xué)時):對分類問題有一個全面的了解,掌握一些常用的分類方法。5. 核方法( 3 學(xué)時):了解核方法的最新進(jìn)展,熟練掌握核函數(shù)參數(shù)估計的常用方法。6.支持向量機(jī) ( 4 學(xué)時):掌握支持向量機(jī)的基本原理,面對各自研究領(lǐng)域中的具體問題學(xué)會使用支持向量機(jī),粗略了解統(tǒng)計學(xué)習(xí)理論。7. 圖模型( 4 學(xué)時):從建模到算法實現(xiàn)。8. 混合模型和期望最大化( Expectation Maximization , EM )算法( 3 學(xué)時):掌握 EM 算法的基本理論,學(xué)會使用 EM 算法。9. 隱 Markov 模型和條件隨機(jī)場模型( 3 學(xué)時):掌握隱 Markov 模型的幾個經(jīng)典算法,學(xué)會利用隱 Markov 模型和條件隨機(jī)場模型解決具體問題,如自然語言處理中的詞性標(biāo)注等。五、教材及參考文獻(xiàn):1. Bishop, C. M. (2006) Pattern Recognition and Machine Learning, Spring Science + Business Media, LLC2. Mitchell, T. M. (1997) Machine Learning, The McGraw-Hill Companies, Inc.六、必要的說明

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!