機器學習:開啟智能創(chuàng)新之門
(六)機器學習過程舉例說明
所謂機器學習過程,是指觀察有n個樣本數(shù)據(jù)組成的集合,并根據(jù)這些數(shù)據(jù)來預測未知數(shù)據(jù)的性質(zhì),那么在給定數(shù)據(jù)集(所謂大數(shù)據(jù))和具體問題的前提下,一般解決問題的步驟可以概括如下:
1.數(shù)據(jù)抽象
將數(shù)據(jù)集和具體問題抽象成數(shù)學語言,以恰當?shù)臄?shù)學符號表示。這樣做自然是為了方便表述和求解問題,而且也更加直觀。
2.設定性能度量指標
機器學習是產(chǎn)生模型的算法,一般來說模型都有誤差。如果模型學的太好,把訓練樣本自身的一些特點當成所有潛在樣本具有的一般性質(zhì),這種情況稱為過擬合,這樣的模型在面對新樣本時就會出現(xiàn)較大誤差,專業(yè)表述就是導致模型的泛化性能下降。與之相對的是欠擬合,模型對樣本的一般性質(zhì)都沒學好,這種情況一般比較好解決,擴充數(shù)據(jù)集或者調(diào)整模型皆可。
3.數(shù)據(jù)預處理
之所以要做數(shù)據(jù)預處理,是因為提供的數(shù)據(jù)集往往很少是可以直接拿來用的。例如:如果樣本的屬性太多,一般有兩種方法: 降維和特征選擇。特征選擇比較好理解,就是選擇有用相關的屬性,或者用另外一種表達方式:選擇樣本中有用、跟問題相關的特征。
4.選定模型
在數(shù)據(jù)集完美的情況下,接下來就是根據(jù)具體問題選定恰當?shù)哪P土。一種方式是根據(jù)有沒有標記樣本考慮。如果是有標記樣本,可以考慮有監(jiān)督學習,反之則是無監(jiān)督學習,兼而有之就看半監(jiān)督學習是否派的上用場。
5.訓練及優(yōu)化
選定了模型,如何訓練和優(yōu)化也是一個重要問題。如果要評估訓練集和驗證集的劃分效果,常用的有留出法、交叉驗證法、自助法、模型調(diào)參等如果模型計算時間太長,可以考慮剪枝如果是過擬合,則可通過引入正則化項來抑制(補償原理)如果單個模型效果不佳,可以集成多個學習器通過一定策略結(jié)合,取長補短(集成學習)
6.機器學習舉例分析
在機器學習領域特征比模型(學習算法)更重要。舉個例子,如果我們的特征選得很好,可能我們用簡單的規(guī)則就能判斷出最終的結(jié)果,甚至不需要模型。比如,要判斷一個人是男還是女,假設由計算機來完成這個任務,首先采集到各種數(shù)據(jù)(特征:姓名、身高、頭發(fā)長度,籍貫、是否吸煙等等。因為根據(jù)統(tǒng)計我們知道男人一般比女人高,頭發(fā)比女人短,并且會吸煙;所以這些特征都有一定的區(qū)分度,但是總有反例存在。我們用最好的算法可能準確率也達不到100%。然后再進行特征提取,提出對目標有意義的特征,刪除無關的(籍貫),然后進行預處理,對特征提取結(jié)果的再加工,目的是增強特征的表示能力,防止模型(分類器)過于復雜和學習困難。接下來就是訓練數(shù)據(jù),這里我們通過監(jiān)督學習或無監(jiān)督的方法來擬合分類器模型。學習器通過分析數(shù)據(jù)的規(guī)律嘗試擬合出這些數(shù)據(jù)和學習目標間的函數(shù),使得定義在訓練集上的總體誤差盡可能的小,從而利用學得的函數(shù)來預測未知數(shù)據(jù)的學習方法預測出結(jié)果,最后對結(jié)果進行評價和改進。
圖23 機器學習過程舉例說明

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題