摘要:當掌握機器學習基本知識以及清楚自己所要處理的任務后,應用機器學習就不會那么難了。因此,在學習和應用機器學習之前,我們首先應該明確自己的任務是什么,以及適合使用哪種機器學習方法來完成。
摘要: 本文簡單總結了機器學習的幾大任務及其對應的方法,方便初學者根據(jù)自己的任務選擇合適的方法。當掌握機器學習基本知識以及清楚自己所要處理的任務后,應用機器學習就不會那么難了。
機器學習一直是一個火熱的研究領域,深度學習方法的提出又為這個領域添了一把火,使得很多人對該領域感興趣并想投身于該領域的研究之中。那么,對于想從事機器學習領域的人來說,有哪些是應該首先了解的內(nèi)容呢?本文將簡單的介紹下機器學習的基本相關知識。
機器學習是指使計算機系統(tǒng)使用統(tǒng)計技術學習數(shù)據(jù)的過程,而不需要具體的編程程序。該方法是一個主動學習的算法,使得它能夠從數(shù)據(jù)中學習并進行預測。機器學習與計算統(tǒng)計、數(shù)學優(yōu)化以及數(shù)據(jù)學習密切相關,通常被用來進行預測、分析等任務。機器學習一般用于處理兩類任務:
有監(jiān)督學習:輸入給計算機的示例帶有標簽(期望輸出),基于標簽調整建立的模型,以學習輸入到輸出的映射規(guī)則。
無監(jiān)督學習:輸入給計算機的示例沒有標簽,建立的模型必須通過自身學習產(chǎn)生輸出。無監(jiān)督學習涉及到從數(shù)據(jù)中發(fā)現(xiàn)隱藏的模式,包含特征學習。
機器學習這個術語對于大多非該領域的人來說聽起來很高級,但其實不然。只要你清楚機器學習的基本概念以及相關方法后,機器學習其實很簡單,即根據(jù)相關任務,選擇合適的機器學習方法,讓機器學習并處理特征以完成相應的任務。因此,在學習和應用機器學習之前,我們首先應該明確自己的任務是什么,以及適合使用哪種機器學習方法來完成。
如果我們想了解算法背后的基本理論以及其工作原理,那么精通概率與統(tǒng)計、線性代數(shù)和微積分對我們而言顯得至關重要。此外,了解諸如Python等編程語言將使你能夠容易得實現(xiàn)相關算法,理論基礎與編程能力二者在手,機器學習我有。此外,理解相關的數(shù)學知識和應用也是很有必要的,無論是通過線下自學或者是網(wǎng)絡在線培訓等學習方法,都必須實踐,實踐可以增加自己對基本知識的理解,同時也能鍛煉其編程能力。
在學習機器學習之前,掌握以下知識是很有必要的:
線性代數(shù)
微積分
概率論
程序設計
最優(yōu)化理論
下面是一些最常見的機器學習任務以及相關方法,對其理解后方便在后續(xù)工程中應用。
回歸回歸主要涉及連續(xù)變量或數(shù)值變量的估計,比如估計房價、股票價格、產(chǎn)品價格等使用回歸估計。即根據(jù)相關的數(shù)據(jù)建立回歸曲線,對新的數(shù)據(jù)進行預測估計。以下機器學習方法用于解決回歸問題:
核回歸(Kernel regression)
支持向量回歸(Support vector regression)
高斯過程回歸(Gaussian process regression)
線性回歸(Linear regression)
LASSO回歸(Least absolute shrinkage and selection operator)
回歸樹(Regression tree)
分類分類與離散變量或數(shù)據(jù)類別的預測有關。比如區(qū)分垃圾郵件、病人患有哪種疾病、交易是否屬于欺詐行為等任務,都是使用分類方法處理的。以下方法可以用于解決分類問題:
核判別分析(Kernel discriminant analysis)
人工神經(jīng)網(wǎng)絡(Artificial neural networks)
K鄰近算法(K-nearests neighbors)
Boosted trees
隨機森林(Random forests)
邏輯回歸(Logistic regression)
支持向量機(Support vector machine)
深度學習(Deep learning)
樸素貝葉斯(Naive Bayes)
決策樹(Decision trees)
聚類聚類一般應用于數(shù)據(jù)自然分組。比如產(chǎn)品特征識別、客戶細分等任務都是聚類的一些應用場景。以下機器學習方法用于聚類問題:
均值漂移(Mean-shift)
K-均值(K-means)
主題模型(Topic models)
層次聚類(Hierarchical clustering)
多元查詢多元查詢是用來尋找相似目標。下面的方法可用于解決與多元查詢有關的問題:
近鄰取樣(Nearest neighbors)
最遠鄰居(Farthest neighbors)
范圍搜索(Range search)
降維降維是指降低多個隨機變量的維度,將其分為特征提取和特征選擇。常用的降維方法如下:
流線學習方法/核主成分分析(Manifold learning/KPCA)
獨立分量分析(Independent component analysis)
主成分分析(Principal component analysis)
非負矩陣分解(Non-negative matrix factorization)
壓縮感知(Compressed sensing)
高斯圖模型(Gaussian graphical models)
作者信息
Anusha Manchala,專注于機器學習、數(shù)據(jù)分析
本文由阿里云云棲社區(qū)組織翻譯。
文章原標題《What You Must Know Before You Dive Into Machine Learning》,譯者:海棠,審校:Uncle_LLD。
詳情請閱讀原文
文章版權歸作者所有,未經(jīng)允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://m.hztianpu.com/yun/19739.html
摘要:但是,努力和幸運,讓魯直的人生軌跡逐漸發(fā)生變化。在中間件團隊年的挑戰(zhàn)與成長學習使人進步如愿以償,魯直進入了螞蟻金服中間件團隊,但這并不意味著是一片坦途。魯直告訴筆者,開源的意義就是給技術的發(fā)展裝上輪子。 哪有那么多的逆襲,唯有努力與堅持,機會就會在前方。 魯直,1989年生,本科畢業(yè)于浙江工業(yè)大學,之后被校招進阿里巴巴。雖然,今年剛剛30歲,但他已是螞蟻金服SOFA中間件開源負責人。 ...
摘要:從數(shù)學博士到阿里云工程師,夏分一直學以致用。入職后的第個月,夏分接手了第一個項目,用工業(yè)大腦幫一家風電企業(yè)提前預測風電機組故障。一個萬千瓦的風電場,平均每年維護費用高達萬元,還會以平均的速率逐年遞增。 從數(shù)學博士到阿里云工程師,夏分一直學以致用。加入阿里云接手的第一個ET工業(yè)大腦項目,因為數(shù)據(jù)傳輸問題丟失大量數(shù)據(jù),導致機器誤判拉響警報,這讓他意識到自己不能只坐在電腦前做碼農(nóng),也要下到車...
摘要:此外,與訓練機器學習模型的作業(yè)相比,作業(yè)具有不同的執(zhí)行配置文件。此外,還制作了一個界面,以便控制機器學習的參數(shù)指定用于訓練的數(shù)據(jù)量等。 摘要: 一份機器學習過來人的經(jīng)驗清單分享,主要是包含一些關于構建機器學習工作流以及Apache Spark應該注意的一些事項,希望這個清單能夠幫助那些正在學習機器學習的相關人員少走一些彎路,節(jié)約一些時間。 showImg(https://segment...
閱讀 1346·2021-09-23 11:51
閱讀 1517·2021-09-04 16:45
閱讀 680·2019-08-30 15:54
閱讀 2124·2019-08-30 15:52
閱讀 1677·2019-08-30 11:17
閱讀 3155·2019-08-29 13:59
閱讀 2080·2019-08-28 18:09
閱讀 432·2019-08-26 12:15