1、基本的機(jī)器學(xué)習(xí)算法知道什么 (kmeans knn svm 決策樹 ) kmeans?(介紹原理) 怎么選取最初的k值(我說選彼此距離盡可能大的) 怎么保證是距離比較遠(yuǎn)的幾個k值?? (我不知道)比如1000個數(shù)的話 怎么找怎么用kmeans算法找k值? 復(fù)雜度 2、L1 L2 分別解釋 3、決策樹有哪些 (id3 c4.5 cart)決策樹中的熵 (隨機(jī)變量不確定性的度量? 熵越大 隨機(jī)變量的不確定性越大)決策樹CART怎么分樹枝(我不知道 就說了個基尼系數(shù))? 基尼系數(shù)是描述什么的(用于選擇最優(yōu)特征 同時決定該特征的最優(yōu)二值切分點) 4、集成學(xué)習(xí) (介紹了各種包括啥)bagging 和 boosting 在哪種情況下用哪個(我說boosting可用于連續(xù)和離散的 別的就不知道了) 5、二分查找出了個題 讓我寫代碼 我說沒聽懂? 他說就寫下二分查找的代碼吧 查找出下標(biāo)為2的數(shù)組 6、代碼中用到了排序 他問我知道排序算法嗎? 我說知道 比如冒泡快排?? 問我冒泡的復(fù)雜度 我說了平均最好最壞復(fù)雜度 他說冒泡什么情況下是最好/壞的復(fù)雜度? 然后讓我寫了冒泡的代碼 7、寫完后問了我快排的平均最好最壞復(fù)雜度
面試官問的面試題: 1、介紹之前的項目,中間會提一些問題
2、寫混淆矩陣,寫召回率和精確率的公式
3、介紹邏輯回歸,寫sigmoid函數(shù),寫LR的損失函數(shù)。
4、介紹梯度下降的原理,怎么避免局部最優(yōu)。
5、介紹SVM,怎么尋找超平面,怎么分線性不可分?jǐn)?shù)據(jù)。