分享幾家大廠數(shù)據(jù)挖掘崗的面試經(jīng)歷
現(xiàn)在距離秋招結(jié)束也好長(zhǎng)一段時(shí)間了,今天總結(jié)一下自己在秋招中的一些經(jīng)驗(yàn)和教訓(xùn),希望可以幫助到學(xué)弟學(xué)妹們。
先介紹一下我自己的情況,我本科211,碩士985。我投的都是數(shù)據(jù)挖掘崗,最后有幸拿到了快手的Offer。
順豐
崗位:數(shù)據(jù)挖掘
-
深挖簡(jiǎn)歷
-
ML主要是比較幾個(gè)模型,Kmeans & DBSCAN分別應(yīng)用在哪些場(chǎng)景比較好?LR & SVM的區(qū)別?分別應(yīng)用在那些場(chǎng)景?
-
DL簡(jiǎn)單介紹一下RNN,它和 LSTM,ARIMA 的區(qū)別?
-
是否了解大數(shù)據(jù)?說說你了解的hadoop和spark。
-
sql題,涉及窗口函數(shù)
-
有沒有做過參加過比賽?我說美賽,簡(jiǎn)要說明了一下。
-
我反問我應(yīng)該加強(qiáng)什么?
招聯(lián)金融
崗位:數(shù)據(jù)挖掘
一面
-
項(xiàng)目介紹
-
特征選擇方法
-
數(shù)據(jù)挖掘中對(duì)于缺失值的處理方案
-
說一下 Python(pandas)中常用的數(shù)據(jù)處理算子。
-
Spark 的原理,分布式是怎么搭建的。
-
Sql中 union 和 union all 的區(qū)別
-
數(shù)據(jù)行轉(zhuǎn)列怎么操作
-
xgboost和gbdt的區(qū)別
-
xgboost常調(diào)的參數(shù)有哪些
-
svm原理
-
說一下你在研會(huì)組織了什么活動(dòng)?
-
講一下你支教的經(jīng)歷。
-
反問
二面
-
自我介紹
-
項(xiàng)目競(jìng)賽深挖
-
說一下你風(fēng)控項(xiàng)目中用到的模型?
-
數(shù)據(jù)挖掘中缺失值和異常值是怎么處理的?
-
特征降維怎么做?
-
Sql用過哪些操作,舉個(gè)例子
-
Sql如何提高運(yùn)行效率?
-
過擬合的處理方法?
-
項(xiàng)目中遇到困難如何解決?
-
領(lǐng)導(dǎo)交給你一項(xiàng)不可能完成而且又很重要的問題,怎么辦?
-
反問
聯(lián)想
崗位:數(shù)據(jù)挖掘
時(shí)間過去有點(diǎn)久了,純憑回憶,可能有些遺漏
一面
-
機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)
-
Bagging & Boosting
-
常用的聚類算法
-
Kmeans和DBSCAN的原理和區(qū)別
-
邏輯回歸的原理
-
怎么處理離散數(shù)據(jù)
-
支持向量機(jī)原理
-
SVM怎么處理非線性
-
常用的回歸模型
-
Attention 原理
-
RNN和LSTM的區(qū)別
-
什么是梯度爆炸/梯度消失,什么情況下會(huì)出現(xiàn)
-
梯度漸進(jìn)的原理
-
手撕算法:判斷是否是回文、找出最長(zhǎng)回文子串
藍(lán)月亮
崗位:數(shù)據(jù)挖掘
專業(yè)面試
-
開頭問問過往的經(jīng)歷,講一下過往的一個(gè)項(xiàng)目,沒有深挖
-
線性回歸和邏輯回歸有什么區(qū)別
-
邏輯回歸的形式是什么,損失函數(shù)是什么
-
線性回歸的損失函數(shù)是什么
-
邏輯回歸的激活函數(shù)是什么,除了sigmoid還知道哪些
-
為什么有的時(shí)候需要將連續(xù)變量離散化
-
怎么將連續(xù)的變量離散化
-
決策樹的特征選擇原理有哪些
-
過擬合和欠擬合怎么理解,分別怎么解決
-
SVM 的原理
-
SVM如何解決線性不可分的問題
-
既然你提到了懲罰系數(shù),那么講講SVM使用的核函數(shù)有哪些
-
xgboost和GBDT的區(qū)別
-
提到了正則項(xiàng),那么L1和L2有什么區(qū)別
-
xgboost泰勒展開是一階還是二階
-
多線程和多進(jìn)程
-
用過哪些編程語言
-
反問:介紹了團(tuán)隊(duì)的主要崗位,一些日常工作,業(yè)務(wù)范圍
主管面試
這一輪不太問專業(yè)問題,主要從職業(yè)發(fā)展,個(gè)人成長(zhǎng),個(gè)人意向去問
比如:作為技術(shù)崗,怎么提高自己的業(yè)務(wù)能力,你會(huì)通過什么方式進(jìn)行技術(shù)的學(xué)習(xí)
比較感動(dòng)的是沒有考手撕代碼,除了SQL以外的手撕代碼我都非常頭大,感覺他們IT需求蠻多的,算法、NLP、CV都需要,可以試試~
快手
崗位:數(shù)據(jù)挖掘
一面
-
自我介紹
-
項(xiàng)目介紹
-
項(xiàng)目細(xì)節(jié)
-
隨機(jī)森林、決策樹、XGBoost的區(qū)別和聯(lián)系
-
離散特征怎么處理?(沒聽懂面試官想問啥 )
-
針對(duì)項(xiàng)目提問,連續(xù)特征怎么處理?
-
算法:最大子序和 動(dòng)態(tài)規(guī)劃+貪心算法 做題有點(diǎn)慢
面試官建議:雖然有些東西工作不會(huì)用到,但是面試還是會(huì)問,題還是應(yīng)該多刷一刷 不說了,刷題背八股去了。
二面
-
自我介紹
-
項(xiàng)目介紹(What、Why、How、難點(diǎn)、思考)
-
項(xiàng)目怎么分工的
-
一兩句話簡(jiǎn)述LR、隨機(jī)森林、XGBoost優(yōu)缺點(diǎn)
-
精準(zhǔn)率、召回率、F1-score、AUC指標(biāo)的含義和使用場(chǎng)景
-
二維矩陣查找【二分法】
不記得還有什么了。。。
三面
-
自我介紹
-
項(xiàng)目介紹
-
線性回歸,模型的假設(shè),損失函數(shù),求解
-
BP神經(jīng)網(wǎng)絡(luò)。反向傳播傳的是什么?
-
各種分桶方法的優(yōu)缺點(diǎn)
-
特征組合,歸一化
-
深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)相比最大的不同?
作者:城哥
來源:Python學(xué)習(xí)與數(shù)據(jù)挖掘Crossin的新書《碼上行動(dòng):用ChatGPT學(xué)會(huì)Python編程》已經(jīng)上市了。 本書以ChatGPT為輔助,系統(tǒng)全面地講解了如何掌握Python編程,適合Python零基礎(chǔ)入門的讀者學(xué)習(xí)。 【點(diǎn)此查看詳細(xì)介紹】 購(gòu)買后可加入讀者交流群,Crossin為你開啟陪讀模式,解答你在閱讀本書時(shí)的一切疑問。 Crossin的其他書籍:
添加微信 crossin123 ,加入編程教室共同學(xué)習(xí) ~

