面了幾家大廠數(shù)據(jù)挖掘崗,題是一家比一家難。。。
↓推薦關(guān)注↓
現(xiàn)在距離秋招結(jié)束也好長一段時(shí)間了,今天總結(jié)一下自己在秋招中的一些經(jīng)驗(yàn)和教訓(xùn),希望可以幫助到學(xué)弟學(xué)妹們。
先介紹一下我自己的情況,我本科211,碩士985。我投的都是數(shù)據(jù)挖掘崗,最后有幸拿到了快手的Offer。
順豐
崗位:數(shù)據(jù)挖掘
-
深挖簡歷
-
ML主要是比較幾個(gè)模型,Kmeans & DBSCAN分別應(yīng)用在哪些場景比較好?LR & SVM的區(qū)別?分別應(yīng)用在那些場景?
-
DL簡單介紹一下RNN,它和 LSTM,ARIMA 的區(qū)別?
-
是否了解大數(shù)據(jù)?說說你了解的hadoop和spark。
-
sql題,涉及窗口函數(shù)
-
有沒有做過參加過比賽?我說美賽,簡要說明了一下。
-
我反問我應(yīng)該加強(qiáng)什么?
招聯(lián)金融
崗位:數(shù)據(jù)挖掘
一面
-
項(xiàng)目介紹
-
特征選擇方法
-
數(shù)據(jù)挖掘中對于缺失值的處理方案
-
說一下 Python(pandas)中常用的數(shù)據(jù)處理算子。
-
Spark 的原理,分布式是怎么搭建的。
-
Sql中 union 和 union all 的區(qū)別
-
數(shù)據(jù)行轉(zhuǎn)列怎么操作
-
xgboost和gbdt的區(qū)別
-
xgboost常調(diào)的參數(shù)有哪些
-
svm原理
-
說一下你在研會(huì)組織了什么活動(dòng)?
-
講一下你支教的經(jīng)歷。
-
反問
二面
-
自我介紹
-
項(xiàng)目競賽深挖
-
說一下你風(fēng)控項(xiàng)目中用到的模型?
-
數(shù)據(jù)挖掘中缺失值和異常值是怎么處理的?
-
特征降維怎么做?
-
Sql用過哪些操作,舉個(gè)例子
-
Sql如何提高運(yùn)行效率?
-
過擬合的處理方法?
-
項(xiàng)目中遇到困難如何解決?
-
領(lǐng)導(dǎo)交給你一項(xiàng)不可能完成而且又很重要的問題,怎么辦?
-
反問
聯(lián)想
崗位:數(shù)據(jù)挖掘
時(shí)間過去有點(diǎn)久了,純憑回憶,可能有些遺漏
一面
-
機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)
-
Bagging & Boosting
-
常用的聚類算法
-
Kmeans和DBSCAN的原理和區(qū)別
-
邏輯回歸的原理
-
怎么處理離散數(shù)據(jù)
-
支持向量機(jī)原理
-
SVM怎么處理非線性
-
常用的回歸模型
-
Attention 原理
-
RNN和LSTM的區(qū)別
-
什么是梯度爆炸/梯度消失,什么情況下會(huì)出現(xiàn)
-
梯度漸進(jìn)的原理
-
手撕算法:判斷是否是回文、找出最長回文子串
藍(lán)月亮
崗位:數(shù)據(jù)挖掘
專業(yè)面試
-
開頭問問過往的經(jīng)歷,講一下過往的一個(gè)項(xiàng)目,沒有深挖
-
線性回歸和邏輯回歸有什么區(qū)別
-
邏輯回歸的形式是什么,損失函數(shù)是什么
-
線性回歸的損失函數(shù)是什么
-
邏輯回歸的激活函數(shù)是什么,除了sigmoid還知道哪些
-
為什么有的時(shí)候需要將連續(xù)變量離散化
-
怎么將連續(xù)的變量離散化
-
決策樹的特征選擇原理有哪些
-
過擬合和欠擬合怎么理解,分別怎么解決
-
SVM 的原理
-
SVM如何解決線性不可分的問題
-
既然你提到了懲罰系數(shù),那么講講SVM使用的核函數(shù)有哪些
-
xgboost和GBDT的區(qū)別
-
提到了正則項(xiàng),那么L1和L2有什么區(qū)別
-
xgboost泰勒展開是一階還是二階
-
多線程和多進(jìn)程
-
用過哪些編程語言
-
反問:介紹了團(tuán)隊(duì)的主要崗位,一些日常工作,業(yè)務(wù)范圍
主管面試
這一輪不太問專業(yè)問題,主要從職業(yè)發(fā)展,個(gè)人成長,個(gè)人意向去問
比如:作為技術(shù)崗,怎么提高自己的業(yè)務(wù)能力,你會(huì)通過什么方式進(jìn)行技術(shù)的學(xué)習(xí)
比較感動(dòng)的是沒有考手撕代碼,除了SQL以外的手撕代碼我都非常頭大,感覺他們IT需求蠻多的,算法、NLP、CV都需要,可以試試~
快手
崗位:數(shù)據(jù)挖掘
一面
-
自我介紹
-
項(xiàng)目介紹
-
項(xiàng)目細(xì)節(jié)
-
隨機(jī)森林、決策樹、XGBoost的區(qū)別和聯(lián)系
-
離散特征怎么處理?(沒聽懂面試官想問啥 )
-
針對項(xiàng)目提問,連續(xù)特征怎么處理?
-
算法:最大子序和 動(dòng)態(tài)規(guī)劃+貪心算法 做題有點(diǎn)慢
面試官建議:雖然有些東西工作不會(huì)用到,但是面試還是會(huì)問,題還是應(yīng)該多刷一刷 不說了,刷題背八股去了。
二面
-
自我介紹
-
項(xiàng)目介紹(What、Why、How、難點(diǎn)、思考)
-
項(xiàng)目怎么分工的
-
一兩句話簡述LR、隨機(jī)森林、XGBoost優(yōu)缺點(diǎn)
-
精準(zhǔn)率、召回率、F1-score、AUC指標(biāo)的含義和使用場景
-
二維矩陣查找【二分法】
不記得還有什么了。。。
三面
-
自我介紹
-
項(xiàng)目介紹
-
線性回歸,模型的假設(shè),損失函數(shù),求解
-
BP神經(jīng)網(wǎng)絡(luò)。反向傳播傳的是什么?
-
各種分桶方法的優(yōu)缺點(diǎn)
-
特征組合,歸一化
-
深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)相比最大的不同?
- EOF -
作者簡介
城哥,公眾號9年博主,一線互聯(lián)網(wǎng)工作10年、公司校招和社招技術(shù)面試官,主導(dǎo)多個(gè)公司級實(shí)戰(zhàn)項(xiàng)目(Python、數(shù)據(jù)分析挖掘、算法、AI平臺(tái)、大模型等)。
關(guān)注我,陪你一起成長,遇見更好的自己。
星球服務(wù)
會(huì)不定期發(fā)放知識(shí)星球優(yōu)惠券,加入星球前可以添加城哥微信:dkl88191,咨詢優(yōu)惠券問題。
加入知識(shí)星球后,可以享受7大福利與服務(wù):免費(fèi)獲取海量技術(shù)資料、向我 1 對 1 技術(shù)咨詢、求職指導(dǎo),簡歷優(yōu)化、歷史文章答疑(源碼+數(shù)據(jù))、綜合&專業(yè)技術(shù)交流社群、大模型技術(shù)分享、定制專屬學(xué)習(xí)路線,幫你快速成長、告別迷茫。
原創(chuàng)不易,技術(shù)學(xué)習(xí)資料如下,星球成員可免費(fèi)獲取,非星球成員,添加城哥微信:dkl88191,請城哥喝杯星巴克。
