秋招被虐經(jīng)歷
作者 | Chevalier
整理 | NewBeeNLP

后臺(tái)回復(fù)『面試』加入討論組交流噢 
簡(jiǎn)歷背景:1個(gè)騰訊實(shí)習(xí),4個(gè)比賽、2個(gè)項(xiàng)目,1篇CCF-A二作、1篇CCF-C一作 秋招總結(jié):騰訊、字節(jié)offer,華為正在泡池子
字節(jié) 技術(shù)中臺(tái)
一面
算法題:刪除倒數(shù)第N個(gè)鏈表 為什么要用尖括號(hào)標(biāo)記實(shí)體,尖括號(hào)在BERT詞表中么,最好用unuse1字符 fasttext和word2vec的區(qū)別 xgboost和adaboost、GBDT、隨機(jī)森林,隨機(jī)森林如何采樣 怎么解決人工漏標(biāo)、錯(cuò)標(biāo),NER的損失函數(shù),關(guān)系抽取為什么用這個(gè)模型,有調(diào)研其它模型么
二面
GG
手撕 編輯距離 xgboost如何分裂,公式,樹的生成 邏輯回歸推導(dǎo) 交叉熵 softmax
字節(jié)電商
一面
邏輯回歸求導(dǎo)、均方誤差和交叉熵的區(qū)別 防止欠擬合、過擬合、梯度爆炸的方式 BERT結(jié)構(gòu)、transformer中feed forward的作用 self-attention的形式,為什么要除以根號(hào)d_k 算法題:手撕kmeans,鏈表反轉(zhuǎn)、撲克牌隨機(jī)分3堆,大小王在同一堆的概率 圖最短路徑算法
二面
比賽:為什么使用注意力機(jī)制、介紹multi sample dropout 注意力機(jī)制為什么不用多頭 矩陣相加和點(diǎn)乘 SPU海量數(shù)據(jù)查重 softmax 手撕代碼:前k個(gè)相似整數(shù)、最長(zhǎng)不重復(fù)子串
三面
比賽 實(shí)習(xí)項(xiàng)目 手撕代碼:堆排序、組成某個(gè)值的硬幣種數(shù)(回溯)、不相鄰子序列最大和
8.24 意向書
華為消費(fèi)者BG
一面
算法題:LeetCode 739 每日溫度 決策樹算法有哪些:ID3、C4.5、CART TF-IDF特征 BERT mask策略,分別的作用 多模態(tài)建模思路 上線部署時(shí)延要求,模型剪枝、模型蒸餾 transformer與LSTM相比,優(yōu)勢(shì)在哪 boosting算法的優(yōu)缺點(diǎn)
二面
實(shí)習(xí)項(xiàng)目 為什么要finetune 知識(shí)圖譜技術(shù)路線,信息抽取綜述
三面
問的問題跟HR差不多
阿里本地生活 知識(shí)圖譜
一面
實(shí)習(xí)項(xiàng)目,fusion層,下一步如何優(yōu)化,如何處理長(zhǎng)文本, 語言模型,word2vec,具體流程,損失函數(shù),優(yōu)化算法(hierarchical softmax、negative sampling) 邏輯回歸損失函數(shù)為什么取log 模型評(píng)估,F(xiàn)1、ROC-AUC kmeans聚類,向量距離不適合用歐氏距離衡量,如何變換 CRF損失,實(shí)體識(shí)別有嘗試其他算法么,關(guān)系抽取閾值有選擇么
網(wǎng)易有道 人工智能部門
一面
介紹中文人機(jī)對(duì)話技術(shù)評(píng)測(cè)比賽,別的隊(duì)伍的優(yōu)點(diǎn) 介紹試題生成項(xiàng)目 介紹BERT、attention公式,為什么除以根號(hào)dk 介紹AAAI的論文,負(fù)責(zé)哪部分 手撕算法:最小k個(gè)數(shù)、移掉k位數(shù)字
二面
正則化有哪些 深度神經(jīng)網(wǎng)絡(luò)為什么不使用sigmoid或tanh激活函數(shù),什么情況下可以使用 self-attention時(shí)間復(fù)雜度 手撕:循環(huán)遞增數(shù)組查找、self-attention實(shí)現(xiàn)
三面
給你一個(gè)項(xiàng)目,項(xiàng)目描述為:**********,描述下你的技術(shù)路線
百度 知識(shí)圖譜部門
一面
實(shí)習(xí) vggnet的resnet的區(qū)別,densenet transformer在哪些地方體現(xiàn)了共享和并行 比賽 項(xiàng)目 is 和 ==區(qū)別 re match 和 search range返回的是什么 python內(nèi)存管理、淺拷貝和深拷貝 如何拼接字符串最高效 手撕:二叉樹層序遍歷、連續(xù)子數(shù)組乘積最大
二面
實(shí)習(xí) 比賽 docker原理 手撕:LRU 場(chǎng)景題:給定一個(gè)文章,如何識(shí)別出所有觀點(diǎn)(一個(gè)句子),如何識(shí)別出核心觀點(diǎn),如何識(shí)別出提出者
三面
實(shí)習(xí)項(xiàng)目背景、難點(diǎn)分析 給定一個(gè)文本,如何抽取aspect、opinion、sentiment 反問:部門規(guī)模、氛圍、交流,管理
四面
比賽負(fù)責(zé)什么,每個(gè)人的分工 情感識(shí)別的建模思路 知識(shí)圖譜:項(xiàng)目背景,有考慮意圖識(shí)別么,實(shí)體消歧,為什么用pipeline、不用joint 如果現(xiàn)在考慮的話該怎么提升模型性能 CRF和HMM的區(qū)別,HMM解決哪三個(gè)問題 CRF基于條件分布建模是什么意思,什么條件 維特比思路,解決HMM的什么問題 詞向量發(fā)展歷史:one-hot、NNLM、word2vec、glove(推導(dǎo)公式)、fasttext、ELMO、CoVE(不了解)、GPT、BERT、ERNIE(清華的不了解)、ERNIE 2.0、bert-wwm、roberta、xlnet
快手搜索推薦業(yè)務(wù)部
一面
聚類數(shù)目如何確定 ResNet主要解決什么問題 梯度消失解決方法 BN公式、交叉熵公式 transformer用的是哪種normalization,為什么不用BN 手撕:加權(quán)編輯距離
評(píng)論
圖片
表情
