<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          秋招被虐經(jīng)歷

          共 2037字,需瀏覽 5分鐘

           ·

          2021-09-27 16:50

          作者 | Chevalier 

          整理 | NewBeeNLP

          面試錦囊之面經(jīng)分享系列,持續(xù)更新中 

          后臺(tái)回復(fù)面試』加入討論組交流噢 


          • 簡(jiǎn)歷背景:1個(gè)騰訊實(shí)習(xí),4個(gè)比賽、2個(gè)項(xiàng)目,1篇CCF-A二作、1篇CCF-C一作
          • 秋招總結(jié):騰訊、字節(jié)offer,華為正在泡池子

          字節(jié) 技術(shù)中臺(tái)

          一面

          • 算法題:刪除倒數(shù)第N個(gè)鏈表
          • 為什么要用尖括號(hào)標(biāo)記實(shí)體,尖括號(hào)在BERT詞表中么,最好用unuse1字符
          • fasttext和word2vec的區(qū)別
          • xgboost和adaboost、GBDT、隨機(jī)森林,隨機(jī)森林如何采樣
          • 怎么解決人工漏標(biāo)、錯(cuò)標(biāo),NER的損失函數(shù),關(guān)系抽取為什么用這個(gè)模型,有調(diào)研其它模型么

          二面

          GG

          • 手撕 編輯距離
          • xgboost如何分裂,公式,樹的生成
          • 邏輯回歸推導(dǎo)
          • 交叉熵
          • softmax

          字節(jié)電商

          一面

          • 邏輯回歸求導(dǎo)、均方誤差和交叉熵的區(qū)別
          • 防止欠擬合、過擬合、梯度爆炸的方式
          • BERT結(jié)構(gòu)、transformer中feed forward的作用
          • self-attention的形式,為什么要除以根號(hào)d_k
          • 算法題:手撕kmeans,鏈表反轉(zhuǎn)、撲克牌隨機(jī)分3堆,大小王在同一堆的概率
          • 圖最短路徑算法

          二面

          • 比賽:為什么使用注意力機(jī)制、介紹multi sample dropout
          • 注意力機(jī)制為什么不用多頭
          • 矩陣相加和點(diǎn)乘
          • SPU海量數(shù)據(jù)查重
          • softmax
          • 手撕代碼:前k個(gè)相似整數(shù)、最長(zhǎng)不重復(fù)子串

          三面

          • 比賽
          • 實(shí)習(xí)項(xiàng)目
          • 手撕代碼:堆排序、組成某個(gè)值的硬幣種數(shù)(回溯)、不相鄰子序列最大和

          8.24 意向書

          華為消費(fèi)者BG

          一面

          • 算法題:LeetCode 739 每日溫度
          • 決策樹算法有哪些:ID3、C4.5、CART
          • TF-IDF特征
          • BERT mask策略,分別的作用
          • 多模態(tài)建模思路
          • 上線部署時(shí)延要求,模型剪枝、模型蒸餾
          • transformer與LSTM相比,優(yōu)勢(shì)在哪
          • boosting算法的優(yōu)缺點(diǎn)

          二面

          • 實(shí)習(xí)項(xiàng)目
          • 為什么要finetune
          • 知識(shí)圖譜技術(shù)路線,信息抽取綜述

          三面

          問的問題跟HR差不多

          阿里本地生活 知識(shí)圖譜

          一面

          • 實(shí)習(xí)項(xiàng)目,fusion層,下一步如何優(yōu)化,如何處理長(zhǎng)文本,
          • 語言模型,word2vec,具體流程,損失函數(shù),優(yōu)化算法(hierarchical softmax、negative sampling)
          • 邏輯回歸損失函數(shù)為什么取log
          • 模型評(píng)估,F(xiàn)1、ROC-AUC
          • kmeans聚類,向量距離不適合用歐氏距離衡量,如何變換
          • CRF損失,實(shí)體識(shí)別有嘗試其他算法么,關(guān)系抽取閾值有選擇么

          網(wǎng)易有道 人工智能部門

          一面

          • 介紹中文人機(jī)對(duì)話技術(shù)評(píng)測(cè)比賽,別的隊(duì)伍的優(yōu)點(diǎn)
          • 介紹試題生成項(xiàng)目
          • 介紹BERT、attention公式,為什么除以根號(hào)dk
          • 介紹AAAI的論文,負(fù)責(zé)哪部分
          • 手撕算法:最小k個(gè)數(shù)、移掉k位數(shù)字

          二面

          • 正則化有哪些
          • 深度神經(jīng)網(wǎng)絡(luò)為什么不使用sigmoid或tanh激活函數(shù),什么情況下可以使用
          • self-attention時(shí)間復(fù)雜度
          • 手撕:循環(huán)遞增數(shù)組查找、self-attention實(shí)現(xiàn)

          三面

          • 給你一個(gè)項(xiàng)目,項(xiàng)目描述為:**********,描述下你的技術(shù)路線

          百度 知識(shí)圖譜部門 

          一面

          • 實(shí)習(xí)
          • vggnet的resnet的區(qū)別,densenet
          • transformer在哪些地方體現(xiàn)了共享和并行
          • 比賽
          • 項(xiàng)目
          • is 和 ==區(qū)別
          • re match 和 search
          • range返回的是什么
          • python內(nèi)存管理、淺拷貝和深拷貝
          • 如何拼接字符串最高效
          • 手撕:二叉樹層序遍歷、連續(xù)子數(shù)組乘積最大

          二面

          • 實(shí)習(xí)
          • 比賽
          • docker原理
          • 手撕:LRU
          • 場(chǎng)景題:給定一個(gè)文章,如何識(shí)別出所有觀點(diǎn)(一個(gè)句子),如何識(shí)別出核心觀點(diǎn),如何識(shí)別出提出者

          三面

          • 實(shí)習(xí)項(xiàng)目背景、難點(diǎn)分析
          • 給定一個(gè)文本,如何抽取aspect、opinion、sentiment
          • 反問:部門規(guī)模、氛圍、交流,管理

          四面

          • 比賽負(fù)責(zé)什么,每個(gè)人的分工
          • 情感識(shí)別的建模思路
          • 知識(shí)圖譜:項(xiàng)目背景,有考慮意圖識(shí)別么,實(shí)體消歧,為什么用pipeline、不用joint
          • 如果現(xiàn)在考慮的話該怎么提升模型性能
          • CRF和HMM的區(qū)別,HMM解決哪三個(gè)問題
          • CRF基于條件分布建模是什么意思,什么條件
          • 維特比思路,解決HMM的什么問題
          • 詞向量發(fā)展歷史:one-hot、NNLM、word2vec、glove(推導(dǎo)公式)、fasttext、ELMO、CoVE(不了解)、GPT、BERT、ERNIE(清華的不了解)、ERNIE 2.0、bert-wwm、roberta、xlnet

          快手搜索推薦業(yè)務(wù)部

          一面

          • 聚類數(shù)目如何確定
          • ResNet主要解決什么問題
          • 梯度消失解決方法
          • BN公式、交叉熵公式
          • transformer用的是哪種normalization,為什么不用BN
          • 手撕:加權(quán)編輯距離
          瀏覽 45
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产精品视频卡一卡二 | 九色 蝌蚪 熟女偷拍 | 日韩在线黄色电影 | 久久午夜无码人妻精品蜜桃冫 | 美日韩一区二区三区 |