【面试招聘】双非渣硕的秋招路
NewBeeNLP原創出品
作者?|?帶帶大兄弟
寫在前面
雙非渣碩,0實習,3篇水文,三個給老板當打工仔的nlp橫向項目,八月份開始準備秋招,糾結開發還是算法,開發的話菜而自知,算法也是菜而自知,最后還是頭鐵NLP算法。
秋招進度:投遞150+,筆試50+,面試30+,offer 2,只求當咸魚,基本躺平了
下面是我的部分面經記錄,希望對后來人有幫助?
58同城
找了在58NLP工作的本科同學內推,估計HR給忘了,第一批沒內推上,只趕上了第二批筆試,當時已經開獎了好多人了,感覺坑位不多。
一面
自我介紹
今后的事業規劃、研究方向
項目1:為什么選擇這種模型,有嘗試過其他模型嗎
BERT的優缺點
PTM都了解哪些,BERT與GPT區別
單項與雙向在實際訓練時有差別嗎
bert的mask會帶來什么缺點嗎
項目2:句對匹配任務
每次查詢都要與庫里所有的數據做計算,有考慮過優化么
手撕代碼 :
經典DP
判斷兩個鏈表是否相交
ps:沒給反問機會
二面
自我介紹
挑一個比較重點的項目開講
知識庫有多大,數據是分層存儲的嗎
數據是如何收集的
問題會有子問題嗎
準確率怎么驗證的
效果會跟數據集有關系嗎
sentence pair怎么改進的
CNN與RNN的區別
Transformer原理
注意力機制有哪些種類,本身原理上起了什么作用
怎么解決過擬合問題
BN在原理上怎么解決過擬合
常用損失函數有哪些
回歸問題主要用哪些損失函數
隱馬爾可夫了解么
數據不平衡怎么處理
數據不平衡的損失函數有哪些
交叉熵是什么原理
系統搭建怎么搭建的
項目3介紹
評價體系是什么
詞向量有哪些方法
分詞了解么
工作上的規劃,地點有選擇嗎
工程上的開發與落地有經驗嗎
知識蒸餾是什么,通過什么方式來簡化,比如albert,具體原理是什么
HR面
經典HR問題
反問新人培養機制
貝殼
一面
LDA基礎知識
LSTM梯度消失/爆炸
等等
二面
自我介紹
項目介紹
LDA主題數目確定
Gibbs采樣和變分推斷
GIbbs優化目標是什么
Gibbs采樣與變分推斷的優缺點
常用的模型(LSTM+BERT),訓練語料
BERT原理
Bert與LSTM比較
樣本不平衡的處理方法
了解NER么
統計類模型了解么 ?陰馬
編程語言用什么,C++會么
embedding的方法(word2vec \glove\ fasttext)
glove 與word2vec的區別
LR,SVM與XGboost了解么,介紹一下
GBDT,Xgboost的區別,Xgboost分布式計算是計算什么
代碼:寫快排
HR面
說一個印象最深的項目,收獲
今后還做這個方向么
目前關注的公司
對貝殼了解么
可以實習么
在哪個校區
反問(兩周之內給結果)
依圖
一面
新加坡部門跨國面試
是保研嗎
項目
BERT為什么有效,與其他模型相比呢
Transformer優點
數據源如何來的,數據更新如何解決
embedding方式有哪些
word2vec訓練時出現過問題嗎,比如訓練后的詞之間的相似性不準
爬蟲框架用過哪些
手撕代碼
手寫字典樹
二叉樹的遍歷 遞歸非遞歸
二面
自我介紹
項目
粗篩能過濾多少數據
評測過第一步的性能么
BERT原理,
正則化是什么,LN是什么,作用是什么
過擬合手段有哪些
Dropout原理
hyperscan的原理是什么
模型預測錯誤的數據,為什么會錯,分析過么
sentence pairs模型中,為什么不直接用score排序
為什么要選用這種模型
自定義損失函數是什么,為什么要用這個
手撕代碼,leetcode.33
尾巴
回顧整個秋招歷程,當時選擇方向的時候,權衡利弊還是選擇了算法崗,雖然 學歷不如 雙一流大佬,論文比不上A會學霸,但還是決定曲線救國,從項目方面入手,算法研究不行我就從算法落地方向找突破口,整個簡歷都是圍繞著項目展開的,面試過程也盡量把面試官往項目上引,后期的幾個面試也基本都是一個項目扣半個多小時,扣著扣著就到時了。
最后祝大家都能拿到自己想要的offer!!!!!過程雖然很曲折,但結果一定是美好的!!!
往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:
https://t.zsxq.com/y7uvZF6
本站qq群704220115。
加入微信群請掃碼:
總結
以上是生活随笔為你收集整理的【面试招聘】双非渣硕的秋招路的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 百度AI快车道南京站来了!接力魔都,继续
- 下一篇: 【CV】多目标跟踪:监控领域你必须要了解