鳳舞九天
0獲贊0關(guān)注0粉絲
文字識(shí)別:一文讀懂 Transformer OCR
深度學(xué)習(xí)時(shí)代的文字識(shí)別:行識(shí)別,主流有兩種算法,一種是CRNN 算法,一種是attention 算法。
CRNN:CNN+RNN+CTC
白裳:一文讀懂CRNN+CTC文字識(shí)別
attention :CNN+Seq2Seq+Attention
白裳:完全解析RNN, Seq2Seq, Attention注意力機(jī)制
兩種算法都比較成熟,互聯(lián)網(wǎng)上也有很多講解的文章。
Attention Is All You Need (Transformer)這篇文章,設(shè)計(jì)了一種新型self-attention結(jié)構(gòu),取代了 RNN(LSTM\GRU) 的結(jié)構(gòu),在眾多nlp相關(guān)任務(wù)上取得了效果上的突破,而后來(lái)的BERT、GPT等模型亦是來(lái)源于
鳳舞九天
0
