BERT,全名 Bidirectional Encoder Representation from Transformers。是Google AI团队在2018年推出的一个NLP模型,在机器阅读理解顶级水平测试SQuAD1.1上全面超越人类表现,并在11项NLP测试中拿到最佳成绩。这也导致BERT的大火。
BERT的出现彻底改变了pre-train产生词向量和下游NLP训练任务间的关系。
//todo 留坑
本博客所有文章除特别声明外,均采用 CC BY-SA 3.0协议 。转载请注明出处!