BERT,全名 Bidirectional Encoder Representation from Transformers。是Google AI团队在2018年推出的一个NLP模型,在机器阅读理解顶级水平测试SQuAD1.1上全面超越人类表现,并在11项NLP测试中拿到最佳成绩。这也导致BERT的大火。

BERT的出现彻底改变了pre-train产生词向量和下游NLP训练任务间的关系。

//todo 留坑


本博客所有文章除特别声明外,均采用 CC BY-SA 3.0协议 。转载请注明出处!

机器学习中的各种优化器算法 上一篇
Transformer模型简介(笔记) 下一篇