【NLP系列】Bert词向量的空间分布
我们知道Bert预训练模型针对分词、ner、文本分类等下游任务取得了很好的效果,但在语义相似度任务上,表现相较于Word2Vec、Glove等并没有明显的提升
Wesley13 Wesley13
3年前
NLP这两年:15个预训练模型对比分析与剖析
!(https://oscimg.oschina.net/oscnet/c2bcf2fc84544bdd8b29986c87b539ec.gif)作者|JayLou来源|知乎前言在之前写过的《NLP的游戏规则从此改写?从word2vec,ELMo到BERT》一文中,介绍了从