Skip to content

BERT/ELMO/词向量

预训练:(词向量or模型)

BERT

开源代码:https://github.com/google-research/bert

模型下载:BERT-Base, Chinese: Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameters

ELMO

开源代码:https://github.com/allenai/bilm-tf

预训练的模型:https://allennlp.org/elmo

腾讯词向量

腾讯AI实验室公开的中文词向量数据集包含800多万中文词汇,其中每个词对应一个200维的向量。

下载地址:https://ai.tencent.com/ailab/nlp/embedding.html