transformerelmogpt到bert
bert:pre-training of deep bidirectional transformers for
主流的预训练模型包括:bert,xlnet,roberta,macnet,gpt等,这些预训练
bert crf序列标注模型架构
图片内容是:bert模型结构
bert模型入门系列(一): attention机制入门
nlp专栏图解bert预训练模型
bert如何融合主题模型做文本匹配acl2020
2. bert的模型结构
pytorchbert预训练模型及文本分类