1.下载地址
huggingface
https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main
mackedward-nlp
https://github.com/makcedward/nlp
中文预训练模型
https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models
https://github.com/ymcui/MacBERT
https://github.com/lonePatient/NeZha_Chinese_PyTorch
https://github.com/huawei-noah/Pretrained-Language-Model/tree/master/NEZHA-TensorFlow
中文BERT
https://github.com/stupidHIGH/bert_family_tasks
中文RoBERTa
https://github.com/ymcui/Chinese-BERT-wwm
wobert
https://github.com/ZhuiyiTechnology/WoBERT
ngram_mask:ernie/spanbert
https://www.zhihu.com/question/315190433/answer/618543076
2.综述:
bert介绍
预训练模型综述-邱锡鹏
预训练模型综述
- https://zhuanlan.zhihu.com/p/114785639
- https://zhuanlan.zhihu.com/p/115014536
ps:上面模型下载地址中,基本都会附带使用说明以及相关论文
最后
以上就是负责水杯最近收集整理的关于预训练模型汇总:下载地址&综述的全部内容,更多相关预训练模型汇总内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复