添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
我为什么要做这件事呢?现存的python,机器学习视频都是为了培养人工智能算法工程师,各种高大上,各种看不懂,而有一批和我这样的同学,只想水一篇论文毕业,然后考公考编。因此,我的目标定位就是通过最快速的方法让大家具备水论文的一些必备基础。然后呢,transformer 和bert开课了,先润润嗓子,为正菜做准备。 博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html

第一篇 Transformer、GPT、BERT,预训练语言模型的前世今生(理论)

第二篇 第二篇 通过 Pytorch 构建 Transformer 框架(真实战,不做调包侠)

第三篇 Huggingface 实战(待续)