开网店的基础知识,什么是seo关键词优化,百度运营怎么做,长宁区网站设计建设参考#xff1a;
李宏毅机器学习--self-supervised#xff1a;BERT、GPT、Auto-encoder-CSDN博客 用无标注资料的任务训练完模型以后#xff0c;它本身没有什么用#xff0c;GPT 1只能够把一句话补完#xff0c;可以把 Self-Supervised Learning 的 Model做微微的调整
李宏毅机器学习--self-supervisedBERT、GPT、Auto-encoder-CSDN博客 用无标注资料的任务训练完模型以后它本身没有什么用GPT 1只能够把一句话补完可以把 Self-Supervised Learning 的 Model做微微的调整把它用在其他下游的任务裡面对于下游任务的训练仍然需要少量的标记数据。
GPT1基本实现
例如有条训练语句是“台湾大学”那么输入BOS后训练输出是台再将BOS和台作为输入训练输出是湾给它BOS 台和湾然后它应该要预测大以此类推。模型输出embedding hh再经过linear classification和softmax后计算输出分布与正确答案之间的损失cross entropy希望它越小越好。 详细计算过程 GPT1和GPT2
GPT1里主要用的是transformer中的decoder层。
GPT-2依然沿用GPT单向transformer的模式只不过做了一些改进与改变
GPT-2去掉了fine-tuning层增加数据集和参数调整transformer
模型参数量ELMO94MBERT340MGPT-21542M