栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

【GPT】Improving Language Understanding by Generative Pre-Training

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

【GPT】Improving Language Understanding by Generative Pre-Training

Paper Link: Improving Language Understanding by Generative Pre-Training

GPT系列文章解读:
【GPT2】Language Models are Unsupervised Multitask Learners
【GPT3】Language Models are Few-Shot Learners

Abstract

自然语言理解包含一系列广泛的任务,如:文本推理、问答、语义相似度分析和文档分类等。尽管有丰富的未打标语料可以使用,但针对特定任务的打标数据仍是稀缺的,使得模型很难被充分训练。我们提出来 Generative Pre-Training模型,在未打标的语料上预训练模型,然后在每个下游任务上设计不同的微调任务。微调时,我们利用任务相关的输入转换信息,进而获得不错的迁移信息,且只需要在模型结构中做较小的改动。我们在不同的NLU任务上,验证了这种方法的效果。我们训练的任务无关的通用模型,经过特定设计的下游任务微调后,在12个测试任务上有9个取得了sota。

Framework 无监督预训练

GPT预训练中,使用了多层的 Transformer Decoder 结构。

有监督微调

特定任务输入变换

实验结果


模型分析

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/835508.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号