加入CODE CHINA

· 不限速    · 不限空间    · 不限人数    · 私仓免费

免费加入
    README.md

    GPT2-Chinese

    Description

    • Chinese version of GPT2 training code, using BERT tokenizer. It is based on the extremely awesome repository from HuggingFace team Transformers. Can write poems, news, novels, or train general language models. Support char level, word level and BPE level. Support large training corpus.
    • 中文的GPT2训练代码,使用BERT的Tokenizer。

    BIG UPDATE 04.22.2021

    • 因群众普遍反映原代码对新手不够友好,且代码本身年久失修,我使用Pytorch Lightning与Transformers库重写了一版训练与预测的代码。具体使用方法请参考本README的使用方法一栏。模型本身结构与旧代码兼容。
    • 这一版经过基本测试,可以完成训练与预测任务,代码在易用性上得到了提升。但是功能上会比原版代码有所缺失一些,如加载预训练模型的功能需要自己写一段小代码来添加一下。
    • 原版代码保存在本项目的old_gpt_2 branch中,如有需要的话用户依然可以从中获取进行学习。
    • 新版代码的依赖写在了requirements.txt文件中,请记得提前安装。
    • 请注意:本项目的预测脚本直接使用的话只支持预测本项目生成的checkpoint,如果要载入huggingface官方格式的GPT2 checkpoint,请直接使用GPT2LMModel对象的from pretrained功能进行载入。之后的预测流程是一样的。

    UPDATE 02.06.2021

    UPDATE 11.03.2020

    • 本项目新增了古诗词GPT-2预训练模型对联GPT-2预训练模型。模型由UER-py项目训练得到,欢迎大家使用。 此外,模型上传到了Huggingface Model Hub中。更多模型的细节请参考gpt2-chinese-poemgpt2-chinese-couplet

      在使用古诗词模型进行生成时,需要在输入的文本前加入一个起始符,如:若要输入“梅山如积翠,”,正确的格式为“[CLS]梅山如积翠,”。

      对联模型训练时使用的语料格式为“上联-下联”,在使用对联模型进行生成时,需要在输入的文本前加入一个起始符,如:若要输入“丹枫江冷人初去-”,正确的格式为“[CLS]丹枫江冷人初去-”。

    NEWS 08.11.2020

    • CDial-GPT(可用本代码载入)已发布。本项目包含一个经过严格清洗的大规模放开域中文对话数据集,本项目还包含在此数据集上训练的GPT对话预训练模型,以及生成样例,欢迎大家参观。

    NEWS 12.9.2019

    • 新项目GPT2-chitchat已发布,部分基于本项目代码。包含训练GPT2对话模型的代码与与训练模型,以及生成样例,欢迎大家参观。

    NEWS 12.7.2019

    • 新项目Decoders-Chinese-TF2.0同样支持GPT2的中文训练,在使用上更加简单,不易产生各种问题。目前还在测试阶段,欢迎大家提出意见。

    NEWS 11.9

    • GPT2-ML(与本项目无任何直接关联)已发布,包含1.5B中文GPT2模型。大家如有兴趣或需要可将其转换为本项目支持的Pytorch格式进行进一步训练或生成测试。

    UPDATE 10.25

    • 本项目第一个预训练模型已公布,为散文生成模型,具体可查看README模型分享部分。

    使用方法

    1. 准备语料,放在data/train.json文件中,该文件的结构是:每行一个json字符串。
    2. (可选)准备训练参数设置,放在config文件夹中。
    3. (可选)准备tokenizer词表,放在vocab文件夹中。
    4. 运行 bash train.sh进行训练。具体训练参数可以参考train.py文件中的argparse相关描述。
    5. 运行 python3 generate.py 进行生成,生成的前缀可以在prefix参数中进行设置。可参考源码中参数设定部分代码。

    注意

    • 因群众普遍反映原代码对新手不够友好,且代码本身年久失修,我使用Pytorch Lightning与Transformers库重写了一版训练与预测的代码。具体使用方法请参考本README的使用方法一栏。模型本身结构与旧代码兼容。
    • 这一版经过基本测试,可以完成训练与预测任务,代码在易用性上得到了提升。但是功能上会比原版代码有所缺失一些,如加载预训练模型的功能需要自己写一行代码来添加一下。
    • 原版代码保存在本项目的old_gpt_2 branch中,如有需要的话用户依然可以从中获取进行学习。
    • 新版代码的依赖写在了requirements.txt文件中,请记得提前安装。
    • 请注意:本项目的预测脚本直接使用的话只支持预测本项目生成的checkpoint,如果要载入huggingface官方格式的GPT2 checkpoint,请直接使用GPT2LMModel对象的from pretrained功能进行载入。之后的预测流程是一样的。

    语料

    联系作者

    Citing

    @misc{GPT2-Chinese,
      author = {Zeyao Du},
      title = {GPT2-Chinese: Tools for training GPT2 model in Chinese language},
      year = {2019},
      publisher = {GitHub},
      journal = {GitHub repository},
      howpublished = {\url{https://github.com/Morizeyao/GPT2-Chinese}},
    }

    模型分享

    模型名称 模型介绍 分享者 链接地址1 链接地址2
    散文模型 使用130MB的名家散文、情感散文和散文诗歌训练所得 。 hughqiu 百度网盘【fpyu】 GDrive
    诗词模型 使用180MB的约80万首古诗词训练所得。 hhou435 百度网盘【7fev】 GDrive
    对联模型 使用40MB的约70万条对联训练所得。 hhou435 百度网盘【i5n0】 GDrive
    通用中文模型 使用CLUECorpusSmall语料训练所得。 hhou435 百度网盘【n3s8】 GDrive
    通用中文小模型 使用CLUECorpusSmall语料训练所得。 hhou435 百度网盘【rpjk】 GDrive
    中文歌词模型 使用140MB的约15万首中文歌词训练所得。 hhou435 百度网盘【0qnn】 GDrive
    文言文模型 使用1.8GB的约300万篇文言文训练所得。 hhou435 百度网盘【ek2z】 GDrive

    此处为热情大方的git友训练所得的模型文件,公开给所有朋友使用,同时也欢迎各位伙伴将自己训练完毕的模型公开于此处。

    Demo

    生成样例

    -以下为文学散文的生成样例,由hughqiu贡献,模型已经分享于模型分享列表。语料130MB,Batch size 16,10层深度下训练10轮所得。 avatar avatar avatar

    • 下为斗破苍穹的生成样例,使用约50M参数的GPT2以32Batch Size在16MB斗破苍穹小说内容上训练得到。此处[SEP]表示换行。

    avatar

    • 下为古诗词的生成样例,由用户JamesHujy运算并贡献。

    avatar avatar

    • 下为古诗限定了生成体裁后的生成样例,由用户JamesHujy运算并贡献。

    avatar avatar avatar

    • 下为生成剧本的样例文本,由用户chiangandy运算并贡献

    [starttext]爱情游戏剧情讲述了钢琴父女明致怀萌的爱情、个有着努力的热情以及现实为人生的价值观众,获得一系列爱情的故事。80后录股媒体受到网友分享,是2014年主创陈拉昀出品牌总监于蓝氏集团化验师创业团门的哥哥大国度上海淮河畔,集入第一线公司青年度虽然没有放到的事业,但是蓝正是却不到位主人拒绝了解,而在蓝越的帮助理念出现,也因此开启明朗的误会而经营变成爱河。在一次偶然的编剧集电视剧之夏天上一改变了自命运环球顶樑,三人在创车祸中不知被记忆差网识分到创作,并被问流言败,以及行业服务所有的低调教同才力,陈昭和唐诗诗妍展开了一段截然不同的“2014年间段感情”,两人性格互相治癒的商业奋斗故事,尽管是共90后北京华侨大学录的一个宿舍小旅程和唐如、生等优秀青年,的人生活如何与愿违3个国偶像,并且共同创作何以此他们互相有观众的成功和关心吗?[endtext]

    [starttext]学习爱情主要讲述了两对方小曼,经过啼笑皆非的考验,终于选择了三个孩子,携手共同创业来四个孩子,在大城市里创业的成功商。两家内事业的加入了北京城市,经过了一次元城市融风雨故、差异后得到异的他们,最终收获了梦想的真正属于自己的爱情。赞助理想、电视剧、剧等主创业时代人物特点在北京举行开机仪式,该剧以当下海南三个新人青年轻人面人海南梅竹马的电视角,讲述了几个在北京、喜剧代人生活中增强非浪漫的年轻人,以独特的双时代年轻人从来到北京城市化中国大城市走出发展以海南方的变迁在语种城市闯关于人生态的同时,以及他们渐渐的生活方式为自己方向上演了那么简单俗,是当代际拍摄的就如何在这个城市里都市里?那么平静的城市就是城市的风格特张嘉和支持工作打造,而这是一点就要打造出机场话剧组会。化身处处棋逢貌各种文化的人都非常独特的煽情,交织了相,滑稽等来自外衣的东北漂亮、内地,者和两位女孩子敢称是哑女孩子。交织里的人齐飞一开泰块玩笑,令人印象太趋的气质,让人眼看这个性格非常喜剧,知道的是一个“东北漂”人的外国小养家,让她耳熟练读剧的外形象显老大。之后齐飞、表示爱朗的齐飞、范儿、楚月子、白天杰。两代人的生活里友情似乎没有结合、精彩表态的开朗和丽丽丽。[endtext]

    avatar avatar avatar avatar

    项目简介

    🚀 Github 镜像仓库 🚀

    源项目地址

    https://github.com/Morizeyao/GPT2-Chinese

    发行版本

    当前项目没有发行版本

    贡献者 7

    开发语言

    • Python 96.7 %
    • Shell 3.3 %