加入CODE CHINA

· 不限速    · 不限空间    · 不限人数    · 私仓免费

免费加入
    README.md

    深度学习之自然语言处理斯坦福大学CS224n课程集训营

    课程资料

    1. 课程主页
    2. 中文笔记
    3. 课程视频
    4. 实验环境推荐使用Linux或者Mac系统,以下环境搭建方法皆适用:
      Docker环境配置
      本地环境配置

    重要🔥🔥一些的资源:

    1. Dr.Wu 博客71篇(机器学习、深度学习、强化学习、对抗网络)
    2. Dr.Wu 本人知乎
    3. 深度学习斯坦福教程
    4. 廖雪峰python3教程
    5. github教程
    6. 莫烦机器学习教程
    7. 深度学习经典论文
    8. 斯坦福cs229代码(机器学习算法python徒手实现)
    9. 吴恩达机器学习新书:machine learning yearning
    10. 哈佛大学NLP实验室
    11. 清华大学NLP实验室总结机器阅读论文、数据集
    12. 本人博客(机器学习基础算法专题)
    13. 本人博客(深度学习专题)
    14. 斯坦福cs20I课件
    15. AI比赛经验+开源代码汇总
    16. Deep Learning in Natural Language Processing(微软:邓力博士,清华:刘洋博士)
    17. 机器像人一样交流 (斯坦福: 李纪为博士)

    前言

    自然语言是人类智慧的结晶,自然语言处理是人工智能中最为困难的问题之一,而对自然语言处理的研究也是充满魅力和挑战的。 通过经典的斯坦福cs224n教程,让我们一起和自然语言处理共舞!也希望大家能够在NLP领域有所成就!

    知识要求(学习的过程中可以遇到问题后再复习)

    • 了解python基础知识
    • 了解高等数学、概率论、线性代数知识
    • 了解基础机器学习算法:梯度下降、线性回归、逻辑回归、Softmax、SVM、PAC(先修课程斯坦福cs229 或者周志华西瓜书)
    • 具有英语4级水平(深度学习学习材料、论文基本都是英文,一定要阅读英文原文,进步和提高的速度会加快!!!!

    知识工具

    为了让大家逐渐适应英文阅读,复习材料我们有中英两个版本,但是推荐大家读英文

    数学工具

    斯坦福资料:

    中文资料:

    编程工具

    斯坦福资料:

    中文资料:

    学习安排

    每周具体时间划分为4个部分:

    • 1部分安排周一到周二
    • 2部分安排在周四到周五
    • 3部分安排在周日
    • 4部分作业是本周任何时候空余时间
    • 周日晚上提交作业运行截图
    • 周三、周六休息^_^

    作业提交指南:

    训练营的作业自检系统已经正式上线啦!只需将作业发送到训练营公共邮箱即可,训练营以打卡为主,不用提交作业。以下为注意事项:
    <0> 课程资料:链接 密码:zwjr
    <1> 训练营代码公共邮箱:cs224n@163.com
    <2> 每周做作业,作业提交时间点:一整个Assignment代码全部完成后再提交
    <3> 将每次作业压缩成zip文件,文件名为“NLP学期+学号+作业编号”,例如第二期学员:"NLP020037-01.zip"
    <4> 注意不要改变作业中的《方法名》《类名》不然会检测失败!!
    <5> 查询自己成绩:
     

    教程

    Week1

    1. 自然语言处理和深度学习简介
    1. 词的向量表示1:
    1. 论文导读:一个简单但很难超越的Sentence Embedding基线方法
    1. 作业:Assignment 1.1-1.2
    • 1.1 Softmax 算法
    • 1.2 Neural Network Basics 神经网络基础实现

    Week2

    1. 高级词向量表示:word2vec 2
    1. Word Window分类与神经网络
    1. 论文导读:词语义项的线性代数结构与词义消歧
    1. 作业:Assignment 1.3-1.4
    • 1.3 word2vec 实现
    • 1.4 Sentiment Analysis 情绪分析

    Week3

    1. 反向传播与项目指导:Backpropagation and Project Advice
    1. 依赖解析:Dependency Parsing
    1. 论文导读:高效文本分类
    1. 作业: Assignment 2 准备
    • 2.0.1 预习TensorFlow
    • 2.0.2 仔细阅读作业2的要求,自学作业里要求里提到的神经网络训练方法

    Week4

    1. TensorFlow入门
    1. RNN和语言模型
    1. 论文导读:词嵌入对传统方法的启发
    1. 作业:Assignment 2.1
    • 2.1 Tensorflow Softmax 基于TensorFlow的softmax分类
    • 2.2 Neural Transition-Based Dependency Parsing 基于神经网络的依赖分析

    Week5

    1. 高级LSTM及GRU:LSTM and GRU
    1. 期中复习
    1. 论文导读:基于转移的神经网络句法分析的结构化训练
    1. 作业:Assignment 2.3
    • 2.3 Recurrent Neural Networks: Language Modeling 循环神经网络语言建模

    Week6

    1. 机器翻译、序列到序列、注意力模型:Machine Translation, Seq2Seq and Attention
    1. GRU和NMT的进阶
    1. 论文导读:谷歌的多语种神经网络翻译系统
    1. 作业:Assignment 3.1
    • 3.1 A window into named entity recognition(NER)基于窗口模式的名称识别

    Week7

    1. 语音识别的end-to-end模型
    1. 卷积神经网络:CNN
    1. 论文导读:读唇术
    1. 作业:Assignment 3.2
    • 3.2 Recurrent neural nets for named entity recognition(NER) 基于RNN的名称识别

    Week8

    1. Tree RNN与短语句法分析
    1. 指代消解
    1. 论文导读:谷歌的多语种神经网络翻译系统
    1. 作业Assignment 3.3
    • 3.3 Grooving with GRUs((NER)基于GRU的名称识别

    Week9

    1. DMN与问答系统
    1. NLP存在的问题与未来的架构
    1. 论文导读:学习代码中的语义
    1. 课程大作业:
      Kaggle:Quora垃圾问题分类

    Week10

    1. 挑战深度学习与自然语言处理的极限
    1. 论文导读:neural-turing-machines

    3 论文导读: 深度强化学习用于对话生成

    Week11

    1. 论文导读:图像对话
    1. 比赛复盘
    2. 课程总结

    项目简介

    🚀 Github 镜像仓库 🚀

    源项目地址

    https://github.com/learning511/cs224n-learning-camp

    发行版本

    当前项目没有发行版本

    贡献者 4

    L learning511 @learning511
    4 446734796@qq.com @446734796@qq.com
    “learning511” @“learning511”

    开发语言

    • Python 65.1 %
    • HTML 17.7 %
    • CSS 11.5 %
    • JavaScript 5.4 %
    • Shell 0.3 %