未验证 提交 3b17ab42 编写于 作者: 那伊抹微笑 提交者: GitHub

Merge pull request #7 from jiangzhonglian/v0.1.0

修改标题格式
---
id: api
title:API
---
# API
我们使用 doxygen 自动生成我们的 [API documentation](/docs/en/html/index.html).
---
id: cheatsheet
title: Cheatsheet
---
# Cheatsheet(备忘单)
## Word representation learning(词表示学习)
......
---
id: crawl-vectors
title: Word vectors for 157 languages
---
# 157种语言的词向量
我们发布了之前训练的 157 种语言的词向量,这些词向量是用 fasttext 在 [*Common Crawl*](http://commoncrawl.org/)[*Wikipedia*](https://www.wikipedia.org) 上训练得出的
......
---
id: dataset
title: Datasets
---
# 数据集
[下载 YFCC100M 数据集](https://fb-public.box.com/s/htfdbrvycvroebv9ecaezaztocbcnsdn)
---
id: english-vectors
title: English word vectors
---
# 英文单词向量
这一篇整合了一些之前用 fasttext 训练的词向量。
......
---
id: faqs
title:FAQ
---
# 常问问题
## 什么是 fastText? 有教程吗?
......
---
id: language-identification
title: Language identification
---
# 语言识别
### 说明
......
---
id: options
title: List of options
---
# 选项列表
调用不带参数的命令来列出可用参数及其默认值:
......
---
id: pretrained-vectors
title: Wiki word vectors
---
# 维基词向量
我们正在为 294 种语言发布预训练的单词向量, 并使用 fastText 在 [*维基百科*](https://www.wikipedia.org) 上进行了训练. 这些 300 维的向量是通过使用 [*Bojanowski 等人 (2016)*](https://arxiv.org/abs/1607.04606) 描述的 skip-gram 模型(使用: 默认参数)获得的.
......
---
id: references
title: References
---
# 参考
如果使用此代码学习词语表示, 请引用 [1](#enriching-word-vectors-with-subword-information); 如果使用文本分类, 请引用 [2](#bag-of-tricks-for-efficient-text-classification)
......
---
id: supervised-models
title: Supervised models
---
# 监督模型
这个页面收集了几个预先训练好的监督模型,其训练数据来自于几个不同的数据集。
......
---
id: supervised-tutorial
title: Text classification
---
# 文本分类
文本分类是许多应用程序的核心问题,例如垃圾邮件检测,情感分析或智能回复。 在本教程中,我们将介绍如何使用fastText工具构建文本分类器。
......
---
id: support
title: Get started
---
# 快速入门
## 什么是快速文本?
......
---
id: unsupervised-tutorial
title: Word representations
---
# 词语表达
现代机器学习中的一个普遍观点是用向量表示单词。这些向量获取有关语言的隐藏信息,如词类或语义。它也被用来提高文本分类器的性能。
在本教程中,我们将演示如何使用 fastText 来构建这些词向量。需要下载并安装 fastText,请按照[文本分类教程](https://fasttext.cc/docs/en/supervised-tutorial.html)的第一步进行操作。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册