数据分析和自然语言处理的区别(中文自然语言处理数据集)
数据分析和自然语言处理的区别(中文自然语言处理数据集)情感/观点/评论 倾向性分析新闻分类github/InsaneLife/ChineseNLPCorpus以下来自该项目介绍页中文自然语言处理数据集,平时做做实验的材料。欢迎补充提交合并。
来源:AINLP
本文约1300字,建议阅读5分钟。
本文为你推荐中文自然语言处理数据集。
推荐一个Github项目:ChineseNLPCorpus,该项目收集了一批中文自然语言处理数据集的相关链接,可以用来练手,点击阅读原文可以直达该项目链接:
github/InsaneLife/ChineseNLPCorpus
以下来自该项目介绍页
中文自然语言处理数据集,平时做做实验的材料。欢迎补充提交合并。
文本分类新闻分类
- 今日头条中文新闻(短文本)分类数据集:github/fateleak/toutiao-text-classfication-dataset
- 数据规模:共38万条,分布于15个分类中。
- 采集时间:2018年05月。
- 以0.7 0.15 0.15做分割 。
- 清华新闻分类语料:
- 根据新浪新闻RSS订阅频道2005~2011年间的历史数据筛选过滤生成。
- 数据量:74万篇新闻文档(2.19 GB)
- 小数据实验可以筛选类别:体育 财经 房产 家居 教育 科技 时尚 时政 游戏 娱乐
- thuctc.thunlp/#获取链接
- rnn和cnn实验:github/
- gaussic/text-classification-cnn-rnn
- 中科大新闻分类语料库:nlpir/?action-viewnews-itemid-145
情感/观点/评论 倾向性分析
数据集数据概览ChnSentiCorp_htl_all
7000 多条酒店评论数据,5000 多条正向评论,2000 多条负向评论
waimai_10k
某外卖平台收集的用户评价,正向 4000 条,负向 约 8000 条
online_shopping_10_cats
10 个类别,共 6 万多条评论数据,正、负向评论各约 3 万条, 包括书籍、平板、手机、水果、洗发水、热水器、蒙牛、衣服、计算机、酒店
weibo_senti_100k
10 万多条,带情感标注 新浪微博,正负向评论约各 5 万条
simplifyweibo_4_moods
36 万多条,带情感标注 新浪微博,包含 4 种情感, 其中喜悦约 20 万条,愤怒、厌恶、低落各约 5 万条
dmsc_v2
28 部电影,超 70 万 用户,超 200 万条 评分/评论 数据
yf_dianping
24 万家餐馆,54 万用户,440 万条评论/评分数据
yf_amazon
52 万件商品,1100 多个类目,142 万用户,720 万条评论/评分数据
实体识别&词性标注- 微博实体识别。
- github/hltcoe/golden-horse
- boson数据。
- 包含6种实体类型。
- github/InsaneLife/ChineseNLPCorpus/tree/master/NER/boson
- 1998年人民日报数据集。
- 人名、地名、组织名三种实体类型
- github/InsaneLife/ChineseNLPCorpus/tree/master/NER/renMinRiBao
- MSRA微软亚洲研究院数据集。
- 5 万多条中文命名实体识别标注数据(包括地点、机构、人物)
- github/InsaneLife/ChineseNLPCorpus/tree/master/NER/MSRA
- SIGHAN Bakeoff 2005:一共有四个数据集,包含繁体中文和简体中文,下面是简体中文分词数据。
- MSR: sighan.cs.uchicago.edu/bakeoff2005/
- PKU :sighan.cs.uchicago.edu/bakeoff2005/
OPPO手机搜索排序
OPPO手机搜索排序query-title语义匹配数据集。
下载链接:
pan.baidu/s/1Obm8oRVZEIh76-cpPc0qZw
网页搜索结果评价(SogouE)
- 用户查询及相关URL列表
- sogou/labs/resource/e.php
推荐系统
数据集数据概览ez_douban
5 万多部电影(3 万多有电影名称,2 万多没有电影名称),2.8 万 用户,280 万条评分数据
dmsc_v2
28 部电影,超 70 万 用户,超 200 万条 评分/评论 数据
yf_dianping
24 万家餐馆,54 万用户,440 万条评论/评分数据
yf_amazon
52 万件商品,1100 多个类目,142 万用户,720 万条评论/评分数据
百科数据维基百科
维基百科会定时将语料库打包发布:
- 数据处理博客
- dumps.wikimedia/zhwiki/
百度百科
只能自己爬,爬取得链接:pan.baidu.
com/share/init?surl=i3wvfil提取码 neqs 。
指代消歧
CoNLL 2012 :conll.cemantix
/2012/data.html
预训练:(词向量or模型)BERT
- 开源代码:github/
- google-research/bert
- 模型下载:BERT-Base Chinese: Chinese Simplified and Traditional 12-layer 768-hidden 12-heads 110M parameters
ELMO
- 开源代码:
- github/allenai/bilm-tf
- 预训练的模型:allennlp/elmo
腾讯词向量
腾讯AI实验室公开的中文词向量数据集包含800多万中文词汇,其中每个词对应一个200维的向量。
- 下载地址:ai.tencent
- /ailab/nlp/embedding.html
上百种预训练中文词向量
- 下载地址:github/
- Embedding/Chinese-Word-Vectors
中文完形填空数据集
- 下载地址:github/
- ymcui/Chinese-RC-Dataset
中华古诗词数据库
最全中华古诗词数据集,唐宋两朝近一万四千古诗人 接近5.5万首唐诗加26万宋诗. 两宋时期1564位词人,21050首词。
- 下载地址:github/chinese-poetry/chinese-poetry
保险行业语料库
- 下载地址:github/
- Samurais/insuranceqa-corpus-zh
汉语拆字字典
英文可以做char embedding,中文不妨可以试试拆字
- 下载地址:github/kfcd/chaizi
搜狗实验室
- 搜狗实验室提供了一些高质量的中文文本数据集,时间比较早,多为2012年以前的数据。
- sogou/labs/resource/list_pingce.php
- 中科大自然语言处理与信息检索共享平台
- nlpir/?action-category-catid-28
- 中文语料小数据
- 包含了中文命名实体识别、中文关系识别、中文阅读理解等一些小量数据。
- github/crownpku/Small-Chinese-Corpus
- 维基百科数据集
- dumps.wikimedia/
NLP工具
THULAC:github/thunlp/THULAC :包括中文分词、词性标注功能。
HanLP:github/hankcs/HanLP
哈工大LTP: github/HIT-SCIR/ltp
NLPIR :github/NLPIR-team/NLPIR
jieba :github/yanyiwu/cppjieba
编辑:于腾凯
— 完 —
关注清华-青岛数据科学研究院官方微信公众平台“THU数据派”及姊妹号“数据派THU”获取更多讲座福利及优质内容。