天池新闻文本分类——数据读取与数据分析

目录

  • 数据读取
  • 数据分析
    • 句子长度分析
    • 新闻类别分布
    • 字符分布统计
      • 数据分析的结论
    • 作业

数据读取

赛题数据虽然是文本数据,每个新闻是不定长的,但任然使用csv格式进行存储。因此可以直接用Pandas完成数据读取的操作。

import pandas as pd
train_df = pd.read_csv('data/train_set.csv', sep='\t', nrows=100)

read_csv由三部分构成:
读取的文件路径,这里需要根据改成你本地的路径,可以使用相对路径或绝对路径;
分隔符sep,为每列分割的字符,设置为\t即可;
读取行数nrows,为此次读取文件的函数,是数值类型(由于数据集比较大,建议先设置为100);
天池新闻文本分类——数据读取与数据分析_第1张图片
上图为读取好的数据,是表格的形式。第一列为新闻的类别,第二列为新闻的字符。

数据分析

此步骤我们读取了所有的训练集数据,在此我们通过数据分析希望得出以下结论:

赛题数据中,新闻文本的长度是多少?
赛题数据的类别分布是怎么样的,哪些类别比较多?
赛题数据中,字符分布是怎么样的?

句子长度分析

在赛题数据中每行句子的字符使用空格进行隔开,所以可以直接统计单词的个数来得到每个句子的长度。统计并如下:

train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' ')))
print(train_df['text_len'].describe())

输出结果为
天池新闻文本分类——数据读取与数据分析_第2张图片

对新闻句子的统计可以得出,本次赛题给定的文本比较长,每个句子平均由907个字符构成,最短的句子长度为2,最长的句子长度为57921。

下图将句子长度绘制了直方图,可见大部分句子的长度都几种在2000以内。

import matplotlib.pyplot as plt

_ = plt.hist(train_df['text_len'], bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")

天池新闻文本分类——数据读取与数据分析_第3张图片

import numpy as np
 import seaborn as sns
 def split_df(df_row):
    return len(str(df_row).split())
len_dist = np.vectorize(split_df)(train_df['text'])
plt.figure(figsize=(15,5))
len_dist = np.vectorize(split_df)(train_df['text'])
ax = sns.distplot(len_dist, bins=100)
ax.set_xlim([0,max(len_dist)])
ax.set_xlabel("length of sample")
ax.set_ylabel("prob of sample")

天池新闻文本分类——数据读取与数据分析_第4张图片

新闻类别分布

接下来可以对数据集的类别进行分布统计,具体统计每类新闻的样本个数。

train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")

天池新闻文本分类——数据读取与数据分析_第5张图片
在数据集中标签的对应的关系如下:{‘科技’: 0, ‘股票’: 1, ‘体育’: 2, ‘娱乐’: 3, ‘时政’: 4, ‘社会’: 5, ‘教育’: 6, ‘财经’: 7, ‘家居’: 8, ‘游戏’: 9, ‘房产’: 10, ‘时尚’: 11, ‘彩票’: 12, ‘星座’: 13}

从统计结果可以看出,赛题的数据集类别分布存在较为不均匀的情况。在训练集中科技类新闻最多,其次是股票类新闻,最少的新闻是星座新闻。

字符分布统计

接下来可以统计每个字符出现的次数,首先可以将训练集中所有的句子进行拼接进而划分为字符,并统计每个字符的个数。

from collections import Counter
all_lines = ' '.join(list(train_df['text']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse = True)

print(len(word_count))
# 6869

print(word_count[0])
# ('3750', 7482224)

print(word_count[-1])
# ('3133', 1)


从统计结果中可以看出,在训练集中总共包括6869个字,其中编号3750的字出现的次数最多,编号3133的字出现的次数最少。

数据分析的结论

通过上述分析我们可以得出以下结论:

赛题中每个新闻包含的字符个数平均为1000个,还有一些新闻字符较长;
赛题中新闻类别分布不均匀,科技类新闻样本量接近4w,星座类新闻样本量不到1k;
赛题总共包括7000-8000个字符;
通过数据分析,我们还可以得出以下结论:

每个新闻平均字符个数较多,可能需要截断;

由于类别不均衡,会严重影响模型的精度;

作业

1、假设字符3750,字符900和字符648是句子的标点符号,请分析赛题每篇新闻平均由多少个句子构成?

#参考https://superlova.github.io/2020/07/22/%E3%80%90%E7%AB%9E%E8%B5%9B%E6%89%93%E5%8D%A1%E3%80%91%E9%9B%B6%E5%9F%BA%E7%A1%80%E5%85%A5%E9%97%A8NLP%E4%B9%8B%E6%96%B0%E9%97%BB%E6%96%87%E6%9C%AC%E5%88%86%E7%B1%BB%E4%B9%8B%E6%95%B0%E6%8D%AE%E8%AF%BB%E5%8F%96%E4%B8%8E%E5%88%86%E6%9E%90/
def sum_of_sep(row):
    counter = Counter(row.split())
    return counter.get('3750', 0)+counter.get('900', 0)+counter.get('648', 0)
sum_sep = np.vectorize(sum_of_sep)(train_df['text'])
np.round(np.mean(sum_sep+1))

79.0
2、统计每类新闻中出现次数对多的字符

word_count_dict = {}
for name, df in train_df.groupby('label'):
    # print(name, type(df))
    all_text = ' '.join(list(df['text'].apply(lambda x: ' '.join(list(x.split(' '))))))
    word_count_single_class = Counter(all_text.split(" "))
    word_count_single_class = sorted(word_count_single_class.items(), key=lambda d:int(d[1]), reverse = True)
    word_count_dict[name] = word_count_single_class
# 查看每个类别出现最多的词汇
for label in range(14):
    print(index_2_label_dict[label], word_count_dict[label][0])

科技 (‘3750’, 1267331)
股票 (‘3750’, 1200686)
体育 (‘3750’, 1458331)
娱乐 (‘3750’, 774668)
时政 (‘3750’, 360839)
社会 (‘3750’, 715740)
教育 (‘3750’, 469540)
财经 (‘3750’, 428638)
家居 (‘3750’, 242367)
游戏 (‘3750’, 178783)
房产 (‘3750’, 180259)
时尚 (‘3750’, 83834)
彩票 (‘3750’, 87412)
星座 (‘3750’, 33796)

查看TOP10

for label in range(14):
    print(index_2_label_dict[label], [x for x,_ in word_count_dict[label][:10]])

你可能感兴趣的:(NLP实践)