Pandas
读取赛题数据赛题数据虽然是文本数据,每个新闻是不定长的,但任然使用csv格式进行存储。因此可以直接用Pandas
完成数据读取的操作。
import pandas as pd
train_df = pd.read_csv('.../data/train_set.csv',sep='\t',nrows=100)
这里的read_csv
由三部分构成:
读取的文件路径,这里需要根据改成你本地的路径,可以使用相对路径或绝对路径;
分隔符sep
,为每列分割的字符,设置为\t
即可;
nrows
,为此次读取文件的函数,是数值类型(由于数据集比较大,建议先设置为100);这里nrows指的是读取数据的的行数,比如training_set.csv的100行,就单纯指的是csv中的行数。
在读取完成数据集后,我们还可以对数据集进行数据分析的操作。虽然对于非结构数据并不需要做很多的数据分析,但通过数据分析还是可以找出一些规律的。
此步骤我们读取了所有的训练集数据,在此我们通过数据分析希望得出以下结论:
代码段如下:
#读取数据,利用的是pandas库
data_file = 'D:/Anaconda3/envs/pytorch/GL_Learning/nlp_task/data'
train_df = pd.read_csv(data_file + '/train_set.csv', sep='\t', nrows=100)
test_df = pd.read_csv(data_file + '/test_a.csv', sep='\t')
#句子长度分析
train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' ')))
print(train_df['text_len'].describe())
plt.figure()
plt.hist(train_df['text_len'], bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")
plt.show()
plt.figure()
train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")
plt.show()
上述的代码有句子长度分析,句子长度的Hist图输出,句子种类的分析:
句子长度分析
句子字符长度hist图
句子类别分析
在数据集中标签的对应的关系如下:{'科技': 0, '股票': 1, '体育': 2, '娱乐': 3, '时政': 4, '社会': 5, '教育': 6, '财经': 7, '家居': 8, '游戏': 9, '房产': 10, '时尚': 11, '彩票': 12, '星座': 13}
从统计结果可以看出,赛题的数据集类别分布存在较为不均匀的情况。在训练集中科技类新闻最多,其次是股票类新闻,最少的新闻是星座新闻。
接下来可以统计每个字符出现的次数,首先可以将训练集中所有的句子进行拼接进而划分为字符,并统计每个字符的个数。
从统计结果中可以看出,在训练集中(这里我们只取了100行)总共包括2493个字,其中编号3750的字出现的次数最多,编号5034的字出现的次数最少。
from collections import Counter
all_lines = ''.join(list(train_df['text']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse=True)
print(len(word_count), word_count[0], word_count[-1])
结果分析
这里还可以根据字在每个句子的出现情况,反推出标点符号。下面代码统计了不同字符在句子中出现的次数,其中字符3750,字符900和字符648在20w新闻的覆盖率接近99%,很有可能是标点符号。
按常理来说,在一个篇幅比较大的文章中,出现次数最多的为标点符号,故出现次数最多的几类,极有可能是我们所预测的标点符号。
train_df['text_unique'] = train_df['text'].apply(lambda x: ' '.join(list(set(x.split(' ')))))
all_lines2 = ' '.join(list(train_df['text_unique']))
word_count2 = Counter(all_lines2.split(" "))
word_count2 = sorted(word_count2.items(), key=lambda d:int(d[1]), reverse=True)
print(word_count2[0],word_count2[1],word_count2[3],word_count2[4])
结果分析
通过上述分析我们可以得出以下结论:
通过数据分析,我们还可以得出以下结论:
每个新闻平均字符个数较多,可能需要截断;
由于类别不均衡,会严重影响模型的精度。
类别不平衡,我们可以尝试使用Focal loss损失函数来解决这种类别不平衡问题
这题我有思路,但是没有想写,找出每个新闻中3750,900,648的出现次数,利用一个变量做累加计算,若出现一次,则有一句话,这里将逗号前后也判断为1个句子,最后放入一个(1,len(train_df))的矩阵,然后求平均即可。
这个我写出了答案,具体代码如下:
all_char_class = []
for u in range(14):
all_char_class.append([])
#print(all_char_class)
for i in range(len(train_df['text'])):
for a in range(14):
if train_df['label'][i] == a:
all_char_class[a].append(train_df['text'][i])
for u in range(14):
all_line = ''.join(list(all_char_class[u]))
word_count = Counter(all_line.split(" "))
word_count = sorted(word_count.items(), key=lambda d: d[1], reverse=True)
print('label is %d'%u,'the length is %d'%len(word_count),word_count[0])
每类标签的最大字符数