[分享发现] 汉语中的词频及笔画数分布规律探析

一篇汉字词频与笔画数规律的数据分析小文,和大家交流,也请大佬们多指教,V2EX 不能很好的显示数学公式,所以贴上自己的博文地址和 GitHub 仓库地址:

博文地址: https://md.metaquant.org/2018/words.html

notebook 地址: https://github.com/sorrowise/chinese_data_analysis/blob/master/chinese_data_analysis_CH.ipynb

GitHub repo: https://github.com/sorrowise/chinese_data_analysis

以下为正文:




一、引言

大约八十年前,哈佛大学的语言学家乔治·金斯利·齐普夫(George Kingsley Zipf)对英语中的词频分布进行了研究,发现了一条经验规律,他发现:如果把一篇较长文章中每个词出现的频次统计起来,按照高频词在前、低频词在后的递减顺序排列,并用自然数个这些词编上的等级序号,即频次最高的词等级为 1,频次次之的等级为 2 等等,若用$F$表示频次,$R$表示序号,则有$FR=C$($C$为常数),也就是说词语的频次和其频次排名呈反比例关系。假如以单词的频次排名为横轴,以单词的频次为纵轴绘制散点图,会发现图形大致呈现双曲线形。为了数学上处理的方便,我们可以对词频及词频排名取对数(自然对数或以十为底的对数均可),考虑到:$F=\frac{C}{R}$,则有: $$ log(F)=log(C)-log(R) $$ 所以$log(F)$与$log(R)$应呈线性关系,在图形上应该是一条直线,如下:

受到齐普夫的启发,其它学者也纷纷验证该定律对其它语言的适用性,他们发现齐普夫定律在很多语言中也是成立的。如上图,频次排名对数与频次的对数成线性关系。一个很自然的问题是,该定律在汉语中的适用性如何?

汉字作为象形文字,显著不同于以英语为代表的拼音文字,其语言的基本单位为单字,然后再由单字组成两字词、三字词等以表达更加复杂的意义。拼音文字的基本单位为单词,意义的扩展通过创造新词汇或者拼接已有单词组成新词汇来实现。因此,英语可以以单词为单位来统计词频,而汉语则必须以词语为基本单位来统计,这既包括单字,也包括多字词,只有这样才能准确描述汉语词频的分布规律

利用教育部语言文字应用研究所计算语言学研究室提供的 在线语料库字词频数据,我们可以检验齐普夫定律在汉语中的适用性,加深我们对汉语词频分布规律的认识。由于以上数据并不包括汉字的笔画数数据,我们可以利用笪骏提供的 现代汉语单字频率列表,进一步研究汉字笔画数的分布规律。

我们使用 jupyter notebook 对以上数据进行分析,相关 notebook 及数据文件已经上传到 这个仓库,大家可以下载数据进行分析验证。数据文件版权归原作者所有,如有侵权请通知我删除。

二、汉语词频分布规律

首先,我们导入一些数据分析必要的库,并做一些初始化设置:

  import numpy as np
import statsmodels.api as sm
import matplotlib.pyplot as plt
import warnings
warnings.filterwarnings("ignore")
import seaborn as sns
sns.set(style="white",color_codes=True)
import pandas as pd
%matplotlib inline
plt.rcParams['figure.figsize'] = (15,9.27)

然后导入 word_freq.xlsx这个数据文件,这个数据文件收录了现代汉语语料库中出现次数大于 50 次的词的出现次数、频率与累计频率数据。该语料库的规模为 2000 万字,该表共收集了 14629 个词,既包括单字,也包括多字词。让我们先看下数据的基本情况:

  df = pd.read_excel('word_freq.xlsx')
df.head(10)
rank word freq freq_percent cum_freq_percent
0 1 744863 7.7946 7.7946
1 2 130191 1.3624 9.1570
2 3 118823 1.2434 10.4004
3 4 118527 1.2403 11.6407
4 5 83958 0.8786 12.5193
5 6 81119 0.8489 13.3682
6 7 65146 0.6817 14.0499
7 8 53556 0.5604 14.6103
8 9 52912 0.5537 15.1640
9 10 52728 0.5518 15.7158

数据的前十行显示如上表:其中第一列为汉字中词语按出现频次从高向低排名,如“的”字在语料库中出现的次数最多,则排在第一名;第二列为对应的汉字及词语;第三列为该汉字或词语在语料库中出现的次数,如“的”在语料库中共出现了 744863 次;第四列表示该汉字或词语在语料库中出现的频率的百分比,如“的”出现的频率为 7.7946%;第五列为累计频率,为该汉字(词语)及排名靠前的汉字(词语)累计出现的频率,如到排名第十的汉字“我”,前十名汉字出现的累计频率为 15.7158%。

为了之后分析的方便,我们需要另外计算三列数据,分别为词语频次排名的以 10 为底的对数、频次以 10 为底的对数及词语中汉字数(单字词还是多字词),则:

  df['log_rank'] = np.log10(df['rank'])
df['log_freq'] = np.log10(df['freq'])
df['word_count'] = df['word'].apply(len)
df.head(10)
rank word freq freq_percent cum_freq_percent log_rank log_freq word_count
0 1 744863 7.7946 7.7946 0.000000 5.872076 1
1 2 130191 1.3624 9.1570 0.301030 5.114581 1
2 3 118823 1.2434 10.4004 0.477121 5.074901 1
3 4 118527 1.2403 11.6407 0.602060 5.073817 1
4 5 83958 0.8786 12.5193 0.698970 4.924062 1
5 6 81119 0.8489 13.3682 0.778151 4.909123 1
6 7 65146 0.6817 14.0499 0.845098 4.813888 1
7 8 53556 0.5604 14.6103 0.903090 4.728808 1
8 9 52912 0.5537 15.1640 0.954243 4.723554 1
9 10 52728 0.5518 15.7158 1.000000 4.722041 1

word_count列,我们可以看到,词频表中收录的最长的词包含十个单字,平均而言包含两个单字。通过简单的统计,我们可以看到词语中汉字个数的分布规律如下表:其中两字词出现的次数最多,为 10476 次,占比达到 71.61%;其次为单字词,为 2391 次,占比达到 16.34%。

  # Count the frequency and frequency of occurrences of words of various lengths

word_length = pd.DataFrame(df.word_count.value_counts()).sort_index()
word_length.columns = ['freq']
word_length['freq_percent'] = 100*word_length['freq']/sum(word_length['freq'])
word_length.head(10)
freq freq_percent
1 2391 16.344248
2 10476 71.611183
3 1181 8.073006
4 506 3.458883
5 43 0.293937
6 22 0.150386
7 8 0.054686
8 1 0.006836
10 1 0.006836

现在让我们看看汉语中词频的分布规律是否符合齐普夫定律:

  sns.regplot(df.log_rank,df.log_freq)
plt.xlim(0,4.3)
plt.ylim(1,7)
plt.title('The relationship between the logarithm of the frequency ranking and the logarithm of the frequency')

从上图可以看出,频次排名的对数与频次的关系大致是线性关系,基本符合齐普夫定律。让我们对两个变量做一个线性回归,观察相关指标是否表明两者之间的线性关系足够强。首先,我定义了一个辅助函数,调用 statmodels 库中的相关函数进行线性回归并返回回归结果。

  def reg(y,*args):
    import statsmodels.api as sm
    x = np.vstack((args)).T
    mat_x = sm.add_constant(x)
    res = sm.OLS(y,mat_x).fit()
    print(res.summary())

reg(df.log_rank,df.log_freq)
                              OLS Regression Results                            
==============================================================================
Dep. Variable:               log_rank   R-squared:                       0.990
Model:                            OLS   Adj. R-squared:                  0.990
Method:                 Least Squares   F-statistic:                 1.502e+06
Date:                Sat, 15 Sep 2018   Prob (F-statistic):               0.00
Time:                        10:27:07   Log-Likelihood:                 25420.
No. Observations:               14629   AIC:                        -5.084e+04
Df Residuals:                   14627   BIC:                        -5.082e+04
Df Model:                           1                                         
Covariance Type:            nonrobust                                         
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const          5.7144      0.002   3450.432      0.000       5.711       5.718
x1            -0.8846      0.001  -1225.535      0.000      -0.886      -0.883
==============================================================================
Omnibus:                    15756.722   Durbin-Watson:                   0.007
Prob(Omnibus):                  0.000   Jarque-Bera (JB):          2257816.630
Skew:                          -5.242   Prob(JB):                         0.00
Kurtosis:                      62.952   Cond. No.                         12.8
==============================================================================

Warnings:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.

我们可以发现回归的$R^2=0.99$,并且常数项与自变量的 p 值都小于 1%,这都表明频次的对数与频次排名的对数在很大程度上呈线性关系,这与齐普夫定律的预言一致。但是,我们也可以从回归图形中发现,低频词语的拟合程度更好,而高频词语的拟合程度较差,这表现在,前者基本都位于拟合直线上,而后者则大多位于拟合直线的下方。这说明对于汉语的高频词语而言,齐普夫定律预言的频率要高于高频词语的实际出现频率。我们可以通过下面的残差图更加直观的观察到这一点:

  sns.residplot(df.log_rank,df.log_freq)
plt.ylabel('resid')
plt.title('The relationship between the residual and the logarithm of the frequency ranking')

因此,为了观察不同频次词语的分布规律,我们可以用四分位将频次与排名数据分为四组:前 25%的词语为出现次数大于等于 296 ; 25%至 50%分位的词语的出现次数位于 126 与 296 之间; 50%分位至 75%分位的词语出现次数位于 51 至 126 之间;最后 25%的词语出现频次小于等于 51 次,由于原数据中删除了所有出现次数小于等于 50 次的词语,则最后一部分数据的频次都为 51 次为一个常数,此一部分的回归没有什么意义,但为了完整性,我们还是将其列出来。我们对这四组数据分别做回归并观察其残差图:

  log_rank_first = df.log_rank[df.freq>=296]
log_freq_first = df.log_freq[df.freq>=296]
log_rank_second = df.log_rank[(126<=df.freq) & (df.freq<296)]
log_freq_second = df.log_freq[(126<=df.freq) & (df.freq<296)]
log_rank_third = df.log_rank[(51

  plt.subplot(221)
sns.residplot(log_rank_first,log_freq_first)
plt.title('$frequency \geq 296,R^2=0.992$')
plt.xlabel('')
plt.ylim(-1,0.2)
plt.subplot(222)
sns.residplot(log_rank_second,log_freq_second)
plt.title('$126 \leq frequency \leq 296,R^2=0.999$')
plt.xlabel('')
plt.ylabel('')
plt.ylim(-0.1,0.1)
plt.subplot(223)
sns.residplot(log_rank_third,log_freq_third)
plt.title('$51

我们可以看到对于 25%-75%分位的词语,线性回归的拟合情况非常好,$R^2$均接近于一,而前 25%的高频词语拟合程度就不太好,$R^2$只有$0.992$,而大部分的回归残差都来自于排名前 300 名的词语。总之,汉语词频的分布规律基本与齐普夫定律保持一致,而低频词语的一致性程度更高。从回归结果我们可以得到$log(f)=5.71-0.88log(r)$,则频次排名每增加 1%,其出现频次要下降 0.88%。

三、汉字笔画数分布规律

在 这篇论文里,Bengt Sigurd 等人发现英语中词语的长度与其出现频率的关系大致服务 伽马分布,如下图:

尽管在汉语中没有单词长度这种说法,但汉字的笔画数与其有一定相似之处,它们都衡量了人们为了表达特定的含义而愿意付出多少代价。词语的长度不能太短,因为这样能够形成的词语就太少,不能表达足够丰富的含义;词语的长度也不能太长,这样记忆与表达的难度会提升,从而影响沟通的效率。这就使得英语中长度太长或太短的词语出现的频率都比较低,同样的道理对于汉字的笔画数也是适用的。我们可以使用现有数据,来检验一下汉字笔画数的分布规律是否与英语单词长度的分布规律类似,都服从伽马分布。

首先,让我们导入数据并看一下数据的基本信息:

  sc = pd.read_excel('char_stroke_count.xlsx')
sc.head(10)
rank char stroke_count
0 1 8
1 2 1
2 3 9
3 4 4
4 5 2
5 6 6
6 7 2
7 8 6
8 9 7
9 10 5

该表格共收录了 10000 个汉字,其中第三列为汉字的笔画数,我们可以首先看下汉字笔画数的直方图,从而让我们对汉字笔画数的分布情况有一个直观的理解(如下图)。我们可以看到,笔画数为 10,11 与 12 的汉字较多,频率均处于 9%-10%之间。如果笔画数小于 11,则随着笔画数下降,出现的频率逐渐降低;反之,笔画数大于 11,则随着笔画数上升,出现的频率逐渐降低。

  count_pert = []
for i in range(1,36):
    count_pert.append(len(sc.stroke_count[sc.stroke_count==i])/100.)

x = np.arange(1,36)
sns.barplot(x,count_pert)
plt.xlabel('Number of strokes of Chinese characters')
plt.ylabel('Frequency')
plt.title('Histogram of the number of strokes in Chinese characters')

接下来让我们比较汉字笔画数的实际分布与伽马分布与正态分布的相似程度(如下图),我们可以发现,实际分布与伽马分布非常接近,而与正态分布相距较远。通过绘制 quantiles-quantiles 图,我们可以更加直观的观察到这一点:

  from scipy.stats import norm,gamma,probplot
sns.distplot(sc.stroke_count,hist=False,kde_kws={"shade": True,"label":"actual distribution"},
             fit=gamma,fit_kws={"label":"gamma distribution"},color='c')
sns.distplot(sc.stroke_count,hist=False,fit=norm,
             fit_kws={"label":"norm distribution","color":"red","linestyle":"--"})
plt.ylabel('frequency')
plt.title('real distribution v.s. gamma distribution v.s. norm distribution')
plt.ylim(0,0.1)
plt.legend(frameon=True,fontsize=12)

  plt.subplot(121)
probplot(sc.stroke_count,plot=plt,dist='gamma',sparams=(12.68,),fit=True)
plt.title('actual distribution v.s. gamma distribution')
plt.subplot(122)
probplot(sc.stroke_count,plot=plt,dist='norm',fit=True)
plt.title('actual distribution v.s. norm distribution')

四、结论

有趣的是,虽然英语与汉语之间存在着天壤之别,它们的分布规律却有着很大的相似性。至于为什么会出现这种分布规律,现在还没有一个统一的解释。对于齐普夫定律的成因,目前至少有三种解释:第一种是齐普夫本人的解释,他认为这体现了人思维的经济性,即人类在不影响沟通效率的情况下尽可能的减少记忆词语的负担,这导致了某些常用词汇出现的频率非常高,已经完全足以应付日常生活中的大多数沟通场景。第二种观点认为齐普夫定律是“强者愈强、弱者愈强”这一规律的结果,某些常用词汇会被使用的越来越多,最终会导致类似于幂律分布的情况,其表现形式便是齐普夫定律。第三种观点:很多学者发现,齐普夫定律不仅在语言领域存在,而且在某些与语言并无关系的领域,如城市人口数排名与其人口的关系也服从齐普夫定律。这使得学者们倾向于相信,齐普夫定律的真正原因恐怕与语言的性质关系不大,而是与某种数据生成的过程有关。如 Xavier 在他的论文 Zipf's Law for Cities: An Explanation中给出了一种简单而又美妙的答案:不需要任何条件,只要所有城市人口都以一个同分布的随机速度增长,那么最后的城市人口就会符合 Zipf 法则。这个简单的条件也是 Zipf 分布横跨语言、经济、地理数界的原因之一。

五、参考资料

  1. Zipf ’ s law. (2018). In Wikipedia. Retrieved from https://en.wikipedia.org/w/index.php?title=Zipf%27s_law&oldid=859042231
  2. The mystery of Zipf. (2008, August 21). Retrieved 14 September 2018, from https://plus.maths.org/content/mystery-zipf
  3. Powers, D. M. (1998). Applications and explanations of Zipf ’ s law. In Proceedings of the joint conferences on new methods in language processing and computational natural language learning (pp. 151 – 160). Association for Computational Linguistics.
  4. Gabaix, X. (1999). Zipf ’ s law for cities: an explanation. The Quarterly Journal of Economics, 114(3), 739 – 767.
  5. Li, W. (1992). Random texts exhibit Zipf ’ s-law-like word frequency distribution. IEEE Transactions on Information Theory, 38(6), 1842 – 1845.
  6. Newman, M. E. (2005). Power laws, Pareto distributions and Zipf ’ s law. Contemporary Physics, 46(5), 323 – 351.
  7. Shtrikman, S. (1994). Some comments on Zipf ’ s law for the Chinese language. Journal of Information Science, 20(2), 142 – 143.
  8. Sicilia-Garcia, E. I., Ming, J., & Smith, F. J. (2003). Extension of Zipf ’ s Law to Word and Character N-grams for English and Chinese. International Journal of Computational Linguistics & Chinese Language Processing, Volume 8, Number 1, February 2003: Special Issue on Word Formation and Chinese Language Processing, 8(1), 77 – 102.
  9. Kanter, I., & Kessler, D. A. (1995). Markov processes: linguistics and Zipf ’ s law. Physical Review Letters, 74(22), 4559.

你可能感兴趣的:(分享,发现,汉语)