Python数据挖掘学习笔记(6)频繁模式挖掘算法----Apriori

一、相关原理

      Apriori算法是一种最有影响的挖掘布尔关联规则频繁项集的算法。其核心是基于两阶段频集思想的递推算法。该关联规则在分类上属于单维、单层、布尔关联规则。在这里,所有支持度大于最小支持度的项集称为频繁项集,简称频集。该算法的基本思想 是:首先找出所有的频集,这些项集出现的频繁性至少和预定义的最小支持度一样。然后由频集产生强关联规则,这些规则必须满足最小支持度和最小可信度。然后使用第1步找到的频集产生期望的规则,产生只包含集合的项的所有规则,其中每一条规则的右部只有一项,这里采用的是中规则的定义。一旦这些规则被生成,那么只有那些大于用户给定的最小可信度的规则才被留下来。为了生成所有频集,使用了递归的方法。

      总之,Apriori通过对数据的关联性进行了分析和挖掘,挖掘出的这些信息在决策制定过程中具有重要的参考价值。

二、算法实现

1、apriori.py:算法的代码文件

import pandas as pd

# 自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
    x = list(map(lambda i: sorted(i.split(ms)), x))
    l = len(x[0])
    r = []
    for i in range(len(x)):
        for j in range(i, len(x)):
            if x[i][:l - 1] == x[j][:l - 1] and x[i][l - 1] != x[j][l - 1]:
                r.append(x[i][:l - 1] + sorted([x[j][l - 1], x[i][l - 1]]))
    return r


# 寻找关联规则的函数,输入数据、最小支持度、置信度以及用于表达多个物品联系的连接符
def find_rule(d, support, confidence, ms=u'--'):
    result = pd.DataFrame(index=['support', 'confidence'])  # 定义输出结果

    support_series = 1.0 * d.sum() / len(d)  # 支持度序列
    column = list(support_series[support_series > support].index)  # 初步根据支持度筛选
    k = 0

    while len(column) > 1:
        k = k + 1
        print(u'\n正在进行第%s次搜索...' % k)
        column = connect_string(column, ms)
        print(u'数目:%s...' % len(column))
        sf = lambda i: d[i].prod(axis=1, numeric_only=True)  # 新一批支持度的计算函数

        # 创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
        d_2 = pd.DataFrame(list(map(sf, column)), index=[ms.join(i) for i in column]).T

        support_series_2 = 1.0 * d_2[[ms.join(i) for i in column]].sum() / len(d)  # 计算连接后的支持度
        column = list(support_series_2[support_series_2 > support].index)  # 新一轮支持度筛选
        support_series = support_series.append(support_series_2)
        column2 = []

        for i in column:  # 遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
            i = i.split(ms)
            for j in range(len(i)):
                column2.append(i[:j] + i[j + 1:] + i[j:j + 1])

        cofidence_series = pd.Series(index=[ms.join(i) for i in column2])  # 定义置信度序列

        for i in column2:  # 计算置信度序列
            cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))] / support_series[ms.join(i[:len(i) - 1])]

        for i in cofidence_series[cofidence_series > confidence].index:  # 置信度筛选
            result[i] = 0.0
            result[i]['confidence'] = cofidence_series[i]
            result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]

    result = result.T.sort_values(['confidence', 'support'], ascending=False)  # 结果整理,输出
    print(u'\n结果为:')
    print(result)

    return result

      编写完之后,将apriori.py拷贝至python目录中的Lib文件夹下用于引用。

三、算法应用

1、现有图书购买示例数据:下载地址:https://pan.baidu.com/s/1bWkU-bqKs70CA6d-BK6tWQ  提取码:aevq       
Python数据挖掘学习笔记(6)频繁模式挖掘算法----Apriori_第1张图片

        每一行代表了每一个用户的购买记录,每一列代表了用户购买的物品。

2、编写代码:

from apriori import * #导入编写的算法文件
import pandas as pda
filename="E:\\图书购买记录.xls"
dataframe=pda.read_excel(filename,usecols='B:G')#用户序号列无用,因此不进行导入
#数据转化,行为每个用户,列为每本图书,若用户购买了图书则为1,否则为0
change=lambda x:pda.Series(1,index=x[pda.notnull(x)])
mapok=map(change,dataframe.values)
data=pda.DataFrame(list(mapok)).fillna(0)

#临界支持度,置信度设置
spt=0.1
cfd=0.3

#置信度计算
find_rule(data,spt,cfd,"→")

3、代码中转化后的data矩阵:

      Python数据挖掘学习笔记(6)频繁模式挖掘算法----Apriori_第2张图片

4、运行结果:

       Python数据挖掘学习笔记(6)频繁模式挖掘算法----Apriori_第3张图片

     support与confidence列即表示不同组合的支持度与置信度,支持度越大则表示关联性越强。

你可能感兴趣的:(Python)