《机器学习实战》 第十一章【使用Apriori算法进行关联分析】

Apriori算法是第一个关联规则挖掘算法,也是最经典的算法。它利用逐层搜索的迭代方法找出数据库中项集的关系,以形成规则,其过程由连接(类矩阵运算)与剪枝(去掉那些没必要的中间结果)组成。该算法中项集的概念即为项的集合。包含K个项的集合为k项集。项集出现的频率是包含项集的事务数,称为项集的频率。如果某项集满足最小支持度,则称它为频繁项集。
——百度百科

目录

  • 算法描述
    • 优缺点
    • 一般过程
    • 相关概念
    • 算法原理
    • 伪代码:
      • 生成候选项集
  • 具体代码

算法描述

优缺点

  • 优点:容易编码实现
  • 缺点:在大数据集上可能较慢
  • 适用数据类型:数值型或标称型数据

一般过程

  • 收集数据:任意方法
  • 准备数据:任何数据类型
  • 分析数据:任意方法
  • 训练算法:Apriori算法找到频繁项集
  • 测试算法:不需要
  • 使用算法:用于发现频繁项集和物品之间的关联规则

相关概念

  • 关联分析:找出大规模数据中有用关系的任务
  • 频繁项集:经常出现在一块的物体的集合
  • 关联规则:两个物品之间存在的某种很强的关系
  • 支持度:一个项集的支持度被定义为数据集中包含该相机的记录所占的比例
  • 可行度/置信度:针对某条关联来定义的,如{尿布} -> {葡萄酒},此关联规则的可信度被定义为:支持度({尿布,葡萄酒})/支持度({尿布})

算法原理

Apriori在拉丁语中是指“来自以前”,定义问题时候,会使用先验知识或假设,贝叶斯统计用先验知识作为条件也非常普遍。Apriori原理是说如果某个项集是频繁的,那么它的所有子集也是频繁的,反过来看,如果子集是不频繁的,那么超集也不是频繁的。利用这个原理就可以进行频繁项集的分析。

伪代码:

生成候选项集

对数据集中的每条交易记录tran:
对每个候选项集can:
	检查can是否为tran的子集:
	如果是,则增加can的计数值
	对每个候选项集:
	如果其支持度不低于最小值,则保留该项集
	返回所有频繁项集列表

Apriori算法

当集合中项中的个数大于0时
	构建一个k个项组成的候选项集的列表
	检查数据以确认每个项集都是频繁的
	保留频繁项集并构建k+1项组成的候选项集的列表

具体代码

from numpy import *

def loadDataSet():
    return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]

def createC1(dataSet):
    C1 = []
    for transaction in dataSet:
        for item in transaction:
            if not [item] in C1:
                C1.append([item])
                
    C1.sort()
    return map(frozenset, C1)#use frozen set so we
                            #can use it as a key in a dict    

def scanD(D, Ck, minSupport):
    ssCnt = {}
    for tid in D:
        for can in Ck:
            if can.issubset(tid):
                if not ssCnt.has_key(can): ssCnt[can]=1
                else: ssCnt[can] += 1
    numItems = float(len(D))
    retList = []
    supportData = {}
    for key in ssCnt:
        support = ssCnt[key]/numItems
        if support >= minSupport:
            retList.insert(0,key)
        supportData[key] = support
    return retList, supportData

def aprioriGen(Lk, k): #creates Ck
    retList = []
    lenLk = len(Lk)
    for i in range(lenLk):
        for j in range(i+1, lenLk): 
            L1 = list(Lk[i])[:k-2]; L2 = list(Lk[j])[:k-2]
            L1.sort(); L2.sort()
            if L1==L2: #if first k-2 elements are equal
                retList.append(Lk[i] | Lk[j]) #set union
    return retList

def apriori(dataSet, minSupport = 0.5):
    C1 = createC1(dataSet)
    D = map(set, dataSet)
    L1, supportData = scanD(D, C1, minSupport)
    L = [L1]
    k = 2
    while (len(L[k-2]) > 0):
        Ck = aprioriGen(L[k-2], k)
        Lk, supK = scanD(D, Ck, minSupport)#scan DB to get Lk
        supportData.update(supK)
        L.append(Lk)
        k += 1
    return L, supportData

def generateRules(L, supportData, minConf=0.7):  #supportData is a dict coming from scanD
    bigRuleList = []
    for i in range(1, len(L)):#only get the sets with two or more items
        for freqSet in L[i]:
            H1 = [frozenset([item]) for item in freqSet]
            if (i > 1):
                rulesFromConseq(freqSet, H1, supportData, bigRuleList, minConf)
            else:
                calcConf(freqSet, H1, supportData, bigRuleList, minConf)
    return bigRuleList         

def calcConf(freqSet, H, supportData, brl, minConf=0.7):
    prunedH = [] #create new list to return
    for conseq in H:
        conf = supportData[freqSet]/supportData[freqSet-conseq] #calc confidence
        if conf >= minConf: 
            print freqSet-conseq,'-->',conseq,'conf:',conf
            brl.append((freqSet-conseq, conseq, conf))
            prunedH.append(conseq)
    return prunedH

def rulesFromConseq(freqSet, H, supportData, brl, minConf=0.7):
    m = len(H[0])
    if (len(freqSet) > (m + 1)): #try further merging
        Hmp1 = aprioriGen(H, m+1)#create Hm+1 new candidates
        Hmp1 = calcConf(freqSet, Hmp1, supportData, brl, minConf)
        if (len(Hmp1) > 1):    #need at least two sets to merge
            rulesFromConseq(freqSet, Hmp1, supportData, brl, minConf)
            
def pntRules(ruleList, itemMeaning):
    for ruleTup in ruleList:
        for item in ruleTup[0]:
            print itemMeaning[item]
        print "           -------->"
        for item in ruleTup[1]:
            print itemMeaning[item]
        print "confidence: %f" % ruleTup[2]
        print       #print a blank line
        

你可能感兴趣的:(机器学习)