编程语言
首页 > 编程语言> > 关联规则算法

关联规则算法

作者:互联网

apriori算法

参考链接: https://www.cnblogs.com/pinard/p/6293298.html https://www.cnblogs.com/lsqin/p/9342926.html https://blog.csdn.net/antkillerfarm/article/details/60880477
# Apriori算法
#自底向上,是否可以改进为自顶向下,先拆分,再频数统计
#首先根据支持度将各元素中低于支持度的子元素删除,再计算?
"""
由于Apriori算法假定项集中的项是按字典序排序的,而集合本身是无序的,所以我们在必要时需要进行set和list的转换;
由于要使用字典(support_data)记录项集的支持度,需要用项集作为key,而可变集合无法作为字典的key,因此在合适时机应将项集转为固定集合frozenset。
支持度
置信度
"""

import time
import numpy as np
from collections import Counter

class apriori_algorithm:
 
    # 算法初始化
    def __init__(self, minSupport, dataSet):
        self.minSupport = minSupport  # 最小支持度
        self.dataSet = dataSet  # 数据集
 
    # 加载数据集
    def loaddata(self):
        return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]
 
    # 生成单个物品的项集列表
    def generateC1(self, dataSet):
        C1 = []  # 用于存放生成的单个物品的项集列表
        # 遍历数据集
        for data in dataSet:
            for item in data:
                if [item] not in C1:
                    C1.append([item])
        C1.sort()
        #关于map对象的遍历,在内循环中遍历完最后一个元素后,再次访问时会返回空列表,故转为list
        #frozenset集合运算结果均为frozenset
        return list(map(frozenset, C1))
    
    
    def generateL1(self, dataSet, minSupport, support_data):
        # 遍历数据集
        numItems = float(len(dataSet))
        uni_items = {frozenset([k]):v/numItems for k,v in Counter(sum(dataSet, [])).items() if v/numItems >= minSupport}
        L1 = list(uni_items.keys())
        support_data.update(uni_items)
        return L1
    
 
    # 根据候选k项集,找出频繁k项集,并保存支持度信息备用
    def generateLk_by_Ck(self, dataSet, Ck, minSupport, support_data):
        """
           Generate Lk by executing a delete policy from Ck.
           Args:
               data_set: 数据集
               Ck: A set which contains all all frequent candidate k-itemsets.
               min_support: The minimum support.
               support_data: A dictionary. The key is frequent itemset and the value is support.
           Returns:
               Lk: A set which contains all all frequent k-itemsets.
           """
        #候选集在样本出现频数统计
        countData = dict()
        for d in map(set, dataSet):  #迭代器,大数据集只访问一次
            for c in Ck:
                if c.issubset(d):  #子集判断,并非元素判断
                    countData[c] = countData.get(c, 0) + 1
                    
        #由候选集生成频繁项集
        #tmp = {k:v/numItems for k,v in countData.items() if v/numItems >= minSupport}
        #support_data.update(tmp)
        Lk = []  #即Lk
        numItems = float(len(dataSet))
        for key in countData:
            support = countData[key] / numItems
            if support >= minSupport:
                Lk.append(key)  #Lk.insert(0, key)
                support_data[key] = support
 
        return Lk
    
    
    #根据频繁k项集产生候选k+1项集
    #通过候选k项集中仅有一个子元素不同的两个元素合成候选k+1项集的元素 -- 频繁项集的子集一定是频繁的
    def generateCK1(self, Lk, k):
        Ck = set()  #防止重复
        len_Lk = len(list(Lk))
        list_Lk = list(Lk)
        for i in range(len_Lk-1):  #len_Lk<=1时,直接返回Ck空
            for j in range(i+1, len_Lk):  #C(n,2)
                l1 = list(list_Lk[i])
                l2 = list(list_Lk[j])
                #l1.sort(); l2.sort()
                ##还可以判断子集。一定是前两个?任意两个 -- 频繁项集的子集一定是频繁的
                if l1[0:k - 2] == l2[0:k - 2]:
                    Ck_item = list_Lk[i] | list_Lk[j]
                    if self.isCk(Ck_item, list_Lk):
                        Ck.add(Ck_item)
        return Ck
    
    
    def generateCK(self, Lk, k):
        Ck = set()  #防止重复
        len_Lk = len(Lk)
        for i in range(len_Lk-1):  #len_Lk<=1时,直接返回Ck空
            for j in range(i+1, len_Lk):  #C(n,2)
                Ck_item = Lk[i] | Lk[j]
                ##还可以判断子集。一定是前两个?任意两个 -- 频繁项集的子集一定是频繁的
                if len(Ck_item) == k and max(Lk[i]) not in Lk[j]:
                    if self.isCk(Ck_item, Lk):  #缩减候选集范围
                        Ck.add(Ck_item)
        return Ck
    
    
    # 频繁项集判断
    def isCk(self, Ck_item, list_Lk):
        for item in Ck_item:
            sub_Ck = Ck_item - frozenset([item])
            if sub_Ck not in list_Lk:
                return False
        return True
    
    
    def generate_L(self, dataSet, k, min_support):
        """
           Generate all frequent itemsets.
           Args:
               data_set:数据集
               k: 频繁项集中含有的最多的元素
               min_support: 最小支持度
           Returns:
               L: 出现的所有频繁项集
               support_data: 每个频繁项集对应的支持度
           """
        support_data = {}
        dataSet = dataSet.copy()
        #C1 = self.generateC1(dataSet)
        #L1 = self.generateLk_by_Ck(dataSet, C1, min_support, support_data)
        L1 = self.generateL1(dataSet, min_support, support_data)
        Lksub1 = L1.copy()
 
        L = []
        L.append(Lksub1)
 
        for i in range(2, k + 1):
            Ci = self.generateCK(Lksub1, i)
            if len(Ci) == 0: break  #候选集为空,无法产生频繁集
            Li = self.generateLk_by_Ck(dataSet, Ci, min_support, support_data)
            Lksub1 = Li.copy()
            L.append(Lksub1)
            if len(Li) <= 1: break  #频繁集元素个数小于等于1,无法产生下一轮候选集
        return L, support_data
    
    
    # 生成关联规则
    def generate_big_rules(self, L, support_data, min_conf, min_lift):
        """
        Generate big rules from frequent itemsets.
        Args:
            L: 所有频繁项集的列表
            support_data: 每个频繁项集对应的支持度
            min_conf: 最小可信度
        """
        big_rule_list = []
        if len(L) <= 1:
            print('无法生成关联规则')
            return big_rule_list
        
        sub_set_list = L[0]
        for freq_set in sum(L[1:], []):  #如果数据量较大,还是改为嵌套循环吧
            for sub_set in sub_set_list:
                if sub_set.issubset(freq_set):
                    conf = support_data[freq_set] / support_data[freq_set - sub_set]
                    lift = conf / support_data[sub_set]
                    big_rule = (freq_set - sub_set, sub_set, conf, lift)
 
                    if conf >= min_conf and lift >= min_lift:  #and big_rule not in big_rule_list
                        print(freq_set - sub_set, " => ", sub_set, "conf: ", conf, "lift: ", lift)
                        big_rule_list.append(big_rule)
            sub_set_list.append(freq_set)
        return big_rule_list
 

if __name__ == '__main__':
    #参考链接:https://www.cnblogs.com/pinard/p/6293298.html
    #https://www.cnblogs.com/lsqin/p/9342926.html
    #https://blog.csdn.net/antkillerfarm/article/details/60880477
    minSup, minConf, minLift = 0.5, 0.5, 1  #提升度lift>1表示正相关, 确信度conviction
    #dataSet = [list(set(i)) for i in np.random.randint(10, size=(10000,10)).tolist()]
    dataSet = [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5], [1, 3]]  #[[1, 3, 4], [2, 3, 8,9], [1, 2, 3, 5], [2, 8,9]]
    t0 = time.time()
    '''dataSet: list
    10,(10000,10):    2.7s
    100,(1000000,10): 3h+
    '''
    apriori = apriori_algorithm(minSupport=minSup, dataSet=dataSet)
    
    L, support_data = apriori.generate_L(dataSet, 3, minSup)
 
    print('所有频繁项集列表:\n', L)
    print('所有频繁项集对应的支持度:\n', support_data)
    big_rule_list = apriori.generate_big_rules(L, support_data, minConf, minLift)
    print('耗时:\n', time.time() - t0)
    #print('所有满足条件的关联规则:\n', big_rule_list)

  FP-growth算法

# -*- coding: utf-8 -*-
"""
Created on Tue Jun 25 15:49:56 2019

@author: epsoft
"""

# FP树类
import time
class treeNode:
    def __init__(self, nameValue, numOccur, parentNode):
        self.name = nameValue  #节点元素名称,在构造时初始化为给定值
        self.count = numOccur   # 出现次数,在构造时初始化为给定值
        self.nodeLink = None   # 指向下一个相似节点的指针,默认为None
        self.parent = parentNode   # 指向父节点的指针,在构造时初始化为给定值
        self.children = {}  # 指向子节点的字典,以子节点的元素名称为键,指向子节点的指针为值,初始化为空字典

    # 增加节点的出现次数值
    def inc(self, numOccur):
        self.count += numOccur

    # 输出节点和子节点的FP树结构
    def disp(self, ind=1):
        print(' ' * ind, self.name, ' ', self.count)
        for child in self.children.values():
            child.disp(ind + 1)

# =======================================================构建FP树==================================================

# 对不是第一个出现的节点,更新头指针块。就是添加到相似元素链表的尾部
def updateHeader(nodeToTest, targetNode):
    while (nodeToTest.nodeLink != None):
        nodeToTest = nodeToTest.nodeLink
    nodeToTest.nodeLink = targetNode

# 根据一个排序过滤后的频繁项更新FP树
def updateTree(items, inTree, headerTable, count):
    if items[0] in inTree.children:
        # 有该元素项时计数值+1
        inTree.children[items[0]].inc(count)
    else:
        # 没有这个元素项时创建一个新节点
        inTree.children[items[0]] = treeNode(items[0], count, inTree)
        # 更新头指针表或前一个相似元素项节点的指针指向新节点
        if headerTable[items[0]][1] == None:  # 如果是第一次出现,则在头指针表中增加对该节点的指向
            headerTable[items[0]][1] = inTree.children[items[0]]
        else:
            updateHeader(headerTable[items[0]][1], inTree.children[items[0]])

    if len(items) > 1:
        # 对剩下的元素项迭代调用updateTree函数
        updateTree(items[1::], inTree.children[items[0]], headerTable, count)

# 主程序。创建FP树。dataSet为事务集,为一个字典,键为每个事物,值为该事物出现的次数。minSup为最低支持度
def createTree(dataSet, minSup=1):
    '''dataSet: {frozenset({'h', 'j'}): 1,}'''
    # 第一次遍历数据集,创建头指针表
    headerTable = {}
    for trans in dataSet:
        for item in trans:
            headerTable[item] = headerTable.get(item, 0) + dataSet[trans]
    # 移除不满足最小支持度的元素项
    keys = list(headerTable.keys()) # 因为字典要求在迭代中不能修改,所以转化为列表
    for k in keys:
        if headerTable[k] < minSup:
            del(headerTable[k])
    # 空元素集,返回空
    freqItemSet = set(headerTable.keys())
    if len(freqItemSet) == 0:
        return None, None
    # 增加一个数据项,用于存放指向相似元素项指针
    for k in headerTable:
        headerTable[k] = [headerTable[k], None]  # 每个键的值,第一个为个数,第二个为下一个节点的位置
    retTree = treeNode('Null Set', 1, None) # 根节点
    # 第二次遍历数据集,创建FP树
    for tranSet, count in dataSet.items():
        localD = {} # 记录频繁1项集的全局频率,用于排序
        for item in tranSet:
            if item in freqItemSet:   # 只考虑频繁项
                localD[item] = headerTable[item][0] # 注意这个[0],因为之前加过一个数据项
        if len(localD) > 0:
            orderedItems = [v[0] for v in sorted(localD.items(), key=lambda x: x[1], reverse=True)] # 排序
            updateTree(orderedItems, retTree, headerTable, count) # 更新FP树
    return retTree, headerTable

# =================================================查找元素条件模式基===============================================

# 直接修改prefixPath的值,将当前节点leafNode添加到prefixPath的末尾,然后递归添加其父节点。
# prefixPath就是一条从treeNode(包括treeNode)到根节点(不包括根节点)的路径
def ascendTree(leafNode, prefixPath):
    if leafNode.parent != None:
        prefixPath.append(leafNode.name)
        ascendTree(leafNode.parent, prefixPath)

# 为给定元素项生成一个条件模式基(前缀路径)。basePet表示输入的频繁项,treeNode为当前FP树中对应的第一个节点
# 函数返回值即为条件模式基condPats,用一个字典表示,键为前缀路径,值为计数值。
def findPrefixPath(basePat, treeNode):
    condPats = {}  # 存储条件模式基
    while treeNode != None:
        prefixPath = []  # 用于存储前缀路径
        ascendTree(treeNode, prefixPath)  # 生成前缀路径
        if len(prefixPath) > 1:
            condPats[frozenset(prefixPath[1:])] = treeNode.count  # 出现的数量就是当前叶子节点的数量
        treeNode = treeNode.nodeLink  # 遍历下一个相同元素
    return condPats

# =================================================递归查找频繁项集===============================================
# 根据事务集获取FP树和频繁项。
# 遍历频繁项,生成每个频繁项的条件FP树和条件FP树的频繁项
# 这样每个频繁项与他条件FP树的频繁项都构成了频繁项集

# inTree和headerTable是由createTree()函数生成的事务集的FP树。
# minSup表示最小支持度。
# preFix请传入一个空集合(set([])),将在函数中用于保存当前前缀。
# freqItemList请传入一个空列表([]),将用来储存生成的频繁项集。
def mineTree(inTree, headerTable, minSup, preFix, freqItemList):
    # 对频繁项按出现的数量进行排序进行排序
    sorted_headerTable = sorted(headerTable.items(), key=lambda p: p[1][0])  #返回重新排序的列表。每个元素是一个元组,[(key,[num,treeNode],())
    bigL = [v[0] for v in sorted_headerTable]  # 获取频繁项
    for basePat in bigL:
        newFreqSet = preFix.copy()  # 新的频繁项集
        newFreqSet.add(basePat)     # 当前前缀添加一个新元素
        freqItemList.append(newFreqSet)  # 所有的频繁项集列表
        condPattBases = findPrefixPath(basePat, headerTable[basePat][1])  # 获取条件模式基。就是basePat元素的所有前缀路径。它像一个新的事务集
        myCondTree, myHead = createTree(condPattBases, minSup)  # 创建条件FP树

        if myHead != None:
            #print('conditional tree for:', newFreqSet)  #用于测试
            #myCondTree.disp()
            mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)  # 递归直到不再有元素

# 生成数据集
def loadSimpDat():
    simpDat = [['r', 'z', 'h', 'j', 'p'],
               ['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],
               ['z'],
               ['r', 'x', 'n', 'o', 's'],
               ['y', 'r', 'x', 'z', 'q', 't', 'p'],
               ['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]
    return simpDat

# 将数据集转化为目标格式
def createInitSet(dataSet):
    retDict = {}
    for trans in dataSet:
        retDict[frozenset(trans)] = retDict.get(frozenset(trans), 0) + 1
    return retDict

if __name__=='__main__':
    minSupRate = 0.01
    t0 = time.time()
    #加载数据集
    simpDat = loadSimpDat()
    #simpDat = transactions
    minSup = minSupRate*len(simpDat)
    #转化为符合格式的事务集
    initSet = createInitSet(simpDat)
    #形成FP树
    myFPtree, myHeaderTab = createTree(initSet, minSup)
    #myFPtree.disp()  # 打印树
    
    #生成频繁项集
    freqItems = []
    mineTree(myFPtree, myHeaderTab, minSup, set([]), freqItems)
    print('频繁项集:\n', freqItems)
    print('耗时:', time.time()-t0)
    

  

 

标签:items,self,关联,dataSet,算法,def,规则,项集,headerTable
来源: https://www.cnblogs.com/iupoint/p/11230472.html