Python算法《查找算法》

顺序搜索也称为线性搜索,属于无序查找算法。

算法原理
思路:从数据结构线性表的一端开始,顺序扫描,依次将扫描到的结点关键字与给定值 k 相比较,若相等则表示查找成功;若扫描结束仍没有找到关键字等于 k 的结点,表示查找失败。

适用性:顺序搜索适合于存储结构为顺序存储或链接存储的线性表。

复杂度分析
最坏复杂度: 从一个线性表依次查找对应项,需要做 n 次查找,在最后一项才查找到对应项或者查找失败(仍然未查找到对应项),时间复杂度为 O(n)。

最好复杂度: 从一个线性表依次查找对应项,第一项就查找到对应项,时间复杂度为 O(1)。

平均复杂度: 假设每个数据元素的概率相等(1/n),1/n(1+2+3+...+n)=(n+1)/2,所以时间复杂度为 O(n)。
 

# -*- coding : utf-8 -*-
# Author: Vick.Pan Create at 2019/8/6 14:43
# File  : seach_algo.py

import math
import random

# 顺序查找
def sequence_search(sequence,target):
    for i in range(len(sequence)):
        if target == sequence[i]:
            return i
    return None


二分搜索也称折半搜索(Binary Search),它是一种效率较高的搜索方法。但是,二分搜索要求线性表必须采用顺序存储结构,而且表中元素按关键字有序排列。

注:定义来自百度百科。

算法原理
二分搜索介绍

适用性: 二分查找的前提是有序表存储,如果是无序的则先要进行排序操作。对于静态查找表,一次排序后不再变化,折半查找能得到不错的效率。但对于需要频繁执行插入或删除操作的数据集来说,维护有序的排序会带来不小的工作量,那就不建议使用。——《大话数据结构》

基本思想: 用给定值 k 先与中间结点的关键字比较,中间结点把线性表分成两个子表,若相等则查找成功;若不相等,再根据 k 与该中间结点关键字的比较结果确定下一步查找哪个子表,这样递归进行,直到查找到或查找结束发现表中没有这样的结点。

复杂度分析
总共有 n 个元素。

第 1 次折半:还剩 n/2 个元素

第 2 次折半:还剩 n/4 个元素

第 3 次折半:还剩 n/8 个元素

……

第 k 次折半:还剩 n/2^k 个元素

最坏的情况下,最后还剩 1 个元素,令 n/2^k = 1,得 k=logn,时间复杂度 O(logn)。

最坏复杂度:上述分析可以得到时间复杂度为 O(logn)。

最好复杂度:第一次折半就查找到中间元素,时间复杂度为 O(1)。

平均复杂度:时间复杂度为 O(logn), 
# 二分查找

def binary_search(sort_seq, target):
    left = 0
    right = len(sort_seq) - 1
    while(left <= right):
        midpoint = (left + right)//2
        current_item = sort_seq[midpoint]
        if current_item == target:
            return midpoint
        elif target < midpoint - 1:
            right = midpoint - 1
        else:
            left = midpoint + 1
    return None

在介绍插值查找之前,首先考虑一个新问题,为什么上述算法一定要是折半,而不是折四分之一或者折更多呢?打个比方,在英文字典里面查“apple”,你下意识翻开字典是翻前面的书页还是后面的书页呢?如果再让你查“zoo”,你又怎么查?很显然,这里你绝对不会是从中间开始查起,而是有一定目的的往前或往后翻。同样的,比如要在取值范围 1 ~ 10000 之间 100 个元素从小到大均匀分布的数组中查找 5,我们自然会考虑从数组下标较小的开始查找。经过以上分析,折半查找这种查找方式,不是自适应的(也就是说是傻瓜式的)。二分查找中查找点计算如下:mid=(left+right)/2, 即 mid=left+1/2*(right-left)

通过类比,我们可以将查找的点改进为如下: mid=left+(key-a[left])/(a[right]-a[left])*(right-left),也就是将上述的比例参数 1/2 改进为自适应的,根据关键字在整个有序表中所处的位置,让 mid 值的变化更靠近关键字 key,这样也就间接地减少了比较次数。

算法原理

适用性: 对于表长较大,而关键字分布又比较均匀的查找表来说,插值搜索算法的平均性能比折半搜索要好的多。反之,数组中如果分布非常不均匀,那么插值搜索未必是很合适的选择。

基本思想: 基于二分搜索算法,只是在取"中点"的时候把比例参数 1/2 修改为自适应参数,可以提高搜索效率。当然,差值搜索也属于有序搜索。

复杂度分析

最坏复杂度:时间复杂度为 O(logn),最坏的情况就是二分搜索的情况,时间复杂度和二分搜索的时间复杂度相同。

最好复杂度:时间复杂度为 O(1)。

平均复杂度:时间复杂度为 O(loglogn),

def insert_search(sorted_sequence,target):
    left=0
    right=len(sorted_sequence)-1
    while(left<=right):
        midpoint=left+((target-sorted_sequence[left])*(right-left))//(sorted_sequence[right]-sorted_sequence[left]) #比例参数修改
        if midpoint<0 or midpoint>=len(sorted_sequence):
            return None
        current_item=sorted_sequence[midpoint]
        if current_item==target:
            return midpoint
        elif target

跳跃搜索(Jump search),按照固定步长,从有序表的首项步进,直到匹配到符合目标元素的区间,然后在该区间使用线性搜索,找到目标元素的确切位置。

跳跃搜索的思路如下:给定大小 n 的有序数组 a,目标元素为 x 和跳跃的步长 m ,然后搜索 a[0],a[1],a[2],a[3]...a[km]...一旦我们找到区间 a[km]< target < a[(k+1)m],然后在此区间进行线性搜索找到目标元素 x 的确切位置。

在最坏的情况下,我们必须进行 n/m 跳转,如果最后一个检查值大于要搜索的元素,则我们对线性搜索进行 m-1 比较。因此,最坏情况下的比较总数将为((n/m)+m-1)。当 m =n^(1/2)时,函数((n/m)+m-1)的值将为最小值。因此,最好的步长是 m=n^(1/2)

算法原理

适用性: 跳跃搜索的前提是有序表存储。相比于二分搜索,跳跃搜索仅遍历一次,而二分搜索最多需要 O(logn),如果向后跳跃比向前跳跃花费更多时间,考虑要搜索的元素是最小元素或小于最小的,我们一般选用跳跃搜索。

基本思想: 基于二分搜索算法,采用固定间隔进行跳跃,直到找到一个符合目标元素的区间,然后在该区间使用线性搜索,找到目标元素的确切位置。

复杂度分析

最坏复杂度:时间复杂度为 O(n^(1/2))

最好复杂度:时间复杂度为 O(n^(1/2))

平均复杂度:时间复杂度为 O(n^(1/2))

import math
def jumpsearch(sorted_sequence,target):
    n=len(sorted_sequence)
    step=int(math.floor(math.sqrt(n)))
    prev=0
    while sorted_sequence[min(step,n)-1]=n:
            return None
    while sorted_sequence[prev]

快速搜索(quick search),快速选择是一种选择算法,用于查找无序列表中的第 k 个最小元素,它与快速排序算法有关。

快速搜索使用与快速排序相同的整体方法,选择一个元素作为数据透视表,并根据数据透视表将数据分成两部分,因此小于或大于数据透视表。但是,不要像在快速排序中那样递归到双方,而是快速选择仅向一侧递归——与正在搜索的元素的一侧。这将平均复杂度从 O(nlogn) 降低到 o(n),最坏情况是 O(n^2)。

算法原理

适用性: 用于查找无序列表中的第 k 个最小元素或最大元素。

基本思想: 基于二分搜索算法,采用固定间隔进行跳跃,直到找到一个符合目标元素的区间,然后在该区间使用线性搜索,找到目标元素的确切位置。

Python算法《查找算法》_第1张图片

复杂度分析

最坏复杂度:时间复杂度为 O(n^2)。

最好复杂度:时间复杂度为 O(n)。

平均复杂度:时间复杂度为 O(n)。

import random
def partition(sequence,left,right,pivot_index):
    pivot_value=sequence[pivot_index]
    #交换两个元素,使pivot_index与最右边元素置换位置,即先将pivot移动到最右边
    sequence[pivot_index],sequence[right]=sequence[right],sequence[pivot_index] 
    store_index=left
    for i in range(left,right):
        if sequence[i]

哈希表就是一种以键-值(key-indexed) 存储数据的结构,只要输入待查找的键即 key,即可查找到其对应的值。哈希表是一个在时间和空间上做出权衡的经典例子。如果没有内存限制,那么可以直接将键作为数组的索引。那么所有的查找时间复杂度为 O(1);如果没有时间限制,那么我们可以使用无序数组并进行顺序查找,这样只需要很少的内存。哈希表使用了适度的时间和空间来在这两个极端之间找到了平衡。只需要调整哈希函数算法即可在时间和空间上做出取舍。

算法原理

适用性: 一个简单无序数组即可实现索引关系。

基本思想: 哈希的思路很简单,如果所有的键都是整数,那么就可以使用一个简单的无序数组来实现:将键作为索引,值即为其对应的值,这样就可以快速访问任意键的值。这是对于简单的键的情况,我们将其扩展到可以处理更加复杂的类型的键。

复杂度分析

最坏复杂度:时间复杂度为 O(1),对于无冲突的哈希表而言。

最好复杂度:时间复杂度为 O(1),对于无冲突的哈希表而言。

平均复杂度:时间复杂度为 O(1),对于无冲突的哈希表而言。

class HashTable:
    def __init__(self, size):
        self.elem = [None for i in range(size)] # 使用list数据结构作为哈希表元素保存方法
        self.count = size # 最大表长
    def hash(self, key):
        return key % self.count # 散列函数采用除留余数法
    def insert_hash(self, key):
    #插入关键字到哈希表内
        address = self.hash(key) # 求散列地址
        while self.elem[address]: # 当前位置已经有数据了,发生冲突。
            address = (address+1) % self.count # 线性探测下一地址是否可用
        self.elem[address] = key # 没有冲突则直接保存。
    def search_hash(self, key):
    #查找关键字,返回布尔值
        star = address = self.hash(key)
        while self.elem[address] != key:
            address = (address + 1) % self.count
            if not self.elem[address] or address == star: # 说明没找到或者循环到了开始的位置
                return False
        return True,address #返回索引值
if __name__ == '__main__':
    list_a = [12, 67, 56, 16, 25, 37, 22, 29, 15, 47, 48, 34]
    hash_table = HashTable(12)
    for i in list_a:
        hash_table.insert_hash(i)
    for i in hash_table.elem:
        if i:
            print((i, hash_table.elem.index(i)), end=" ")
    print("\n")
    print(hash_table.search_hash(15))
    print(hash_table.search_hash(33))

参考:https://www.shiyanlou.com/

你可能感兴趣的:(python,algorithm,Python)