OpenMV:10特征点检测

特征点检测.py

# 利用特征点检测特定物体例程。
# 向相机显示一个对象,然后运行该脚本。 一组关键点将被提取一次,然后
# 在以下帧中进行跟踪。 如果您想要一组新的关键点,请重新运行该脚本。
# 注意:请参阅文档以调整find_keypoints和match_keypoints。
import sensor, time, image

# 重置传感器
sensor.reset()

# 传感器设置
sensor.set_contrast(3)  # 设置对比度为3
sensor.set_gainceiling(16)  # 设置自动增益为16
sensor.set_framesize(sensor.VGA)    # 分辨率的大小设置为VGA:640*480
sensor.set_windowing((320, 240))    # 设置窗口大小为320*240
sensor.set_pixformat(sensor.GRAYSCALE)  # 设置为灰度图模式

sensor.skip_frames(time = 2000)
sensor.set_auto_gain(False, value=100)

#画出特征点
def draw_keypoints(img, kpts): 
    if kpts:
        print(kpts)
        img.draw_keypoints(kpts)
        img = sensor.snapshot()
        time.sleep_ms(1000)

kpts1 = None    # 运行程序时最初识别到的物体特征会保存到kpts1中,这个物体特征将会作为我们的目标物体特征(我们后续的识别将会以这个特征进行对比)
#kpts1保存目标物体的特征,可以从文件导入特征,但是不建议这么做:因为每次运行时的环境不一样,光线也不一样,会影响特征点的提取与匹配;所以建议运行时实时提取匹配。
#kpts1 = image.load_descriptor("/desc.orb")
#img = sensor.snapshot()
#draw_keypoints(img, kpts1)

#如果我们使用OpenMV中保存的图像,就把kpts1 = None 注释掉,打开下面两句话

clock = time.clock()

while (True):
    clock.tick()
    img = sensor.snapshot()
    if (kpts1 == None):
        #如果是刚开始运行程序,提取最开始的图像作为目标物体特征,kpts1保存目标物体的特征
        #默认会匹配目标特征的多种比例大小,而不仅仅是保存目标特征时的大小,比模版匹配灵活。
        
        # NOTE: 默认情况下,find_keypoints()返回检测到的目标物体的关键点,如果没有提取到关键点就返回None。
        kpts1 = img.find_keypoints(max_keypoints=150, threshold=10, scale_factor=1.2)   # 用kepts1保存函数提取到的特征  
        #image.find_keypoints(roi=Auto, threshold=20, normalized=False, scale_factor=1.5, max_keypoints=100, corner_detector=CORNER_AGAST)
        #roi表示识别的区域,是一个元组(x,y,w,h),默认与framsesize大小一致。
        #threshold是0~255的一个阈值,用来控制特征点检测的角点数量。用默认的AGAST特征点检测,这个阈值大概是20。用FAST特征点检测,这个阈值大概是60~80。阈值越低,获得的角点越多。
        #normalized是一个布尔数值,默认是False,可以匹配目标特征的多种大小(比ncc模版匹配效果灵活)。如果设置为True,关闭特征点检测的多比例结果,仅匹配目标特征的一种大小(类似于模版匹配),但是运算速度会更快一些。
        #scale_factor是一个大于1.0的浮点数。这个数值越高,检测速度越快,但是匹配准确率会下降。一般在1.35~1.5左右最佳。
        #max_keypoints是一个物体可提取的特征点的最大数量。如果一个物体的特征点太多导致RAM内存爆掉,减小这个数值。
        #corner_detector是特征点检测采取的算法,默认是AGAST算法。FAST算法会更快但是准确率会下降。
        
        draw_keypoints(img, kpts1)
        #画出此时的目标特征(检测到的关键点)
   
   
    else:   #不等于None就说明我们已经完成了特征点的提取,已经把特征点保存到了kpts1中
        # 当与最开始的目标特征进行匹配时,默认设置normalized=True,只匹配目标特征的一种大小。
        # NOTE: When extracting keypoints to match the first descriptor, we use normalized=True to extract
        # keypoints from the first scale only, which will match one of the scales in the first descriptor.
        kpts2 = img.find_keypoints(max_keypoints=150, threshold=10, normalized=True)    # 调用函数检测视野中是否存在特征,并将检测到的特征保存在kpts2中
        
        #如果检测到特征物体
        if (kpts2):
            # 将当前找到的特征和最初的目标特征kpts1进行对比
            match = image.match_descriptor(kpts1, kpts2, threshold=85)  # 用于对比的函数  
            #image.match_descriptor(descritor0, descriptor1, threshold=70, filter_outliers=False)。本函数返回kptmatch对象。
            #threshold阈值设置匹配的准确度,用来过滤掉有歧义的匹配。这个值越小,准确度越高。阈值范围0~100,默认70
            #filter_outliers默认关闭。

            #match.count()是kpt1和kpt2的匹配的近似特征点数目。
            #如果大于10,证明两个特征相似,匹配成功。
            if (match.count()>10):
                # If we have at least n "good matches"
                # Draw bounding rectangle and cross.
                #在匹配到的目标特征中心画十字和矩形框。
                img.draw_rectangle(match.rect())
                img.draw_cross(match.cx(), match.cy(), size=10)

            #match.theta()是匹配到的特征物体相对目标物体的旋转角度。
            print(kpts2, "matched:%d dt:%d"%(match.count(), match.theta()))
            # 不建议draw_keypoints画出特征关键点。
            # 注意:如果你想绘制关键点,取消注释
            #img.draw_keypoints(kpts2, size=KEYPOINTS_SIZE, matched=True)

    #打印帧率。
    img.draw_string(0, 0, "FPS:%.2f"%(clock.fps()))

特征点保存在OpenMV的U盘中.py

# 特征点保存例程
# 此示例显示如何将关键点描述符保存到文件。向相机显示一个对象,然后运行
# 该脚本。该脚本将提取并保存关键点描述符和图像。
# 您可以使用keypoints_editor.py 来删除不需要的关键点。
#
# 注意:请在运行此脚本后重置摄像头以查看新文件。
import sensor, time, image

# 重置传感器
sensor.reset()

# 传感器设置 和keypoint特征点检测的设置是一样的
sensor.set_contrast(3)
sensor.set_gainceiling(16)
sensor.set_framesize(sensor.VGA)
sensor.set_windowing((320, 240))
sensor.set_pixformat(sensor.GRAYSCALE)

sensor.skip_frames(time = 2000)
sensor.set_auto_gain(False, value=100)

FILE_NAME = "desc"  # 保存的文件名称
img = sensor.snapshot() # 截取一张图像
# 注意:请参阅文档查看其他参数
# 注:默认情况下,find_keypoints返回从图像中提取的多尺度关键点。
kpts = img.find_keypoints(max_keypoints=150, threshold=10, scale_factor=1.2)    # 调用函数提取图像中的特征

if (kpts == None):  # None表示在视野中没有提取到特征
    raise(Exception("Couldn't find any keypoints!"))    # 抛出一个异常,程序结束

#如果提取到了就直接运行下面的代码
image.save_descriptor(kpts, "/%s.orb"%(FILE_NAME))  # 将这个特征用save_descriptor()函数进行保存,特征保存格式为.orb文件
img.save("/%s.pgm"%(FILE_NAME)) # 保存提取到的目标物体的图像,保存格式为.pgm格式
#一共保存了两个数据!

img.draw_keypoints(kpts)
sensor.snapshot()
time.sleep_ms(1000)
raise(Exception("Done! Please reset the camera"))

你可能感兴趣的:(计算机视觉,python,opencv)