以下是该模型的主要特点和优势:
标签提示目标检测大模型通过利用已知的目标标签信息来指导网络学习,从而提高了检测准确率。例如,在训练过程中,模型可以利用标签提示信息来区分不同的目标,并学习到它们的特征和属性,进而更好地进行检测和识别。
标签提示目标检测大模型可以实现开集目标检测,即在未知类别的情况下,能够对出现的目标进行有效的检测和识别。这种能力对于应对未知场景和新出现的目标具有极大的价值,可应用于各种实际场景中。
标签提示目标检测大模型可以同时处理多个任务,例如目标检测、目标分类、目标分割等。这种多任务学习的能力可以加强网络的综合性能和泛化能力,使得模型在各种应用场景下具有更好的效果和表现。
标签提示目标检测大模型结合了传统的检测算法和深度学习技术,充分利用了它们的优势,同时避免了它们各自的不足。这种融合的方法可以提高检测准确率和稳定性,并且对于处理复杂场景和多种目标类型具有更好的适应性。
大多数现有的对象检测模型都经过训练来识别一组有限的预先确定的类别。将新类添加到可识别对象列表中需要收集和标记新数据,并从头开始重新训练模型,这是一个耗时且昂贵的过程。该大模型的目标是开发一个强大的系统来检测由人类语言输入指定的任意对象,而无需重新训练模型,也称为零样本检测。该模型只需提供文本提示即可识别和检测任何物体。
Grounding DINO架构的核心在于它能够有效地弥合语言和视觉之间的差距。这是通过采用双流架构来实现的——使用 Swin Transformer 等文本主干提取多尺度图像特征,并通过 NLP 模型 BERT 等文本主干提取文本特征。
这两个流的输出被馈送到特征增强器中,用于将两组特征转换成单个统一的表示空间。特征增强器包括多个特征增强器层。可变形自注意力用于增强图像特征,常规自注意力用于文本特征增强器。
Groundi旨在从输入文本指定的图像中检测对象。为了有效地利用输入文本进行对象检测,使用语言引导的查询选择来从图像和文本输入中选择最相关的特征。这些查询指导解码器识别图像中对象的位置,并根据文本描述为它们分配适当的标签。
然后使用跨模态解码器来集成文本和图像模态特征。跨模态解码器通过一系列关注层和前馈网络处理融合特征和解码器查询来进行操作。这些层允许解码器有效地捕获视觉和文本信息之间的关系,使其能够细化对象检测并分配适当的标签。在此步骤之后,模型继续进行对象检测的最后步骤,包括边界框预测、特定于类的置信度过滤和标签分配。、
首先,包含 PyTorch 实现和 Grounding 预训练模型的github 存储库被克隆到您的本地目录。在克隆 github 存储库的同一目录中创建一个名为 main.py 的文件。该文件将包含通过摄像头输入执行 Grounding 模型的主脚本。首先通过添加以下命令导入相关库和 Grounding 模块。代码的最后两行导入所需的推理模块。
import modules
import os
import cv2
import numpy as np
from PIL import Image
import groundingdino.datasets.transforms as T
from groundingdino.util.inference import load_model, load_image, predict, annotate
QQ767172261
pip install -r requirements.txt
https://huggingface.co/models
找到后,下载后放到本地,否则代码会出现异常
python demo/inference_on_a_image.py -c 配置文件 Ground/config/Grounding_OGC.py -p 权重:.pth
-i 输入 input -o输出路径 -t "标签:car" --cpu-only
怎么样,结果还不错把
关键可以生成标签,这样也不用标注了
已经把批量生成.json .xml文件脚本完成!