python可以手眼定标吗_机器人无标定手眼协调

内 容 简 介

前 言

上 篇Kalman滤波方法

第1章 绪 论

1.1 引言

1.2 机器人手眼协调

1.3 无标定手眼协调及其控制方法

1.4 本篇的主要工作

第2章 基于图像雅可比矩阵的无标定手眼协调

2.1 图像雅可比矩阵模型

2.2 图像雅可比矩阵的例子

2.3 应用图像雅可比矩阵建立视觉反馈控制

2.4 基于图像雅可比矩阵的手眼协调系统的性能分析

2.5 无标定环境下雅可比矩阵的辨识方法

第3章 基于Kalman滤波的雅可比矩阵在线辨识

3.1 图像雅可比矩阵的动态辨识

3.2 Kalman滤波估计算法概述

3.3 图像雅可比矩阵的在线Kalman滤波辨识

第4章 眼固定+眼在手上的无标定二维运动跟踪

4.1 系统与任务描述

4.2 全局视觉的无标定手眼协调控制

4.3 眼在手上无标定视觉伺服

4.4 两种反馈控制率的切换

4.5 二维运动跟踪仿真

第5章 固定双目无标定三维运动跟踪

5.1 双目视觉的图像雅可比矩阵

5.2 图像雅可比矩阵的在线Kalman-Bucy估计

5.3 基于图像雅可比矩阵的反馈控制率

5.4 三维运动跟踪仿真

第6章 机器人手眼协调实验系统

6.1 系统整体结构

6.2 机器人本体

6.3 机器人视觉子系统

6.4 通信子系统

第7章 无标定手眼协调运动跟踪实验

7.1 眼固定+眼在手上无标定二维运动跟踪实验

7.2 无标定三维运动跟踪实验

本 篇 小 结

参 考 文 献

中 篇神经网络方法

第8章 绪 论

8.1 视觉伺服系统分类

8.2 视觉处理

8.3 视觉控制器

8.4 无标定手眼协调

8.5 本篇主要工作

第9章 基于神经网络的图像雅可比矩阵估计方法

9.1 图像雅可比矩阵方法原理

9.2 神经网络方法原理

9.3 图像雅可比矩阵分析

9.4 改进的图像雅可比矩阵方法

9.5 仿真结果

第10章 眼固定机器人平面视觉跟踪

10.1 平面视觉跟踪问题描述

10.2 视觉映射模型

10.3 控制策略

10.4 基于在线自学习的视觉跟踪

第11章 眼固定机器人三维视觉跟踪

11.1 基于立体视觉的3D视觉跟踪

11.2 基于单摄像机的三维视觉跟踪

第12章 眼在手上机器人平动视觉跟踪

12.1 眼在手上无标定方法的现状

12.2 机器人平面视觉跟踪

12.3 基于立体视觉的3-DOF无标定视觉跟踪

第13章 眼在手上机器人全自由度视觉跟踪

13.1 全自由度视觉跟踪问题描述

13.2 全自由度视觉跟踪问题分析

13.3 视觉映射关系模型

13.4 控制策略

13.5 模糊神经网络

13.6 仿真结果

第14章 视觉跟踪系统的性能分析与改进

14.1 动态视觉控制与运动视觉控制

14.2 眼固定构型

14.3 眼在手上构型平面视觉跟踪

14.4 眼固定构型与眼在手上构型的比较

第15章 实 验 研 究

15.1 系统结构

15.2 实验设计

15.3 实验步骤

15.4 实验结果

本 篇 小 结

参 考 文 献

下 篇扩张状态观测器方法

第16章 绪 论

16.1 引言

16.2 本篇主要工作

第17章 基于扩张状态观测的控制器理论及参数调整

17.1 扩张状态观测器

17.2 传统PID控制器结构分析

17.3 自抗扰控制器

17.4 自抗扰控制器的参数调整

第18章 手眼协调系统建模及ADRC控制器设计

18.1 系统建模

18.2 系统模型

18.3 控制器设计

第19章 系统仿真研究

19.1 全局固定摄像头无标定二维运动跟踪

19.2 眼固定与眼在手上相结合的无标定二维运动跟踪

19.3 固定双目无标定三维运动跟踪

第20章 手眼协调控制器的稳定性分析

20.1 全局固定单眼构型情况下控制器形式

20.2 一阶跟踪微分器的收敛性分析

20.3 二阶扩张状态观测器的收敛性分析

20.4 整个控制器的收敛性能分析

第21章 无标定机器人手眼协调实验研究

21.1 机器人手眼协调实验系统描述

21.2 单眼固定无标定二维运动跟踪试验

21.3 眼固定与眼在手上相结合的无标定二维手眼协调实验

21.4 无标定三维手眼协调实验

第22章 自抗扰控制器和雅可比矩阵在线辨识联合控制的手眼协调研究

22.1 控制思想描述

22.2 控制器设计

22.3 仿真研究

22.4 二维跟踪实验

本 篇 小 结

参 考 文 献

你可能感兴趣的:(python可以手眼定标吗)