研一汇报——Nao

        在做Nao项目的过程中也是踩了很多的坑啊,结果研一马上要结束,方向定成了机器学习去跑数据去了。这次的汇报大致是写了个基于PyQt的界面控制Nao,并且分析情绪。研究背景是用于和自闭症儿童互动,但是做的挺瞎的

界面:

研一汇报——Nao_第1张图片

分三个模块,视频传输,表情分析,运动控制和颜色识别。

最后还用PyInstaller打包了一下


用pip安装就行,然后在要打包的界面里面打开命令窗口cmd输入

pyinstaller -F -i Nao.ico  Main.py

就打包完成了,这里的-i Nao.ico是给加了个自定义图标,如果图片和main程序不在一个文件夹下,还涉及到修改图片路径的事情。

下面讲解下这个小项目。

        界面用的PyQt4.11.3,下载的exe安装包,解压之后找到Qt desinger,一个类似VB的软件,在按钮部分添加了信号和槽。生成ui文件,把pyqt安装包中的pyuic.py文件找到,打开cmd窗口输入:

python pyuic.py test.ui -o testUi.py

轻松把ui文件改成py文件。

        编程部分用的都是Naoqi自带的api接口。

视频部分可以参考http://doc.aldebaran.com/2-5/dev/python/examples/vision/get_image.html

是用的ALVideoDevice,指定其分辨率,大小等,创造一个ALVideoDevice的实例。运行成功获取一帧一帧的图像。利用QtGui.QImage类并将其作为信号发送到PyQt中。

面部表情五分类识别调用ALFaceCharacteristics。从PeoplePerception/VisiblePeopleList里获取数据存入ALMemory中。

运动学部分不怎么难。

在主函数里对各个函数进行了调用。

你可能感兴趣的:(编程)