视频场景数据处理及模型训练
时间:2020年5月29日
讲师:NVIDIA高级解决方案架构师张海军主要负责NVIDIA Jetson系列产品技术及架构相关的解决方案。
【直播回放】
EasyDL-Jetson视频场景数据处理及模型训练:https://www.bilibili.com/video/BV1X54y1D77J
【课程笔记】
课程大纲:
首先,视频应用目前在全球或者国内都有非常广泛的应用,覆盖许多行业。
可以看到前面列举几个比较典型的例子里,也能够看到整个视频应用的场景非常典型,都是处理基于视频相关的,也就是处理图像或者视频应用。然后通过解码做预处理,然后到深度学习的网络,然后对输出的结果做二次处理,你可以传送到云端做一些调度,也可以在现场直接做实施的交互相应,整个的应用非常的类似,相似度非常高。针对这些相似度非常高的应用,我们就很容易标准化这样的框架来优化整个pipeline,达到提升应用的能力。截止到今年的统计,大概全球有10亿个像这样的视频部署,也就是说视频应用几乎所有的传感器里最多的,因为基于图像的信息非常的丰富,而且多样化,也是其他所有传感器是不能比拟的。
下面介绍一下我们今天实践的内容。一个完整的应用会从数据采集到训练到后期的部署,这三个步骤里,第一个是要解决数据采集的问题,数据来源于生产和生活,也是我们用户掌握的。第二步就是训练。第三步就是选择合适的平台,根据业务场景,通过推理来解决实际的问题。
今天我们这个DEMO模型是通过EasyDL训练得到的,EasyDL前面几节直播课都有非常详细介绍。EasyDL它支持很多种类的模型,同时有专业版和经典版可以供大家选择,经典版就相对比较步骤简单明了,专业版也适合有定制化需求,有更高定制化目的做更深层次的模型的训练和定制化。整个界面非常简洁,用户只需要上传数据,然后打自己的标签,选择合适的模型,训练完以后就可以拿到自己的模型,可以通过EasyDL部署,也可以通过其他的方式,今天我就给大家介绍通过Jetson的DeepStream来做部署。
在这之前我给大家介绍一下Jetson这个平台,Jetson平台目前已经有Nano,TX2,Xavier,NX,8G/16G,算力从1.5T到21T,到性能最高的32T,功耗从5W到15W一直到最高的30W,能够覆盖到比较常见的像视频应用以及辅助驾驶,机器人,以及各种无人车,这种非常典型的应用,30W的应用是最高的一款,同时性能也是最高的,大家可以根据不同的场景选择使用哪款产品,Nano保留了经典的接口,比如说PCIE等很多主流的接口,算力较低,功耗较低。更为复杂的,比如说对传感器要求比较高,针对无人车的应用或者机器人应用,你可以选择TX2,接口非常丰富,算力也非常突出,同时支持mipicamera这样的传感器,最高支持2个lane6路,很适合做传感器融合,同时兼顾深度学习的应用。再高端的NX,它能够提供更高的算力,如果你的实际应用对算力比较敏感,NX是比较好的选择,功耗和TX2一样,算力高很多,接口较少一些。Xavier是我们里面接口最全,也是算力最高的,你可以当做一个小的服务器在辅助驾驶里用也是非常合适。不管是硬件还是软件都会给大家统一的架构,很多的底层的硬件接口都是统一的,版本也是统一的,每次我们发布新的版本都会涵盖所有产品系列,版本是统一的。如果你的应用在不同的平台之间来回切换非常容易,没有额外的成本,是在统一的架构里。
我们知道不管是IVA还是机器人还是无人车的应用,针对不同的行业、场景以及应用都会对产品本身有很高的定制化的要求,我相信仅仅依靠硬件定制满足产品需求基本是不可能,因为需求多变,在前期不确定的情况下,高度的灵活,以及后期满足不停的迭代需求,这样必然是软件定义的架构,也就是说硬件提供最基本的计算能力,应用场景通过软件不同实现来满足。比如说机器人或者无人车这种直接交互的应用,感知、决策和推理这是三个主要的方面,这是一个完整的循环,在实际应用场景里,感知是获取环境当中的图象数据、超声波或者红外,基于感知数据基础之上,利用GPU加速推理相关的结果,做出相关的决策,同时适应周围环境的变化,解决实际的问题。所有这些应用都会基于最核心的几个lowlevel库,最上一层是各种应用和framework,EasyDL,具体的应用比如基于红外或者路径规划的,这就是满足行业不同的需求。
Jetson目前围绕整个行业的需求也衍生出非常多的partner,在整个生态里围绕用户的需求出现非常多的,比如说定制硬件,做各种载板,提供各种算法的,最终目的就是为了解决实际场景,用AI也好,嵌入式也好,都是为了解决实际的问题。在Jetson上做一个解决实际问题的产品非常快速,因为你不需要从0到1,把所有东西都自己实现一遍,合理的利用生态里的产品,更快的把精力放在你擅长的方面,这是JetsonSoftware的stack。上层是我们的硬件,中间是DeepStream,IsaacSDKs,处理各种矩阵计算和视频相关的加速库,这些典型的库都有Jetson上面的硬件支撑,下面会详细给大家介绍。DeepStream解决IVA行业相关应用,我们把所有典型的IV应用需要的环节覆盖到,我们设计这样的环节,有高度优化,不管是客户还是开发者,直接利用这样的框架实现自己的实际的应用,不需要再解决如何解码,如何搭建整个框架,优化pipeline,这些都在DeepStream里做好了。Isaac是针对机器人或无人车上推出的SDK,但是它是由底层加速盒和硬件支撑的,非常高效。
DeepStream它是基于开源的Gstreamer框架,是plugin的形式,通过流式的传递到每个环节,流动到每个plugin,能实现自己相关的功能,用户或者开发者都可以自己通过不同的plugin组合解决实际的问题。可以看到,DeepStream里面实现的功能,首先DeepStream对IVA的典型应用就是解码,这是非常重要的环节,因为有不同的格式,比如USB或者MIPIcamera,有可能是其他的,比如黑白或红外的,这些输入的支持和读取解码已经在DeepStream集成好,你根据自己的需要配置成不同的模式就可以。下一步就是decode,基于Gstreamer构建推理引擎,也就是说所有应用直接可以在DeepStream上跑。同时DeepStream对不同的网络以及后续的根算法,以及360镜头这种视频的校正,还有其他的,跟云端的通信,比如说IOT相关应用,消息的发布,以及分布式,像这样典型的应用,里面会涉及到各种通信的协议以及如何部署发布,以及多视频的管理,包括stream管理,都在DeepStream里已经做好,用户只需要简单的配置就可以利用起来。同时Jetson所有内存之间是统一的,不管是GPU还是不同的processor之间互相的流动,它是内存直接可以共享的。
再进一步,面向非常高层的,比如你可以选择在大卡上部署,也可以在云端部署,也可以在jetson上部署应用,直接解决相关的问题,把得到的解果存储下来,或者分析的数据通过我们已有的组件跟云端交互。同时提供了Transferlearning,可以在DeepStream里应用,IOT分布式的应用就可以很容易部署大规模的IVA的应用。
下面DeepStream的底层就是我们的硬件或者是TESLA,DeepStream都是可以运行的。最上层就是CUDA,衍生了很多应用,这个CUDA包括各种硬件编辑码都可以在Deepstream里访问到。在这之上就是跟编解码和转接码,做缩放和格式转化的,这些都已经封装在DeepStream里了,有很多常见的编码都是支持的,包括H264/265/RTSP,还有IOT相关的应用,DeepStream里已经把这部分绿色的,包括IOT相关的协议已经做好,而且大部分的案例都有相关的原码供大家参考,最上层就是利用DeepStream解决实际的问题,这是用户定义的。
接着往下走,这是DeepStream内部的framwork,前面介绍的比较关键的是capture,然后是decode,然后是inference,这里会更加详细给大家展示这样的流程。第一步是基于多媒体的应用,可以是视频或图像,通过网络获取一些网络流,或者访问USB,或者是mipicamera,第二步就是利用Jetson集成硬件的DECODE,DeepStream已经做了集成,底部的差异,比如在Jetson和大卡上切换已经做了隐藏,你只需要简单的配置,并不需要关注底层,就可以做到非常高性能的编解码性能,比如Nano支持8路1080P30帧这样的解码。再一步就是非常关键的,也就是在很多平台里都会遇到的,不管是做Training还是inference,就是格式转化,同时要做浮点转化,做一个缩放,这些都是非常常见的应用,这些是实时的过程,对算力和性能都有一定的要求,如果在CPU做基本很难做到实时,在Jetson上就有很多种选择,比如用我们专用的硬件VIC来做各种转化,也可以用我们的GPU实现这些预处理,这些非常关键,因为在实时预处理当中,你留给解码的时间是非常少的,因为30帧的应用就33.333毫秒,后面还有一个非常好的性能,所以要合理安排每一步每一环节的性能都要足够,才能达到实时的应用。如果是多路的视频应用会涉及到gstream处理,多路视频流管理,这部分会有DeepStream的plugin,会有这样的插件管理,帮大家做,大家可以动态的配置调整。后面就是分类应用,可以在GPU上跑,如果是inference,如果是Nano可以在GPU上跑。后面涉及到二级网络、三级网络、四级网络,比如做tracking,可以在GPU上跑,也可以在PVA上跑,简单的可以在CPU,复杂的建议在专用的处理器上做,GPU或者PVA,达到实时的效果。后端可以把原来的图像做缩放,你可以选择存到本地,或者通过集成rtspserver直接输出到一个端口,就可以实时拉到这个视频流,所有这些都在DeepStream已经做好了。
下面就是DeepStream里的核心框架的各种插件,这些插件来回组合就能满足你非常多的应用。简单给大家过一下,第一个是编解码,会调用底层的编解码硬件。第二会调用DLA和GPU,第三个是我们已经实现的跟踪算法,比如KLT、IOU、NvDCF,对CPU占用非常低,效果也是最好的一个。下面是关于消息的传递和云端交互,IOT场景会用到。下面是多路视频管理,包括语言管理,下面是render,在各种图像上操作都可以用这个,这个是用GPU做的,非常高效。再下面是视频管理,你可以有32路,可以renders到不同的应用里去,有不同的排除组合下面是通过EGL加速渲染做各种显示用的。Scaling做格式转化和缩放,包括旋转去噪,这个功能也非常强大,DeepStream已经封装在videoconvert这样的插件里。下面是关于鱼眼的校正,下面是数据校正,一级网络想传输给二级网络,可以通过这个插件做。再下面是显示模块,关于分割的显示插件。再下面是光流,更多的详细信息可以登录我们的官网了解。
下面就是我们今天介绍CASE,第一个是直接从视频文件里读取,第一步会做DECODE,第二步做一个EdgeBoard,再后面是分类,因为解决水果称重这样的问题,你首先要定义属于哪一种水果蔬菜,基于这个才能得到它的重量和价格,这是实时交互的应用,也就是它对速度和精度都有很高的要求。再后面可以下载或者生成一个流给第三方看。
这里首先给大家介绍一下DeepStream,刚才已经介绍了很多的核心的插件,我们只需要通过配置就可以实现这些功能。第一个给大家介绍一下实际案例用到的配置的含义,以及实现的是什么功能。首先GPU—ID,在Jetson上一直都是0,在一些大卡有很多的GPU,你可以直接运行。下面是scaleing,再下面是softmax,它跟后面讲到的mean,这两个二选一都可以,model是我们原始的网络,今天这个就是用EasyDL训练得到的网络模型。classifier是网络文件,这两个是必须的。下面是engine,优化好以后可以保留下来,它的速度非常快,体积也会减少,也不需要重新做一次处理和优化。下面就是layer分类,下面是本次网络的输出,再下面是默认的batch维度,batch是8,这是常见的参数。再下面是Notebook可以选择运行在16的模式或者8,因为这个是在nano上做的,支持IP16,所以我们选择2,如果在Xavier可以选择8,目前是一级网络,我们直接输出的是分类的结果,如果网络级联可以选择二级或者三级或更多。Model-color就是你的模型接受的颜色格式。
下面是gie—unique,它是非常重要的,下面也是同样的输出,然后有一个选择是阈值是多少,目前运行的是Classifier,还有分割的,还有其他的,tensor-meta是一个结果传输,如果用多网络级联,这个是非常好用,用来传递结果数据,可以自定义,把这些结果数据传递到下一级网络做各种定制化操作。这个涵盖了各个方面,也是非常的丰富,基本上大部分的核心功能都通过配置文件的形式给大家实现好了。
我已经提前把DEMO原码放到了这个位置,DeepStream你在Jetson刷机以后默认会安装在/opt下面,包括很多的sample,我们直接按照这个步骤进去,给大家编译演示一下。
我们直接切到JetsonNano上面,我已经进到原码里去了,给大家看一下,配置文件刚才给大家介绍了,是一样的。同时原码也是刚才需要的几个文件,这个文件已经编译过了,直接用默认版本就可以了,这个已经编译过了。因为DeepStream默认的是支持端上,可以在云端部署,也可以在端上部署,这个是在端上部署,跑这个DEMO,制定一个文件,告诉它用哪个文件,运行一下。
这是一个水果蔬菜的分类,第一个是胡萝卜,已经识别出来了,第二个是土豆,再下面是西红柿,可以看到清晰度、分类都已经展示出来了。再看一遍,还是相对比较稳定,这是Nano上运行的,而且帧率是实时的,也就是说这样的网络在Nano上运行已经能达到至少30帧,给大家看一下,通过tegrastats可以监控一下GPU的利用率。这里有一个GRD3D,GPU频率是921,前面百分比有的时候不是99%的状态,也就是说当前这个应用并没有把整个GPU性能占满,也就是说它还有一定的空间,这就是DeepStream应用的案例,DeepStream还有更多的应用,可以来NVIDIA的官网查看。
下面就是QA环节。
Q:有同学问DeepStream是哪个版本?
A:当前这个DEMODeepStream是我们最新的版本,5.0版本。对应是jetpack4.4的DPrelease。
Q:Nano已经把GPIO制定好了,有GPIO模块或定制图纸吗?
A:有的,都在Jetson里下载,GPIO很多,还有很多可以复用,你可以自己定义或者更改。
Q:只能用Jetpack4.2.2吗?
A:版本可以自己选择,但是我们推荐用最新的,因为我们每6个月都有大版本的更新,同时有更多小版本更新,每次版本更新都会带来很多新的feature,包括性能增强和优化。
Q:EasyDL迭代更新模型以后会怎么收费?
A:这个陈老师解答一下。
陈老师:EasyDL目前专业版是训练收费的,但是有100小时免费的时间,经典版目前训练是免费的,根据设备授权方式不同会有不同的收费方式,具体可以看EasyDL的文档,里面都有详细的价格说明。
在EasyDL迭代更新模型的时候不收费,在后期调用是根据你API调用,这是后付费,根据调用次数,如果部署SDK的话这是预付费模式,大家可以看EasyDL官网有价格文档,有详细介绍。
Q:DeepStream得到的ID数据可以拿到吗?
A:可以拿到。
Q:没明白DeepStream是用来干什么的,您解释一下
A:DeepStream是一个框架,整合Jetson所有的硬件资源,给你做了高度的优化,比如不需要关注它们之间如何解码的,内存如何传递的,只需要准备好自己的模型,选择合适的配置去实现自己的视频应用,就是做各种视频的AI应用,整个框架搭建好了,你运行这个框架就可以得到很多,一个团队需要半年或者一年迭代这样一个工作。
Q:DeepStream是开源的吗?
A:DeepStream我们目前基本上绝大多数的代码都是开源的,有一部分小的库是直接调用的,绝大部分都是开源的。
Q:好的,DeepStream和目标检测有什么区别?
A:DeepStream是一个框架,它支持分割模型,检测、分类,包括以后会支持更多的模型应用,它是一个整体的框架,是PIPELINE框架,是高度优化的。
Q:如果大家想了解更多DeepStream,在哪里可以看到使用文档吗?
A:我们的官网里针对DeepStream有专门的页面,里面会有开发文档和sample文档,包括原码介绍和应用案例,很多可以直接拉下来看到效果。
Q:大家想了解更多DeepStream,可以在官网上搜索一下。DeepStream对输入的摄像头有什么要求吗?
A:DeepStream目前支持USB摄像头,MIPICSI,也支持RTSP,包括其他的摄像头都支持,包括本地存储的,像MP4,264的文件都支持,基本上常见的网络文件多音频文件都支持。
Q:有同学问一个模型还是多个模型分别处理多路视频?
A:这个取决于你的实际应用如何配置,你可以选择DeepStream运行多个模型,然后针对一个模型,也可以是不同的视频匹配不同的模型,也可以是同样一个视频级联多个模型,你可以任意组合。
Q:有同学问刚水果试的代码哪里可以下载?
A:这是我本次做了一个DEMO,如果后面方便的话我可以给大家分享出来,也是基于DeepStream已有的sample上做了一些简单的更改。
Q:好的。DeepStream inference算法怎么换成自己的算法?
A:这一部分如果你更换算法,你需要自己封装一个plugin,同时你对上一级的inference输出,比如识别某个类别的object,针对这个object做一个bbox,把这部分的数据通过metadata,给了一个接口传递到最后一层,拿到这个数据就可以直接跑自己封装好的算法。
Q:好,有同学问现在买到TX2是已经安装在jetpack吗?
A:正常的我们的devkit是带jetpack的,但是可能是发货时的版本,有的模组是比较全新的,里面没有,你可以自己刷一下,非常的简单,官网都有各种教程。
据我所知从EasyDLTX2软硬一体方案,拿到这TX2是不拆机的,你需要有一个刷机的过程。
Q:官网有教程DeepStream和PaddlePaddle是同一类东西吗?
A:PaddlePaddle是非常大的框架,有点类似于tensorflow,DeepStream是一个inference的框架。
Q: TX2刷机包括DeepStream吗?
A:你可以刷机的时候勾选到DeepStream,可以自己装好,如果不勾选可以通过单独的DEB或者原码的方式安装都可以。
Q:DeepStream可以结合深度学习吗?
A:可以,目前已经有相关的案例可以参考。
Q:怎么才能知道jetpack装好了呢?
A:比较简单的就是你直接查上显示器,如果有界面就安装好了,如果没有刷机一下,你可以接着安装。
Q:DeepStream是专门用来做计算机视觉的吗?
A:你可以这么认为,而且我们收集了各个行业的视频的应用,解决大家从0到1开发的过程,给大家做好了这样的框架,如果用DeepStream很多常见的IVE应用直接可以拿DeepStream做产业应用直接部署,不需要再做很多的开发。
Q:好。DeepStream后面会支持YOLOV4吗?
A:应该会,现在DeepStream已经有YOLO2、3,包括更新的版本,直接可以运行,已经做好了,后面会加YOLOV4。
Q:这些资料有没有一些中文版的?
A:暂时没有。
Q:DeepStream有其他语言的接口和包吗?
A:有Python版本。
Q:自己开发的模型可以放在DeepStream中吗?
A:可以。DeepStream就是提供一个完整的框架,给了很多的例子,其实还是希望用户把作为精力放在模型上面,框架我们已经给了,剩下就是你把模型换成自己需要的模型直接解决视频问题就可以。
关于视频的回放地址,大家可以在B站,百度大脑账号里就可以看到各种课程的回放,大概会在隔天上传,这也是取决于B站审核时间来看,我们会尽快上传。
Q:老师您这边使用是C++还是PYTHON?
A:今天的DEMO世界是用C++,大部分的AI应用都是混合的开发,编译的时候肯定会用到CUDA或者CPP,但是用Deepstream的话,只涉及到C++就可以了,如果用python接口直接用python就可以。
Q:DeepStream是应用到点云检测方面的检测吗?
A:点云你可以了解一下isaac,DeepStream主要是处理视频相关的应用,关于点云在一些robot或者无人车机器人上面用,isaac里面有更多的优化,包括SDKsample供大家做二次开发。
Q:了解。4.0和5.0版本有什么差异?
A:5.0版本首先对python进一步做了完善,Docker应用做了更强,增加了新的案例和参考例子,详细可以看一下5.0里有详细的说明。
Q:JetsonNano可以进行模型训练吗?
A:可以,但是不建议,因为Nano不适合做训练,因为时间太长,而且内存比较适合做inference。
Q:DeepStream在视觉导航方面有应用吗?
A:视觉导航建议了解isaacSDK,它主要解决这个问题,DeepStream主要是解决比较统一或者纯粹的高度一致的视频+AI,就是推理相关的应用,属于两个不同的行业应用范围,了解一下isaac。
Q:EasyDL怎么装到DeepStream上?
A:本次的例子是用EasyDL训练模型,inference用的是DeepStream,至于EasyDL更多的应用陈老师这边介绍一下。
陈老师:我补充一下,后续我们会在EasyDL发布官方的DeepStream支持,大家从DeepStream官方平台支持下来的EasyDL都是针对DeepStream封装好的,大家可以像现在的SDK一样,一键就可以跑起来,这个后续会发布,大家可以关注一下。
Q:可以接海康大华摄像头进行处理吗?
A:可以,海康大华摄像头结合DeepStream用的比较常见,也用的非常多。
Q:请您解释一下您刚才说的inference是什么意思?
A:通俗点就是跑各种神经网络深度学习模型,就是做推理的意思。
Q:请您介绍一下NVIDIA有几种型号的计算卡,分别算力都是多少?
A:这次主要介绍Jetson应用,我主要介绍一下,至于大卡型号非常多,可以在官网上得到更专业的咨询。Jetson目前主流有Nano、TX2,NX,Xavier,Xavier有8G、16G、32G,算力从0.5T到1.3T,到NX21T,Xavier32T都有不同的覆盖,可以根据不同的应用选择不同的版本,接口都是统一的。
Q:刚才说Nano不太适合模型训练,TX2适合训练吗?
A:Jetson主要针对边缘端的应用,也就是主要针对推理的应用,训练更关注的是吞吐量以及效率,更多的训练相当于是一次投入,inference可以是多次,如果你拿一个应用做推理的性能设备做训练应该是得不偿失,不太适合。
Q:DeepStream是解决了什么样的痛点呢?
A:简单举个例子,如果你想做人脸识别应用,你需要特定的设备获取图像和第三方数据,首先解决这个数据如何获取,获取以后怎么访问,先要解码,而这个解码不具备相关的知识不太清楚怎么解,不同的格式,不同视频封装多对应不同的解码方式,同时你还要调动硬件解,如果只是CPU解码,效率非常低。解码以后数据如何传递到GPU,这个之前还要做预处理,预处理怎么做,如何做到高效,从摄像头出来的数据到GPU,中间是不是要做很多的内存搬运以及相关的操作,以及前期处理如何用GPU,如何用VIC,如何用decode,这些对于只关注AI计算或者深度学习应用的人来说相当于不同领域,对他们来说非常困难。可能当你把所有环节打通时候,发现你是全能的专家,不再是局限于AI的工程师或者是开发人员。DeepStream就相当于解决了很多依赖于平台或者其他领域相关知识的应用,可能并不跟AI或者inference相关。
Q:人体跟踪可以用DeepStream吗?
A:可以。我们已经实现了三个跟踪相关的算法,IOU,KLC,还有一个NVKCF,而且都已经封装好,做简单的配置就可以直接用,也有已经做好的DEMO,你可以看一下效果。
Q:有支持双眼视觉的案例吗?
A:这个并没有,可以看一下isaac相关应用,那边比较做双目相关应用,因为DeepStream更多的是拿到非常常见的正常的视频数据做处理,如果像双目这个一般做测距或者点云或者其他的,isaac里涉及比较多,你可以了解一下。
介绍一下EasyDL和NVIDIA合作软硬一体方案,现在是已经在百度AI上上架,价格非常合适,全网最低,左侧是EasyDLJetsonNano软硬一体方案,原价1099,现在是800。中间是EasyDLJetsonTX2软硬一体方案,原价3500,现价320,右边是EasyDLJetsonXavier,原价5999,现价是5600。买到就是赚到!
如果你在之前已经买到了NVIDIA硬件,无论是哪款,首先在EasyDL平台训练完模型以后,发布是专项部署SDK,硬件时候宣传下面JetsonNano,TX2,EasyDL专用的,右上角有一个控制台,然后点击蓝色的新增序列号,目前只有三个月的有效期,之后会上线SDK的购买,大家可以根据自己的需求进行SDK购买。
如果你想直接购买EasyDLJetsonJetsonNano/TX2/Xavier,可以在百度市场搜索EasyDL,找到这个软硬一体方案,现在是全网最低的优惠折扣。购买以后将会获得Jetson硬件和用于激活专用SDK的专用序列号,在EasyDL训练专项适配Jetson图像分类或者物体检测模型以后,可以逐步迭代模型,满足业务需求,发布模型时候选择专项硬件适配SDK,Jetson专用SDK,这个时候可以在右侧看到如何激活的按钮,进入以后看到激活文档,参考文档进行部署集成以后可以实现离线AI预测。
具体的激活方式,大家可以扫描屏幕右侧的二维码直接进入。我这里说几个需要注意的地方,安装环节建议是JETPACK4.2.2,首次使用SDK需要联网激活,接口调用流程,有序列号,配置目录,创建和初始化EASYDL,最后一步是图像,具体大家可以看一下昨天的课程回放,讲师在直播中一步一步带大家操作了如何快速部署Jetson Nano。
下期预告,会来到领域信息处理专场,6月2号到6月3号是CV主题,6月9到6月10是NLP,下周二是晚8点主题是如何使用EasyDL构建互联网内容安全方案,讲师是百度AI技术生态部高级产品经理Nathan。6月3日晚8点,主题是EasyDL软硬一体方案在膀胱癌诊断上的应用,讲师是武汉大学人民医院泌尿外科博士杨瑞。
如果大家对EasyDL-Jetson系列产品感兴趣,可以直接扫描对应商品的二维码进入商品页进行详细了解,也可以在百度AI市场搜索“EasyDL”查看多种软硬一体方案。
【下期预告】
下一期将会来到领域信息处理专场公开课,内容覆盖CV与NLP,会有来自百度的高级产品经理、来自武汉大学的外科博士现身直播间,为大家从技术解析到实战应用,深度解析AI产业应用的痛点难点!
想要快速提升自己,转型AI应用专家的小伙伴,一定不要错过哦!下周课程海报: