题目:Deep Learning Based Systems Developed for Fall Detection A Review
页数: 166117 - 166137
发布日期: 2020年9月4日
电子ISSN: 2169-3536
DOI: 10.1109 / ACCESS.2020.3021943
发行人: IEEE
跌倒是造成世界范围内老年人口严重受伤的主要原因。瀑布妨碍他们舒适和独立的生活。统计数据表明,跌倒是造成80岁以上老年人受伤相关死亡的主要原因。根据联合国进行的一项研究[1],2017年60岁或以上的老年人口为9.62亿(占世界总人口的13%)。根据世界卫生组织(WHO)的研究,到2025年,全世界老年人的数量可能约为12亿[2]。预计到2050年,这个数字将增加一倍以上(21亿),到2100年将增加三倍(31亿)[1]。每年,约有280万老年人与紧急健康问题相关,包括跌倒受伤。65岁以上的成年人更容易遭受跌倒造成的危及生命的伤害。对于85岁以上的成年人,跌倒是造成所有与伤害有关的死亡的三分之二的主要原因[3]。大约20%的跌倒会导致致命伤害,例如髋部骨折,头部外伤等[3]。仅在美国,就在2016年,全国范围内,有29,668名(65万6100,000岁以上)美国居民因与摔倒事件相关的伤害而死亡[4]。
通常,大多数跌倒是由于起居室中的潜在健康危害而在家里发生的[3],[4]。常见的危害包括照明不良,混乱,道路阻塞,地板打滑,宠物和家具不稳定[5],[6]。患有神经系统疾病(例如痴呆[7] – [8] [9]和癫痫病[10],[11])的老年人与普通老年人相比,与秋季和秋季有关的人员伤亡风险更大。在西方文化中,老年人与家人分开生活的独立倾向也是导致秋季伤亡的原因。在大多数情况下,跌倒事件本身并不威胁生命。但是,在混乱的环境中跌倒会导致脑震荡,出血和其他严重的健康风险,导致不幸的死亡。由于独立生活,在没有跌倒检测技术的情况下,紧急服务无法及时响应跌倒事件。这通常会导致严重的后果。开发了许多支持的监视系统,以填补护士和支持人员在任何时候都在场的必要性。
很难使环境完全防跌落。因此,跌倒检测和救援服务可以确保老年人的安全。开发智能检测与预防系统已成为人们关注的问题。[12] – [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23]中对许多发达的跌倒检测和监视系统进行了回顾类别和观点。在[24] – [25] [26] [27]中讨论了与跌倒检测和跌倒预防相关的挑战,问题和进展。
检测是在给定上下文中检测特定事件或对象的存在的任务,而识别可以描述为弄清实例或事件属于特定类的成员。因此,跌倒“检测”可以描述为根据给定的数据检测是否发生了跌倒,与跌倒“识别”可以描述为识别特定的跌倒类型,例如:向前跌倒,向后跌倒,从坐姿跌落,跌倒从站立位置,就从卧位,等等[11] - [12] [13] 。跌倒识别对于建立适当的响应非常有用。例如,根据情况,从站立姿势跌落比从坐下或躺下姿势跌倒可能更致命[10],[14],[15]。如果知道适当的跌倒类型,则可以采取有效的应对措施来处理有关该特定跌落类型的可能的并发症。在此文献中,我们没有明确提及被检查的系统是跌倒检测系统还是跌倒识别系统,而是使用术语“跌倒检测”来代表所有一般的跌倒检测和活动识别系统。
近年来,深度学习已在全球大多数领域中得到广泛使用[28]。在跌倒识别中,近几年来,深度学习方法比基于阈值的算法[31] – [32] [33] [34] [35] [36]等其他方法更有效地被使用[29],[30 ]。机器学习方法在该领域也很普遍[37] – [38] [39] [40] [41] [42] [43] [44]。深度学习和机器学习是人工智能的子集[45],[46]。机器学习基于结构化数据对问题进行分类[38]。在基于机器学习的系统中,需要识别的功能由主管编程。相反,基于深度学习的系统通常执行必要的模式识别任务,而无需使用任何显式的特征提取方法。深度学习模型由多层组成。每一层都提取给定数据的特征或对数据进行一些转换。模型的最后一层通常由人工神经元组成。数据可以是基于视觉的捕获图像,原始加速度计数据,陀螺仪等形式。跌倒检测系统在健壮活动监测中的应用是一个广泛研究的领域。
但是,目前尚没有基于深度学习的跌倒检测系统的最新进展的最新评论。在这些文献中,我们基于深度学习的跌倒检测系统的工作方法,效率,性能和局限性,为促进该领域的进一步发展提供了总体视图。审查过的系统是采用深度学习方法的实用系统,用于正确检测和识别日常生活活动(ADL)事件中的跌倒事件。我们已简要介绍了它们的方法,包括有关如何在现实环境中实现这些实用系统的详细信息。此外,使用不同的方法来获得最佳的准确性,灵敏度,特异性和响应时间。
所有经过审查的跌倒检测系统都具有一些常规步骤,并结合了感应,数据处理,跌倒事件识别和紧急警报系统来营救受害者。跌倒检测系统的总体视图如图1所示。
各种数据采集设备,例如加速度计,陀螺仪,RGB相机,雷达,用于记录有关跌倒和日常生活活动(ADL)事件的数据。在数据处理阶段,执行数据预处理,扩充,特征提取等操作,以使数据在以后的阶段中可用。在模型开发阶段,处理后的数据用于训练深度学习技术。在检测阶段,将处理来自传感器的活动数据,并将其提供给训练后的模型以进行正确分类。如果检测到跌倒事件,则将通知医生,救护车,护士和受过训练的人员,并向紧急服务发出警报并提供急救服务。
有几种深度学习技术可用于识别跌倒事件。一些系统仅通过使用一种深度学习方法开发,而某些系统则结合了不同的方法以提高检测率。在此文献中,我们总共审查了37个跌倒检测系统。在这37篇论文中,共有21个系统(占已审查语料的56.8%)使用CNN架构进行跌倒检测。共有12个系统(占已审核主体的32.4%)使用LSTM架构进行跌倒检测。共有4个系统(占已审核主体的10.8%)使用自动编码器体系结构进行跌倒检测。基于CNN的跌倒检测系统以图像形式表示跌倒和ADL相关数据[51],[57]。这可以直接通过拍摄传感器捕获的图像或视频来完成,也可以通过以图像形式表示其他传感器数据来实现,等等。CNN架构非常适合在给定图像中找到图案和形状[48],[52]。因此,采用各种基于CNN的体系结构的跌倒检测系统会利用CNN的功能来分类或检测图像。LSTM是RNN体系结构的改进。像CNN一样,LSTM也可以处理图像数据。但是,它们的主要优势在于处理顺序数据,例如时间序列数据[86],[88]。由于有关跌倒事件的传感器数据是特定于时间的,因此LSTM可以成功有效地用于区分跌倒事件和ADL事件。在某些经过审查的系统中,LSTM和CNN的组合用于跌倒检测,以克服与一般视觉相关的问题,例如图像噪声,遮挡,不正确的分割,透视等。尽管CNN和LSTM体系结构主要用于监督学习,自动编码器用于以无监督的方式学习有效的数据编码[108],[110]。通常,一些技术应用于传感器数据,这些技术可将传感器数据转换为针对不同跌落和ADL类型的不同数据。然后,将自动编码器用于转换后的数据集以区分事件。因此,根据用于推断事件的主要方法对系统进行了分类。分类重点在于不同的主要方法(CNN,LSTM和自动编码器)如何处理传感器捕获的事件数据。
在这篇综述中,我们根据深度学习方法所使用的事件数据的处理方式对所审核的系统进行了分类。因此,所审查的系统可以分为以下三个主要类别:
卷积神经网络(CNN)
具有循环神经网络(RNN)和循环卷积网络(RCN)的长短期记忆(LSTM)
自动编码器
图2是该分类的一般表示。该图还表示每个小节通常使用的特定体系结构。不同架构的使用主要取决于传感器数据或用于表示跌倒和ADL事件的技术[48],[49]。
本文的其余部分安排如下:第2节讨论有关为跌倒检测开发的方法和系统的文献,第3节中介绍的讨论和未来方向,包括摘要和性能分析。最后,我们在第4节中结束本次审查。
在最近十年中,已经开发了几种深度学习方法和系统来识别秋天和ADL。许多研究人员和组织一直在研究和努力开发一种高效的深度学习方法,以在现实情况下以几乎为零的误报识别跌倒。在这篇评论中,我们试图展示针对跌倒检测开发的最重要和最新的研究和方法,并考虑以下描述:
系统介绍
系统工作原理
用于训练和实验的数据集
方案的关键和性能分析
A.基于卷积神经网络(CNN)的跌倒检测系统
本次审查中的大多数审查系统都使用CNN来开发自动跌倒检测系统。cnn将图像作为输入,然后对其进行处理,并将处理后的图像分类为某些给定类别[47] – [48] [49] [50] [51] [52]。CNN技术将每个输入图像通过一系列具有滤波器,池化层,完全连接层(FC)和softmax功能的卷积层,以进行训练和测试。[53] – [54] [55] [56] [57] [58] [59] [60] [61] [62]中提出了一些基于cnn的跌倒检测系统。本文介绍的基于CNN的跌倒检测系统描述如下:
1)卷积神经网络(CNN)
Adhikari等。 [63]提出了一种基于从Kinect RGB深度相机拍摄的视频图像的跌倒检测系统。系统中使用了CNN来识别ADL和跌倒事件。所提出的系统通过记录不同人的活动,使用了他们自己的数据集,这些数据集来自不同的室内环境。数据集总共包含21499张图像。为了训练和测试目的,对数据集进行了(73-27)%的拆分。拟议系统的整体准确性为74%。当使用者处于躺卧状态时,设备的灵敏度为99%。但是,当使用者处于爬行,弯曲和坐姿时,系统的灵敏度非常差。该系统还可以在选定的环境中工作,并且使用简单的深度学习技术,而基于融合的方法可以在所有环境中提供更好的结果。该系统是为单人场景开发的。Li介绍了CNN在视频监控环境中用于跌倒检测的使用等。 [64]。要学习用于确定跌倒事件和ADL的人体形状变形特征,请将CNN直接应用于每个帧图像。在该系统中使用了URFD数据集。使用10张交叉验证(每张850张测试图像)来评估系统的性能。此方法的性能可实现10倍交叉验证的平均灵敏度为100%,特异性和准确性平均为99.98%。由于使用的数据集具有几乎相同的背景,颜色和环境,因此背景和前景的变化可能会降低系统的性能。但是,在不同的观点和环境下,并未对现实生活中的老年人跌倒事件进行测量。Yhdego等。 [65]在带注释的加速度测量数据集中提出了一种基于预训练运动学的机器学习方法。使用连续小波变换将加速度计的数据转换为图像。然后,使用转移学习方法在图像上训练深层的CNN。使用开放的URFD数据集,其中包含30个秋季序列和40个正常活动序列。在数据集上,执行标准拆分(80-20)%。拟议的系统达到96.43%的准确性。
CNN的另一种应用是Yu等人的应用。 [66],其中背景扣除法被应用于提取人体轮廓。在提出的系统中,CNN应用于预处理的提取轮廓,该轮廓对应于人类的站立,坐着,弯曲和躺下等动作。码本背景减法是在此处使用的从背景中区分运动物体的一种常用方法。使用包含3216个姿势(804个姿势,769个姿势,833个弯曲和810个姿势)的自定义姿势数据集来测试系统。与传统的基于机器学习的系统相比,该系统提供了更好的性能(96.88%的准确性)。沉介绍了基于深度学习和云环境下图像处理的跌倒检测方法等。 [67]。通过高分辨率摄像机拍摄的频率图像被传递到Deep-Cut神经网络模型,以检测人体的关键点。检测到的关键点将被传输到深度神经网络。人体的各种形态学测试和不同类型的跌倒都表明了该系统的有效性。通过录制44个视频来创建自定义数据集,其中42个视频用于培训,2个视频用于测试。该系统的精度为98.05%。Santos等。 [68]提出了一种基于CNN的深度学习技术,该技术由3个卷积层,2个最大池和3个完全连接的层组成,用于物联网(IoT)和雾计算环境中的跌倒检测。该系统的性能是使用三个开放数据集进行评估的,并且与现有研究不符。对数据集执行标准(80-20)%拆分。所开发系统的精度为93.8%。
Zhou等人 已经提出了一种采用深度学习的基于多传感器融合的跌倒检测系统。[69]。为了获得人体运动信号,采用了连续波雷达,并使用短时傅立叶变换(STFT)来获取时频(TF)微运动特征。光学相机用于捕获人类动作的图像序列。两个名为CNN和CNS(单发多盒检测器)的CNN用于对TF功能进行分类。最后,联合决策用于检测跌倒事件。TF图像的训练数据集由300个跌落和600个非跌落组成,光学相机中SSD-Net的微调数据集包含400个图像。为了进行测试,准备了1300个雷达信号(持续时间为1s–2s)和相应的图像序列(325个落下,325个行走,325个下蹲,325个站立)。该系统实现了99.85%的精度。他等。 [70]开发了基于跌倒检测技术的低功耗FD-CNN(跌落检测卷积神经网络)。系统开发了一个由中断驱动的传感器板,该传感器板与MPU6050和低功耗ZigBee集成在一起,用于采样和缓存角速度和3轴向加速度。然后将收集的数据映射到3通道RGB位图图像中。将该数据与转换后的SisFall和MobiFall数据集组合在一起,并用于训练FD-CNN。对组合数据集进行(90-10)%的拆分,以获得训练和测试数据。所提出技术的性能使用10倍交叉验证程序,平均准确度达到98.61%,平均特异性和灵敏度分别为99.80%和98.62%。如果使用具有低功耗逻辑网络的边缘计算技术,则可以提高性能。Sadreazami开发了基于雷达的自动跌倒检测系统等。 [71]。已经在房间中建立了医疗环境,并在该环境中收集了雷达数据。已得出时间序列数据。使用导出的时间序列数据训练了深度卷积网络。拟议的系统提供了明显更少的CPU时间和更高的分类指标。所提出的系统使用5倍交叉验证程序获得的准确度,精确度,灵敏度和特异性分别为92.72%,94.21%,93.44%和91.67%。
[72]中提出了一种将CNN与有效的变化检测算法相结合的广义方法。解决泛化的局限性和资源优化问题。所开发的宽泛化方法是对原始加速度计数据进行保存而资源需求较低。开发的系统使用SmartFall数据集,该数据是从七个不同的手腕上佩戴Microsoft Band 2的人的实验中收集的。使用CUSUM(累积和)算法可提高系统性能。通过记录来自7个不同人员的数据来收集数据集。数据集总共包含51192个样本。在数据集上执行了标准的(66-44)%拆分。在使用的数据集上,所提出系统的准确度和平衡准确度(BACC)分别为96.79%和95.35%。可以使用实际数据集更有效地训练和测试模型,以在实际使用领域中获得更好的性能。等。 [73]提出了一种基于CNN的跌倒检测系统。开发的系统分三步工作,首先,系统将光流图像发送到网络,以避免基于外观的功能。其次,对3D CNN进行了不同数据集的训练,以获取一般特征。最后,为克服小尺寸跌落数据集的问题,该系统应用了转移学习。使用三个数据集URFD,Multicam和FDD对开发的系统进行了实验。在数据集上,进行了标准的(80-20)%拆分。该系统的平均灵敏度和准确度均达到94%。所提出的框架在URFD数据集上表现最佳,准确性为99%,灵敏度为100%。该系统仅在单人跌倒检测方面可能运行良好,而多人跌倒检测也很重要。王等。 [74]提出了一种用于跌倒检测以及识别ADL的系统。拟议的系统与智能鞋垫中的三轴加速度计,陀螺仪传感器结合在一起。CNN用于以较低的计算复杂度来提高准确性级别。开发的系统的数据集由穿着智能鞋垫的志愿者收集。该系统的要点是可以将CNN直接应用于由三轴加速度计和陀螺仪收集的原始传感器数据中。收集了一个自定义数据集,其中包含800个瀑布(每个200个瀑布,分别躺在床上,鞠躬,躺下,连续行走和慢跑)。提出的系统的平均精度约为98.61%。另外,敏感性和特异性分别达到97.58%和99.58%。
Zhang and Zhu [75]使用手机检测实时人类活动。智能手机是我们日常生活的主食。拟议的系统基于深度CNN,该深度CNN可处理原始3轴加速度计数据流。使用了具有挑战性的数据集UniMiB SHAR(米兰比可卡大学基于智能手机的人类活动识别)。从人类活动的多个视图生成的三个一维图像用于训练阶段。将图像应用于CNN模型以查找隐藏的图案。通过广泛年龄段的患者收集了包含17种不同类型的11,770种活动数据的数据集。所审查的系统使用5倍交叉验证,实现了91.5%的检测率。Cameiro等人使用了多流模型概念。 [76]用于跌倒检测。该系统提出了一个多流模型,该模型将高级手工特征作为输入。光学流,RGB和人类估计的姿势作为手工生成的特征发生器提供。然后,将经过修改的CNN(例如用于光流的CNN提取矢量),用于RGB视频数据的CNN和用于人类估计姿势的CNN穿过密集的VGG-16分层分类器,以对多种情况进行分类以及跌倒检测。URFD和FDD数据集用于训练模型。使用5倍混洗交叉验证,开发的系统获得了98.77%的准确度。
Casilari等。 [77]提出了一种基于深度CNN的跌倒检测系统。开发的系统通过识别三轴可移动加速度计的模式来检测跌倒事件。拟议的系统使用大量数据,最多包含14个可公开获得的数据集,包括MobiAct,SisFall,MobiFall,UniMiB SHAR,UP-Fall等。该系统主要分析这些数据集的特征,跌倒检测的可用功能以及使用14个数据集中的建议架构。该方法在SisFall数据集上的准确度,灵敏度和特异性分别达到99.22%,98.64%和99.63%。为了提高现实生活的性能并减少外推功能的限制,将部署更有效的CNN网络或其他有效的体系结构(例如LSTM)。Espinosa等。 [78]开发了基于NN的跌倒检测系统,利用UP-Fall检测多模式数据集。该系统仅与视觉数据集配合使用,并使用多个摄像机进行跌倒检测。在固定的时隙中分析输入图像,并通过从两个连续的图像相对运动中获取信息来实施光流方法来提取特征。该系统在公开数据集上进行了测试,性能良好,检测精度为95.64%,灵敏度为97.95%,对Multicam数据集的特异性为83.08%,准确性为82.26%,灵敏度为71.67%,对UP-特异性为77.48%秋季数据集。对于实时应用,可以提高性能,同时增加隐私。
2)一维(1D)卷积神经网络(CNN)
曹与尹[79]在基于1D CNN的跌倒检测的加速度计数据上应用SVD(奇异值分解)。拟议的系统与UniMiB SHAR,SisFall和UMAFall公共ADL一起使用,并且掉落公共数据集,其中包含ADL和掉落的三轴加速度信号。实验性三轴加速度数据集是从单个加速度计收集的。通过结合使用特征SMV(信号幅值向量)和SVD,使用UniMiB SHAR数据集的系统性能获得了75.65%的精度。通过将原始特征和SVD相结合,基于其他主题(LOSO)交叉验证过程,使用其他两个数据集的性能分别对SisFall和UMAFall数据集的准确度分别为63.08%和64.69%。基于融合的方法和高级CNN方法可用于更高的性能。
[80]中提出了一种基于一维CNN的方法,称为MyNet1D-D。由Tsai和Hsu提出,其中传统的骨骼特征提取算法用于将深度图像信息转换为骨骼信息,并从骨骼关节中提取七个突出显示的特征点。该系统提出了一种健壮的,深度深的一维CNN体系结构,具有少量参数和计算量,适合于嵌入式系统的实现。拟议的系统在NTU RGB + D流行的基准数据集上表现更好。拟议的系统在NVIDIA Jetson Tx2集成计算机上实施,以实现跌倒的实时预测。RGB摄像头可以代替深度Kinect传感器使用,以降低系统成本,因为它专注于嵌入式系统的实现。
3)三维(3D)卷积神经网络(CNN)
[81]通过捕获从视频中获取的帧中可用的空间和时间信息,开发了一种用于检测跌倒事件的3D CNN 。Kinect深度相机用于拍摄视频并收集信息。Adam优化器算法(基于梯度的算法)用于训练模型。提议的系统使用SDUFall数据集,其中包含20个年轻人执行的6个动作。所提出的系统使用SDUFall数据集实现了97.58%的平均准确度。拟议系统的性能是使用模拟数据集测量的,而老年人跌倒事件的真实生活数据更为重要,并且可能会降低所获得的性能。Li等人介绍了使用RGB图像的基于3D CNN的撞击前跌倒检测方法。 [82]。将预训练数据提供给3D CNN,以训练模型并根据时空模式区分正常运动和跌倒。其次,将新样本和预训练数据结合起来,以提供用于微调模型的微调数据。拟议系统的数据集由10位训练员收集,他们提供25次正常运动试验和25次跌落试验。创建了一个自定义数据集,其中包含来自10位受训者的455次收集的数据试验。经过5位学员的225次测试,该开发系统在跌落0.5秒内达到了100%的准确度。尽管审查过的系统获得了合理的准确性,但是可以使用突出实时场景的其他功能进行进一步的研究。
黄等。 [83]提出了一种方法,该方法应用3D-CNN来分析从深度相机获取的连续运动数据。为了避免过度拟合,应用了数据扩充方法。该系统总共考虑了5次随机试验,从TST跌倒检测数据集中提取了用于训练和评估目的的每240和24个视频。评估结果得到明显改善,分类准确率达到92.4〜96.9%。Kasturi等。 [84]介绍了一个由3D-CNN组成的系统,该系统使用了Kinect摄像机的视频信息。来自视频的几帧形成一个堆叠的多维数据集,作为输入传递到3D-CNN。公开可用的UR跌倒检测数据集用于测试建议的系统,在训练和验证阶段均达到100%的准确性。对数据集执行标准(80-20)%拆分。数据集包括走路时跌倒,突然跌倒和椅子跌落以及其他活动(如走路,坐下,弯曲等)。
4)反馈光流卷积神经网络(FOF CNN)
Hsieh和Jeng [85]开发了一种基于IoT的家庭智能系统,用于在家庭环境下工作的跌倒检测。所提出的系统使用反馈光流卷积神经网络。该系统使用特征反馈机制方案(FFMS)和3D-CNN来反馈安全运动,并以较少的计算获得了更高的精度。使用了由6种类型的动作和25个主题组成的KTH数据集。所提出系统的平均精度达到了92.65±2.3%。
表1显示了经过审查的基于CNN的系统的摘要,并按以下标准进行组织:系统类别,用于获取原始数据的设备,深度学习方法和用于系统的其他技术(系统是否仅检测到)下降或ADL,使用的数据集等。表1概述了基于CNN的审阅系统。
大多数审查过的系统都检测到跌倒事件。但是,其中一些还可以检测ADL。来自不同来源的不同类型的数据集已在那些系统中用于训练和实验。但是,几乎所有数据集都是通过模拟不同对象的跌倒和ADL生成的。为了感测跌倒事件,某些系统使用了RGB深度相机,该相机属于视觉设备类别[63],[64],[73]等。某些系统使用了加速度计,UWB雷达等。传感器设备类别。在审阅的系统中使用了各种数据集。其中一些使用了公开可用的数据集,例如KTH数据集[85],Uni-MiB SHAR [75],[77],[79] SisFall [70],[77],[79] UMA下降[79],UP-Fall [78],Multicam [78],URFD [64],[65],[73]和[76]。他们中的一些人使用了训练员生成的模拟数据集。
B.基于长期短期记忆(LSTM)的跌倒检测系统
在序列建模中,LSTM是流行且使用最多的循环结构之一。为了控制循环计算中的信息流,它使用门[86],[87]。
LSTM网络可以很好地保存长期记忆。网络可能会保留内存,也可能不会保留该内存,具体取决于数据。LSTM的门控机制保留了网络中的长期依赖性。网络可以使用门控机制[88] – [89] [90]存储或释放内存。
一些系统在开发跌倒检测系统时使用了LSTM的上述功能[91] – [92] [93] [94] [95]。本文将对使用LSTM以及CNN,RNN和RCN开发的系统进行如下介绍:
1)具有3D CNN的LSTM
Lu等人 开发了基于LSTM和3D CNN的跌倒检测系统。[96]通过克服现有方法的问题,如分割,图像噪声,变化,遮挡和照明。该系统仅使用动力学数据训练了自动特征提取器。为了专注于关键区域,然后结合了基于LSTM的空间视觉注意方案。为了训练3D CNN,建议的系统使用Sports-1M数据集和多相机跌倒数据集来训练视觉注意力模型。提取的时空特征有效地用于识别意外运动。在数据集上,执行了典型的拆分(80-20)%。灵敏度,特异性和准确性分别为98.13%,99.91%和99.84%,在多个摄像机跌落数据集上重叠一帧。所开发的系统未在实际环境中进行测试。在现实生活中,
2)具有递归神经网络(RNN)和CNN的LSTM
在[97]中开发了一种跌倒检测系统,它基于从RGB相机提取的2D骨骼。对于人类的2D骨骼提取,采用CNN,然后采用具有LSTM的RNN将动作分类为站立,行走,躺卧,上升和下降类别。在第一阶段,开发的系统使用了名为Deeper Cut(152层)的预构建模型。该系统的学习速率是0.0001,用于训练500个纪元。该系统是在自己的数据集上训练的。对数据集进行(60-40)%的拆分,以获取训练和测试集。该系统的性能中等,平均精度为88.9%。该系统具有某些缺点的在线版本,使用GPU型号GTX 1060 6G可以每帧提供一个输出,可以达到8帧/秒的处理速度。Abobakr等。 [98]提出了一种基于CNN和RNN的高效,可集成且保护隐私的跌倒检测系统。系统使用从Kinect RGB-D相机拍摄的图像。在该系统中,使用了具有ResNet的Deep Convolutional LSTM用于视觉特征提取,LSTM用于序列建模,逻辑回归用于跌落动作识别。拟议的系统使用URFD(UR跌倒检测)公共数据集来训练和评估系统性能。在数据集上进行了典型的(80-20)%拆分。开发的系统在验证集上的平均准确度达到98%,准确度,灵敏度和特异性分别为97%,100%和97%。所提出的卷积LSTM模型可以在GPU建模的NVIDIA TITAN-X上以每秒15个序列(每个序列包含80帧)的处理速度提供实时跌倒事件检测。Xu提出了一种支持物联网的跌倒检测技术等。 [99]使用CNN和LSTM的出色特征提取功能来获得强大的时间序列处理能力。所提出的算法将加速度数据作为从低成本三轴加速度计获取的输入。该系统的性能优于基于支持向量机(SVM)和基于CNN的组合方法。训练和测试是在MobiAct数据集上进行的,该数据集包含跌倒事件以及其他6种类型的ADL。在数据集上,进行了标准的(80-20)%拆分。分类的平均准确率达到98.98%。检测的特异性和精密度分别为99.76%和98.61%。可以将开发的系统部署并用作AI启用的IoT应用程序,用于疗养院以及收集大量数据用于学术研究。
可以通过分析身体的姿势和人体生物力学平衡的特征来预测跌倒之前的跌落预测,这是由陶和云提出的[100]。开发的系统使用RNN和LSTM从Kinect传感器的深度相机数据中获取输入,并分析三维骨架关节,通过计算质心(COM)位置和基础支撑区域来确定ADL和跌落。拟议的系统已经在Rougier和Meunier [101]生成的开放数据库上进行了评估。其中包含4种类型的ADL和4种不同体重和身高的22至39岁人群的跌倒事件。该系统的平均预测准确度达到91.7%,可以在333ms撞击墙壁或地板之前预测跌落。所提出的方法为跌倒防护研究奠定了基础。Ajerla等。 [102]他提出了一种基于LSTM网络的跌倒检测框架,该框架使用诸如笔记本电脑之类的边缘设备进行计算,而不是将原始数据发送到云中以实时预测跌倒事件。拟议的框架使用了MbientLab提供的便宜的MetaMotionR传感器来获取三轴加速度计原始数据,流引擎Apache Flink,该引擎是一种开放源代码的软件,可通过该数据流进行数据分析。MobiAct公共数据集的一个子集已用于培训和测试体系结构。开发的系统将腰部确定为放置传感器的最佳位置。所提出的框架可以从实时跌倒数据预测跌倒事件,准确率达到95.8%。使用多个传感器和多个数据流可以实现更好的性能。等。 [103]。该系统同时使用边缘计算和Fog计算以及压缩算法,以使用低功耗启用的低功耗广域网(LPWAN)技术传输数据。这改善了系统延迟。LSTM和RNN网络已在边缘计算机上实现,用于从接收到的数据中检测跌落。从此边缘网关发送实时通知和警报,并将原始数据发送到云以进行在线分析。拟议的框架可以在网络连接较差的区域中运行,并可以延长电池寿命。通过在MobiAct数据集上运行的拟议系统,在预测跌倒事件时已达到95%的平均准确度和90%的准确度。通过稍微调整并结合其他方法,可以提高系统性能。
Luna-Perejon等。 [104]介绍了一种基于门控RNN架构以及LSTM和门控递归单元(GRU)的跌倒检测方法,该方法以加速度计数据作为输入来实时检测跌倒。输入被发送到批处理归一化层,即具有RNN层的密集端层,用于预测跌倒事件。公开的SisFall数据集用于训练和测试系统。对数据集执行标准(80-20)%的拆分。所提出技术的性能分别达到F1分数高于0.85和0.98。对于GRU和LSTM版本,平均F1得分分别为0.73和0.75。没有测量常见的性能指标,如准确性,精度,灵敏度等。Torti等。 [105]提出了一种用于实现RNN架构以及LSTM的跌倒检测的方法,该方法可以嵌入具有三轴加速度计的微控制器单元(MCU)中。该实施是在Tensorflow中开发的,以供参考。经过训练的模型已使用特别注释的SisFall数据集进行了测试。对数据集进行(80-20)%的拆分。所提出的系统能够在跌倒事件的预测中达到98%的平均准确度。还已在SensorTile设备中实现了运行时检测和高度优化的模块,并使用安装在工作站上的TensorFlow所获得的结果进行了验证。开发的设备能够以非常低的功耗运行;因此,可以实现较长的电池寿命,并且表明该系统无需充电即可运行约20小时。
Theodoridis等人在[106]中提出了一种基于RNN的跌倒检测方法。所提出的网络能够处理和编码从穿戴在人体中的传感器的加速度测量中获取的顺序数据。该系统使用URFD数据集来训练和测试其公开可用的方法。此外,开发的系统使用了从随机3D旋转中获取的增强数据,以使训练阶段的那些网络受益。系统使用4种不同的网络和方法比较其结果,即LSTM-Acc,LSTM-Acc Rot,Acc + SVM-Depth,UFT。对数据集执行标准(90-10)%拆分。其中,LSTM-Acc Rot方法表现最佳,使用10倍交叉验证可达到98.57%,精密度,灵敏度和特异性分别为100%,96.67%和100%。秀玉等。 [107]提出了一种基于RNN和LSTM的深度学习方法,该方法不断从Microsoft Kinect相机获取顺序的输入图像,并对连续的图像进行分类以识别姿势类型和跌倒。在[109]中将开发的系统与Image-net进行比较。这是一个纯CNN模型,而所建议的系统在第七层中具有LSTM。该框架捕获了从连续输入图像获取的相关性,并使用先前的迭代值来确定连续的下降动作。该系统使用融合图像作为输入,这些图像是从高斯混合模型(GMM)提取的高分辨率RGB图像中提取的,用于人体形状和光流计算,以及深度图像。结果,所提出的系统在训练模型方面比现有的Image-net模型要好,尽管它比Image-net慢。
3)具有递归卷积网络(RCN)和RNN的LSTM
Ge等。 [108]提出了一种基于共显性增强的RCN体系结构的跌倒检测方案,用于从视频中检测跌倒事件。该系统将视频剪辑作为输入,并通过共显着性增强进行了增强,然后应用RCN,然后应用带有LSTM的RNN标记输出。拟议的系统使用带有Tensor-Flow后端的KERAS库进行实验。将实验应用于来自不同视角的多个摄像机视频的开放数据集。对数据集进行(50-50)%的拆分。测试的实验结果表明性能达到98.96%。
表2显示了经过审查的基于LSTM的系统的摘要,其组织如下:系统类别,用于获取原始数据的设备,深度学习方法和用于系统的其他技术(系统是否仅检测到)秋季或ADL,使用的数据集等。表2简要列出了具有CNN,RNN和RCN的已开发系统的LSTM。
大多数系统检测跌倒事件而不是ADL。几乎所有这些都属于视觉设备类别。URFD [98],[106],开放视频数据集[100],[108],运动1M数据集[96]和多个摄像机掉落数据集[96],MobiAct数据集[99],[102],[103],使用SisFall数据集[104],[105],并在[97],[107]中使用自己的数据集。
C.基于自动编码器(AE)的跌倒检测系统
自动编码器是一种无监督的人工神经网络[110],[111]。作为一种无监督的神经网络,无需提供标记的数据集即可对模型进行训练[112]。开发模型需要考虑四个基本部分,分别是编码器,瓶颈,解码器和重构损失[113] – [114] [115]。
基于自动编码器技术开发并在本文中进行了概述的跌倒检测系统描述如下:
Jokanovic等。 [116]提出了一种基于深度神经网络(DNN)的雷达跌倒检测系统,其中时频(TF)分析提供了人类运动的可区分成分。DNN由堆叠式自动编码器(两个堆叠式)和softmax层(回归分类器)输出组成。在提议的系统中考虑了四种人类活动或动作,例如跌倒,行走,弯曲/伸直,坐着。该模型的性能是通过与常规方法一起构造所提出系统的混淆矩阵来评估的。与传统方法的78%的成功率相比,获得了大约87%的成功率。Droghini等。 [117]提出了一种使用DT(下游阈值)分类器的深度卷积自动编码器进行声学跌落检测的无监督方法。通过收集地板声学传感器的信号(对应于常见声音)的端到端策略,将模型训练为新颖性检测器。该模型通过跌倒事件声音来区分由常见的室内人类活动(例如脚步声,语音和人类跌倒事件)产生的声音事件。拟议系统的数据集收集在一个矩形房间7中× 使用位于地面上的Presonus AudioBox 44VSL声卡和FAS 2 m。声音的两种类型是跌倒事件声音和人的正常活动。结果分为两类:一类是清晰的声音环境,拟议系统的准确度约为94.61%,另一类是嘈杂的声音环境,拟议系统的准确度约为95.02%。
Zhou和Komuro [118]使用具有3D卷积残差块的变分自动编码器(VAE)和用于提高准确性的区域提取技术来检测跌倒动作。该系统是一种无监督学习方法,它利用重建误差来检测跌倒动作以及ADL。在该系统上使用了高质量的模拟跌倒数据集(HQFD)和Le2i跌倒数据集(Le2i)。通过无人监督的Res-VAE模型,开发的系统达到了88.7%的精度。Seyfioglu等人 提出了三层深度卷积自动编码器(CAE)。[119]。这三层是CNN和自动编码器的组合,它们利用无监督的预训练来初始化后续卷积层中的权重。该体系结构比其他常规分类器更有效。拟议的系统使用雷达作为传感设备。为了生成数据集,有11个不同的人参与,收集了12种不同类别的1007个步态样本。该系统获得的准确度为94.2%,可区分12种涉及辅助和无辅助人体运动的室内活动。
表3中显示了经过审查的基于自动编码器的系统的摘要,其组织如下:系统类别,用于获取原始数据的设备,深度学习方法和用于系统的其他技术(是否为系统)仅检测跌落或ADL,使用的数据集等。表3简要概述了基于自动编码器的系统。建议的大多数系统基于基于传感器的自动编码器,其中之一使用具有CNN模型的自动编码器。在[118]中基于视觉的建议系统使用了HQFD和Le2i数据集。但是其他系统使用自己的数据集。其中一些人使用雷达[116],[119]。HQFD和Le2i提出的系统使用自己的数据集来检测跌倒事件以及ADL。其他一些系统也提出了一种使用自动编码器的方法,该方法在[120],[121]中可用。
A.讨论
在这篇综述中,我们研究了基于最新深度学习的跌倒检测系统。表4总结了总体回顾。在表1,2和3,我们分类的所有系统与视觉数据,并与各种传感器数据的工作。
基于视觉的系统可处理来自[63],[64],[80],[81],[98],[100],[107],[108],RGB摄像机的Kinect RGB和深度摄像机的数据在[67],[69],[76],[78],[82],[85],[96],[97],[108]中引入。基于传感器的系统可以使用[70],[72],[74],[77],[79],[99],[102] – [103] [104] [105] [106],[70],[104]中描述的陀螺仪数据,[69],[71],[ 116],[119]。比较这两个类别,基于视觉的系统比基于传感器的系统提供更好的结果。
大多数研究人员已使用CNN来开发跌倒检测系统。表1描述了1D-CNN,2D-CNN,3D-CNN 。3D-CNN在[96]中提供了更好的性能。他们中的一些人使用了LSTM,RNN和RCN,具有三层,回归和逻辑分类器的自动编码器。
基于传感器的系统使用[116],[119]中所示的雷达数据,将大多数自动编码器体系结构使用。[119]中提出的系统使用自动编码器和卷积神经网络以获得更好的结果。一些系统已使用方法的组合来获得准确的结果[113],[116]。表4简要显示了各种系统使用的深度学习方法。
通过在不同的数据集上进行实验获得的系统的性能,尤其是准确性,灵敏度,特异性和处理速度,在表5中进行了说明,并在图3中进行了说明–5,取决于一些标准。我们考虑了使用深度学习方法的标准,用于训练和实验的数据集,系统的准确性,敏感性和特异性。
几乎所有系统都测量了所提出系统的平均精度。但是,很少有文献提到计算出的敏感性和特异性评分。在所有系统中处理速度尚不清楚。值得一提的是[82]中的响应延迟为0.5s,尽管它基于5位培训师的225次测试。
图3显示了经过审查的跌倒检测系统之间的准确性比较。但是,由于不同的系统使用不同的数据集,因此这些系统实际上不是可比较的。文献[82]中提出的系统使用3D CNN达到了100%的最高准确度,该数据集由10名教练进行了25次正常运动和25次跌落运动的试验而收集。在[84]中开发的系统还使用3D CNN实现了100%的最高精度。在系统[64], [69], [74], [76], [77], [80], [82], [96]使用各种深度学习方法还获得了很高的准确性。使用10倍交叉验证的CNN在[64]中达到了99.98%的最高准确度,使用基于Alex-Net和SSD-Net的三个CNN在[69]中达到了99.85%,在[96]中使用3D CNN和99.84%LSTM。使用CNN在[63]中获得的最低准确度为74%。在[65]中,所审查系统的中等准确性为96.43%。
由于灵敏度是评估任何工作模型的标准之一,因此,一些已审查的系统[63],[64],[70],[71],[73],[74],[77],[78],[80],[96],[98],[106]提到了它。从图4中可以看出,所审查系统的最高灵敏度为100%,[64],[98]。在[64]中使用具有10倍交叉验证的CNNMicrosoft Kinect相机用于捕获跌倒事件。CNN,带有ResNet的LSTM,循环LSTM,逻辑回归模块在[98]中使用。所提出的系统[64]和[98]都使用了称为UR跌落检测数据集的相同数据集。在仅使用CNN进行训练的雷达[71]中,获得的最低灵敏度为93.44%,雷达用于感应跌倒事件。所审查系统的中度敏感性为98.64%[77]和98.13%[96]。
图5显示了所审查的跌倒检测系统的发现特异性。最高的特异性在[64]中为99.98%,最低的特异性在[78]中为83.08%,所审查系统的中等特异性在[71]中为97%。尽管这些系统的性能存在差异,但由于数据集的差异很大,因此这些系统不可比。
敏感性和特异性对于任何医疗系统,尤其是跌倒检测系统都非常重要。但是,敏感性和特异性通常成反比。这意味着敏感性的提高通常会导致特异性降低,反之亦然。灵敏度也称为真实阳性率,它表示系统正确识别跌倒事件的能力。特异性称为真阴性率,表示系统正确识别非跌倒事件的能力。在鉴定严重但可治疗的疾病或状况的测试或系统中,通常需要高灵敏度。由于跌倒是危及生命的事件,如果及早发现,跌倒的危害就可以轻松减轻,因此,最大化灵敏度应比最大化特异性更高。最大化灵敏度还会增加误报率,这意味着随着跌倒事件的增加,检测非跌倒事件的比率也将增加。但是,安全要比冒生命危险要好。
表6总结了在基于深度学习的跌倒检测系统中使用的关键字“跌倒检测”,“跌落识别”,“跌落定位”,“跌落救援”和“实时”,以描述其提出的系统和方法。结果表明,几乎所有系统都使用关键术语“跌倒检测”来描述其方法和系统。少数系统还使用了“秋季识别” [74],[77] – [78] [79],[85],[100],[102]和“秋季定位” [69]这两个关键术语,[73],[76],[80],[83],[85],[97],[100],[118]以及关键术语“跌倒检测”。因此,就跌倒事件而言,检测和识别可以互换使用。在检测到跌倒事件之后,非常有必要联系紧急服务部门,因为大多数致命或威胁生命的事件并非由跌倒本身引起,而是由于延误治疗或响应而造成。表6显示了系统是否通过在线消息或SMS明确连接到任何坠落响应服务,例如紧急联络,救护车或医院服务。在所有审查过的系统中,只有[67]和[70]中提出的系统与坠落救援和紧急医疗服务明确相连。几乎所有审查过的系统都尝试了不同方法来区分跌倒和ADL事件,但是,很少有系统提出了真实的原型或完整的跌倒检测和救援解决方案。
实时监测是跌倒检测系统中的另一个重要因素,因为跌倒事件发生的时间很短,跌倒事件后的快速响应对于患者的生存能力至关重要。在审查过的系统中,[64],[67],[70],[72],[80] – [81] [82],[85],[98],[100],[ 102],[104]和[105]报告了实时性能。
计算能力和存储量也是跌倒检测系统的重要考虑因素。开发深度学习系统需要大量存储空间来存储大型数据集和强大的计算设备,例如多核CPU,多个GPU,TPU和大量RAM。但是,由于廉价云计算平台的出现以及计算设备成本的不断下降,研究人员在开发深度学习系统时不再需要担心存储和计算能力的限制。最近,诸如NVIDIA Jetson TX2之类的嵌入式AI计算设备使研究人员能够在现实场景中非常轻松地部署计算密集型深度学习解决方案。但是,这种设备的价格仍然很高。大多数经过审查的跌倒检测系统都在在线云计算平台或高配置个人计算机中接受了培训。由于大多数审查过的系统都没有提出整个跌倒检测和救援系统的真实原型,因此在大多数情况下都没有报告功耗。
审查过的系统中的传感设备仅用于记录数据并将数据发送到服务器。在实际场景中部署时,由于模型的计算量很大,大多数经过审查的跌倒检测系统都需要采用客户端-服务器体系结构的变体。然后,传感设备将需要Internet连接功能
表7总结了所审查系统中使用的大多数常用开放数据集。有关数据集的信息,例如出版年份,受试者人数以及男女比例,志愿者的年龄范围,数据收集区的情况,数据集中的类型数以及秋天和ADL类型信息,样本数数据集中的数据以及ADL和跌落率,总结了数据集中使用的传感器,数据集中的感应点数量以及感应点的位置。
B.未来研究建议
已经开发并提出了各种用于基于深度学习来识别跌倒事件的系统。尽管开发一个老年人跌倒数据集以有效地训练系统是一项艰巨的任务,但这样做仍然是非常重要的任务。系统多数[63] – [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75]仅使用基于CNN的方法,其中可以使用3D CNN或具有10倍交叉验证的CNN或混合方法来获得更好的性能。可以探索其他CNN架构,例如R-CNN,Faster R-CNN。此外,LSTM可以作为一种选择,它可以有助于提高整个跌倒检测系统的性能。尽管在[96] – [97] [98],[102],[103],[108]中将LSTM与RNN,RCN结合使用,但是性能并不比基于CNN的拟议系统更好。因此,对于跌倒检测系统的开发和实施,LSTM与其他深度学习方法以及RNN,RCN的结合,可以作为未来的研究。[116] – [117]中基于自动编码器的系统[118] [119]没有表现出明显的性能提升。因此,需要更有效地开发采用自动编码器方法的跌倒检测。
在这篇评论中,总共讨论了三种传感方式,分别是:相机,加速度计和雷达。
在审查的系统中使用了两种不同类型的相机,例如:通用RGB相机和Kinect传感器。基于RGB相机的系统是低成本的。而且,它们与可穿戴式跌倒检测系统不同,不会妨碍用户的运动。但是,基于RGB摄像头的系统不能保护隐私,因此无法在某些具有跌倒危险的环境中自由使用,例如:浴室,卫生间等。此外,连接到Internet的基于RGB相机的系统容易受到黑客攻击。这些缺点可以通过使用Kinect传感器或基于深度摄像头的系统来克服。深度摄像机仅捕获有关用户位置的深度信息。该深度信息在使用前需要进一步处理。因此,该信息不容易被利用。从而,基于深度摄像头的系统也可用于厕所,洗手间等区域。基于Kinect传感器的系统通常与其他传感器(如加速度计,陀螺仪)结合使用,以提高系统的整体性能。基于视觉的系统是非常特定于背景的。更改背景会严重影响系统的整体性能。基于视觉的系统使用的大多数数据集都记录在封闭的环境中。在现实生活中,设备记录的背景会非常不同,这将使大多数基于视觉的系统效率降低。基于视觉的系统是非常特定于背景的。更改背景会严重影响系统的整体性能。基于视觉的系统使用的大多数数据集都记录在封闭的环境中。在现实生活中,设备记录的背景会非常不同,这将使大多数基于视觉的系统效率降低。基于视觉的系统是非常特定于背景的。更改背景会严重影响系统的整体性能。基于视觉的系统使用的大多数数据集都记录在封闭的环境中。在现实生活中,设备记录的背景会非常不同,这会使大多数基于视觉的系统效率降低。
加速度计是跌倒检测系统中非常常用的传感器。它们促进了可穿戴或嵌入式跌倒检测系统的开发。加速度计当前是所有智能手机中的标准传感器。这种集成极大地有助于在单个设备中开发跌倒检测和识别系统。使用加速度计作为跌倒检测感应模式的主要优点是:价格便宜,生成的数据需要很少甚至不需要预处理,非常节能,易于使用等。然而,与可穿戴设备有关的社会耻辱跌倒检测系统。尽管由于嵌入式系统尺寸的不断减小,许多基于加速度计的跌倒检测系统仍可以以很小的尺寸实现,这使得它们几乎不引人注意。
使用雷达作为感应模式的跌倒检测系统与使用Kinect或深度相机作为传感器的跌倒检测系统具有相同的优点和缺点。雷达可以保护用户的隐私,可以安装在洗手间,厕所等区域。但是,生成的数据需要进一步处理才能有效使用。当在周围环境中调用多静态系统时,使用雷达作为捕获设备的系统可能会降低性能。因此,在跌倒检测系统的未来开发中可以更有效地处理这些情况和问题。
安全也是一个大问题。大多数审查过的系统都未提及有关系统安全性的任何内容。由于建议的系统中使用的大多数设备都已连接到Internet以进行通信和数据处理,因此它们容易受到入侵者和黑客的攻击。大多数公共数据集是通过在封闭的受保护环境中记录ADL和跌落数据而生成的。但是,现实生活中的环境非常多样化。应该更加强调反映真实场景中传感器数据的数据集。可以将相似种类的公共数据集组合起来以开发更大的基准数据集。在这些基准数据集上测试所提议的系统将使方法之间的比较更加容易,从而有助于开发更强大,更准确的方法。基于深度学习的跌倒检测系统是非常繁重的计算。可以进行进一步的研究以使这些系统和网络更轻便并且可在嵌入式系统中部署。大多数经过审查的跌倒检测系统无法在多人跌倒场景中检测到跌倒。这些系统在将ADL事件(例如躺下,蹲下等)与跌倒事件分开时也遇到麻烦。
几乎所有经过审查的跌倒检测系统都缺乏故障安全协议。大多数跌倒检测系统都依赖于网络基础结构,恒定的大量电源等。但是,没有提及故障保护协议,该协议仍然可以检测跌倒并在断电,网络断开连接等情况下提供最少的紧急响应服务。可以将基于监视的方法和可穿戴方法相结合,以开发更强大的跌倒检测系统。目前在文献中综述的当前跌倒检测系统与老年人跌倒,患病等有关。但是,跌倒和与跌倒有关的人员伤亡不仅限于这些情况。其他类型的跌倒,例如从攀岩场跌落,婴儿和幼儿的致命跌落,各种体育比赛中的跌落等。还应考虑到这些情况,并应开发系统以检测这些情况下的跌倒。当前的跌倒检测系统是通用系统,它们不是特定于患者的。但是,人工智能的最新进展使我们能够开发满足特定患者需求的系统。这些系统应该能够根据个人特征(例如体重,年龄,身高,疾病,活动历史等)来识别个人的跌倒模式。研究还应该集中在跌倒预测和可以预测潜在跌倒的跌落防护系统上,或分别减轻跌倒的影响。各种神经系统疾病和某些疾病与患者跌倒事件密切相关。然而,大多数经过审查的跌倒检测系统都是独立的,因此没有关于受监视的个人或患者的事先信息。有关受监控人员病史的先验知识可能会帮助智能跌倒检测系统更加针对患者,并满足其特定需求。但是,这带来了安全性和隐私问题。大多数跌倒检测系统已使用不同的评估指标来评估系统的性能。通常,跌倒检测系统的主要缺点是缺少简化的标准评估程序。由于不同的评估指标通常不可比,因此这使得跌倒检测系统之间的比较非常困难。应该对跌倒检测系统的通用标准度量的开发进行进一步的研究。由于传感器是任何跌倒检测系统的关键部件,因此传感器的位置起着至关重要的作用。但是,不同的跌倒检测系统采用不同的传感器位置。像评估指标一样,将来需要对传感器位置进行标准化,因为比较来自放置在不同位置的传感器的性能指标是没有用的。将来,研究也应该集中在多人场景中的跌倒检测上。将来传感器位置的标准化是必要的,因为比较来自放置在不同位置的传感器的性能指标是没有用的。将来,研究也应该集中在多人场景中的跌倒检测上。将来传感器位置的标准化是必要的,因为比较来自放置在不同位置的传感器的性能指标是没有用的。将来,研究也应该集中在多人场景中的跌倒检测上。
基于深度学习的跌倒检测系统还具有用于推断事件的主要方法的一般缺点。CNN并不是人类视觉系统的最终模型。基于CNN的系统在旋转,方向,照明,对象形状,环境等方面非常具体。因此,大多数基于CNN的跌倒检测系统仅在实际环境中适用,前提是受监控的环境与被监控者的环境相同。使用的数据集。通过使用数据增强以及代表各种场景的数据集的组合,可以部分绕开此问题。同样,基于CNN的系统也容易受到对抗性攻击。但是,这仍然是一个相对较新的领域,需要做更多的研究来开发一种可以抵御对抗性攻击的体面算法。LSTM需要更长的训练时间和更严格的超参数调整。而且,与类似的方法相比,LSTM需要更多的内存。因此,很难部署采用LSTM的解决方案。近年来,研究集中在优化深度学习硬件上。这些研究有助于减少部署适当的深度学习解决方案所需的芯片尺寸或电路尺寸。这些研究可以帮助为部署更多基于外部和内存或CPU密集型深度学习的跌倒检测系统铺平道路。自动编码器是非常特定于数据的。自动编码器实用程序的范围受到训练数据之间差异程度的限制。因此,基于自动编码器的系统还可以受益于代表各种环境场景的混合数据集。表8。
本文对基于深度学习的跌倒检测系统的最新进展进行了概述。审查的系统已分类为:基于CNN的系统,基于LSTM的系统和基于自动编码器的系统。大多数相关工作已使用CNN来开发跌倒检测系统。在所审查的系统中,具有10倍交叉验证的3D CNN或CNN表现最佳。流行两种类型的硬件技术:基于传感器的系统和基于视觉的系统。经过审查的跌倒检测系统的目标是使用最佳的深度学习方法来发现老年人跌倒的情况,并在短时间内通知附近的护士或支持/医护人员。
[1] United Nations, ‘‘World population prospects: The 2017 revision, key
findings and advance tables,’’ Dept. Econ. Social Affairs, Population
Division, New York, NY, USA, Working Paper ESA/P/WP/248, 2017.
[2] World Health Organization. Accessed: Sep. 25, 2019. [Online]. Available: http://www.searo.who.int/entity/health_situation_trends/data/chi/
elderly-population/en/
[3] Falls in Older Persons: Risk Factors and Prevention.
Accessed: Oct. 15, 2019. [Online]. Available: https://www.ncbi.
nlm.nih.gov/books/NBK235613/
[4] E. Burns and R. Kakara, ‘‘Deaths from falls among persons aged≥ 65
years—United States, 2007–2016,’’ Morbidity Mortality Weekly Rep.,
vol. 67, no. 18, p. 509, 2018.
[5] S. R. Lord, H. B. Menz, and C. Sherrington, ‘‘Home environment risk
factors for falls in older people and the efficacy of home modifications,’’
Age Ageing, vol. 35, no. 2, pp. ii55–ii59, Sep. 2006.
[6] P. Vallabh and R. Malekian, ‘‘Fall detection monitoring systems: A comprehensive review,’’ J. Ambient Intell. Humanized Comput., vol. 9, no. 6,
pp. 1809–1833, Nov. 2018.
[7] P. Wang, C.-S. Chen, and C.-C. Chuan, ‘‘Location-aware fall detection
system for dementia care on nursing service in evergreen inn of Jianan
hospital,’’ in Proc. IEEE 16th Int. Conf. Bioinf. Bioeng. (BIBE), Oct. 2016,
pp. 309–315.
[8] N. Doulamis, ‘‘Viusal fall alert service in low computational power device
to assist persons’ with dementia,’’ in Proc. 3rd Int. Symp. Appl. Sci.
Biomed. Commun. Technol. (ISABEL), Nov. 2010, pp. 1–5.
[9] O. Rawashdeh, W. Sa’deh, M. Rawashdeh, G. Qu, M. Ferrari,
B. Harrison, R. Hammond, and M. Maddens, ‘‘Development of a lowcost fall intervention system for hospitalized dementia patients,’’ in Proc.
IEEE Int. Conf. Electro/Inf. Technol., May 2012, pp. 1–7.
[10] B. Homann, A. Plaschg, M. Grundner, A. Haubenhofer, T. Griedl,
G. Ivanic, E. Hofer, F. Fazekas, and C. N. Homann, ‘‘The impact of
neurological disorders on the risk for falls in the community dwelling
elderly: A case-controlled study,’’ BMJ Open, vol. 3, no. 11, Nov. 2013,
Art. no. e003367.
[11] S. Nooruddin, M. Milon Islam, and F. A. Sharna, ‘‘An IoT based devicetype invariant fall detection system,’’ Internet Things, vol. 9, Mar. 2020,
Art. no. 100130.
[12] T. Prajapati, N. Bhatt, and D. Mistry, ‘‘A survey paper on wearable sensors
based fall detection,’’ Int. J. Comput. Appl., vol. 115, no. 13, pp. 15–18,
Apr. 2015.
[13] X. Yu, ‘‘Approaches and principles of fall detection for elderly and
patient,’’ in Proc. HealthCom 10th Int. Conf. e-Health Netw., Appl. Services, Jul. 2008, pp. 42–47.
[14] S. Chaudhuri, H. Thompson, and G. Demiris, ‘‘Fall detection devices
and their use with older adults: A systematic review,’’ J. Geriatric Phys.
Therapy, vol. 37, no. 4, pp. 178–196, 2014.
[15] Y. Delahoz and M. Labrador, ‘‘Survey on fall detection and fall prevention using wearable and external sensors,’’ Sensors, vol. 14, no. 10,
pp. 19806–19842, Oct. 2014.
[16] Z. Zhang, C. Conly, and V. Athitsos, ‘‘A survey on vision-based fall
detection,’’ in Proc. 8th ACM Int. Conf. Pervas. Technol. Rel. Assistive
Environ. (PETRA), 2015, pp. 1–7.
[17] C. Debes, A. Merentitis, S. Sukhanov, M. Niessen, N. Frangiadakis,
and A. Bauer, ‘‘Monitoring activities of daily living in smart homes:
Understanding human behavior,’’ IEEE Signal Process. Mag., vol. 33,
no. 2, pp. 81–94, Mar. 2016.
[18] F. Erden, S. Velipasalar, A. Z. Alkar, and A. E. Cetin, ‘‘Sensors in assisted
living: A survey of signal and image processing methods,’’ IEEE Signal
Process. Mag., vol. 33, no. 2, pp. 36–44, Mar. 2016.
[19] F. Bagalà, C. Becker, A. Cappello, L. Chiari, K. Aminian,
J. M. Hausdorff, W. Zijlstra, and J. Klenk, ‘‘Evaluation of accelerometerbased fall detection algorithms on real-world falls,’’ PLoS ONE, vol. 7,
no. 5, May 2012, Art. no. e37062
[20] S. S. Khan and J. Hoey, ‘‘Review of fall detection techniques:
A data availability perspective,’’ Med. Eng. Phys., vol. 39, pp. 12–22,
Jan. 2017.
[21] M. Mubashir, L. Shao, and L. Seed, ‘‘A survey on fall detection: Principles
and approaches,’’ Neurocomputing, vol. 100, pp. 144–152, Jan. 2013.
[22] R. Igual, C. Medrano, and I. Plaza, ‘‘Challenges, issues and trends in fall
detection systems,’’ Biomed. Eng. OnLine, vol. 12, no. 1, p. 66, 2013.
[23] M. Islam, N. Neom, M. Imtiaz, S. Nooruddin, M. Islam, and M. Islam,
‘‘A review on fall detection systems using data from smartphone sensors,’’
Ingénierie des systèmes d Inf., vol. 24, no. 6, pp. 569–576, Dec. 2019.
[24] G. Koshmak, A. Loutfi, and M. Linden, ‘‘Challenges and issues in multisensor fusion approach for fall detection,’’ J. Sensors, vol. 2016, pp. 1–12,
Dec. 2016.
[25] T. Xu, Y. Zhou, and J. Zhu, ‘‘New advances and challenges of
fall detection systems: A survey,’’ Appl. Sci., vol. 8, no. 3, p. 418,
Mar. 2018.
[26] M. A. Baba Khel and M. Ali, ‘‘Technical analysis of fall detection
techniques,’’ in Proc. 2nd Int. Conf. Advancements Comput. Sci. (ICACS),
Feb. 2019, pp. 1–8.
[27] L. Ren and Y. Peng, ‘‘Research of fall detection and fall prevention technologies: A systematic review,’’ IEEE Access, vol. 7, pp. 77702–77722,
2019.
[28] Y. LeCun, Y. Bengio, and G. Hinton, ‘‘Deep learning,’’ Nature, vol. 521,
no. 7553, pp. 436–444, May 2015.
[29] H.-C. Shin, H. R. Roth, M. Gao, L. Lu, Z. Xu, I. Nogues, J. Yao,
D. Mollura, and R. M. Summers, ‘‘Deep convolutional neural networks
for computer-aided detection: CNN architectures, dataset characteristics and transfer learning,’’ IEEE Trans. Med. Imag., vol. 35, no. 5,
pp. 1285–1298, May 2016.
[30] J. Ahmad, H. Farman, and Z. Jan, ‘‘Deep learning: Methods and applications,’’ in SpringerBriefs in Computer Science. Singapore: Springer,
2019, pp. 31–42.
[31] L. N. V. Colon, Y. DeLaHoz, and M. Labrador, ‘‘Human fall detection
with smartphones,’’ in Proc. IEEE Latin-America Conf. Commun. (LATINCOM), Nov. 2014, pp. 1–7.
[32] S.-L. Hsieh, C.-T. Yang, and H.-J. Li, ‘‘Combining wristband-type
devices and smartphones to detect falls,’’ in Proc. IEEE Int. Conf. Syst.,
Man, Cybern. (SMC), Oct. 2017, pp. 2373–2377.
[33] A. Z. Rakhman and L. E. Nugroho, ‘‘Fall detection system using
accelerometer and gyroscope based on smartphone,’’ in Proc. 1st Int.
Conf. Inf. Technol., Comput., Electr. Eng., Nov. 2014, pp. 99–104.
[34] B. Aguiar, T. Rocha, J. Silva, and I. Sousa, ‘‘Accelerometer-based fall
detection for smartphones,’’ in Proc. IEEE Int. Symp. Med. Meas. Appl.
(MeMeA), Jun. 2014, pp. 1–6.
[35] V. R. L. Shen, H.-Y. Lai, and A.-F. Lai, ‘‘Application of high-level fuzzy
Petri nets to fall detection system using smartphone,’’ in Proc. Int. Conf.
Mach. Learn. Cybern., vol. 3, Jul. 2013, pp. 1429–1435.
[36] F. Wu, H. Zhao, Y. Zhao, and H. Zhong, ‘‘Development of a WearableSensor-Based fall detection system,’’ Int. J. Telemedicine Appl., vol. 2015,
pp. 1–11, Feb. 2015.
[37] P. Vallabh, R. Malekian, N. Ye, and D. C. Bogatinoska, ‘‘Fall detection
using machine learning algorithms,’’ in Proc. 24th Int. Conf. Softw.,
Telecommun. Comput. Netw. (SoftCOM), Sep. 2016, pp. 1–9.
[38] A. Rahaman, M. M. Islam, M. R. Islam, M. S. Sadi, and S. Nooruddin,
‘‘Developing IoT based smart health monitoring systems: A review,’’
Revue d’Intelligence Artificielle, Lavoisier, vol. 33, no. 6, pp. 435–440,
2019.
[39] M. Luštrek and B. Kaluža, ‘‘Fall detection and activity recognition
with machine learning,’’ Informatica, vol. 33, no. 2, pp. 205–212,
2009.
[40] K. de Miguel, A. Brunete, M. Hernando, and E. Gambao, ‘‘Home camerabased fall detection system for the elderly,’’ Sensors, vol. 17, no. 12,
p. 2864, Dec. 2017.
[41] G. Rescio, A. Leone, and P. Siciliano, ‘‘Supervised machine learning
scheme for electromyography-based pre-fall detection system,’’ Expert
Syst. Appl., vol. 100, pp. 95–105, Jun. 2018.
[42] A. Shahzad and K. Kim, ‘‘FallDroid: An automated smart-phone-based
fall detection system using multiple kernel learning,’’ IEEE Trans. Ind.
Informat., vol. 15, no. 1, pp. 35–44, Jan. 2019.
[43] J. C. Dogan and M. S. Hossain, ‘‘A novel two-step fall detection method
using smartphone sensors,’’ in Proc. IEEE Int. Conf. Smart Comput.
(SMARTCOMP), Jun. 2019, pp. 434–438.
[44] M. Cheffena, ‘‘Fall detection using smartphone audio features,’’ IEEE J.
Biomed. Health Informat., vol. 20, no. 4, pp. 1073–1080, Jul. 2016.
[45] N. Yodpijit, T. Sittiwanchai, and M. Jongprasithporn, ‘‘The development
of artificial neural networks (ANN) for falls detection,’’ in Proc. 3rd Int.
Conf. Control, Autom. Robot. (ICCAR), Apr. 2017, pp. 547–550.
[46] E. Casilari-Pérez and F. García-Lagos, ‘‘A comprehensive study on the
use of artificial neural networks in wearable fall detection systems,’’
Expert Syst. Appl., vol. 138, Dec. 2019, Art. no. 112811.
[47] J. Gu, Z Wang, J Kuen, L Ma, A Shahroudy, B Shuai, T. Liu, X. Wang,
G. Wang, J. Cai, and T. Chen, ‘‘Recent advances in convolutional neural
networks,’’ Pattern Recognit., vol. 77, pp. 354–377, May 2018.
[48] W. Rawat and Z. Wang, ‘‘Deep convolutional neural networks for image
classification: A comprehensive review,’’ Neural Comput., vol. 29, no. 9,
pp. 2352–2449, Sep. 2017.
[49] O. Faust, Y. Hagiwara, T. J. Hong, O. S. Lih, and U. R. Acharya,
‘‘Deep learning for healthcare applications based on physiological signals: A review,’’ Comput. Methods Programs Biomed., vol. 161, pp. 1–13,
Jul. 2018.
[50] H. Ismail Fawaz, G. Forestier, J. Weber, L. Idoumghar, and P.-A. Müller,
‘‘Deep learning for time series classification: A review,’’ Data Mining
Knowl. Discovery, vol. 33, no. 4, pp. 917–963, Jul. 2019.
[51] G. Yao, T. Lei, and J. Zhong, ‘‘A review of convolutional-neural-networkbased action recognition,’’ Pattern Recognit. Lett., vol. 118, pp. 14–22,
Feb. 2019.
[52] A. Voulodimos, N. Doulamis, A. Doulamis, and E. Protopapadakis,
‘‘Deep learning for computer vision: A brief review,’’ Comput. Intell.
Neurosci., vol. 2018, pp. 1–13, Feb. 2018.
[53] S. Wang, L. Chen, Z. Zhou, X. Sun, and J. Dong, ‘‘Human fall detection
in surveillance video based on PCANet,’’ Multimedia Tools Appl., vol. 75,
no. 19, pp. 11603–11613, Oct. 2016.
[54] Y. Fan, M. D. Levine, G. Wen, and S. Qiu, ‘‘A deep neural network
for real-time detection of falling humans in naturally occurring scenes,’’
Neurocomputing, vol. 260, pp. 43–58, Oct. 2017.
[55] H. Sadreazami, M. Bolic, and S. Rajan, ‘‘TL-FALL: Contactless indoor
fall detection using transfer learning from a pretrained model,’’ in Proc.
IEEE Int. Symp. Med. Meas. Appl., Jun. 2019, pp. 1–5.
[56] M. Gochoo, T.-H. Tan, S.-H. Liu, F.-R. Jean, F. Alnajjar, and S.-C. Huang,
‘‘Unobtrusive activity recognition of elderly people living alone using
anonymous binary sensors and DCNN,’’ IEEE J. Biomed. Health Informat., vol. 23, no. 2, pp. 693–702, Mar. 2019.
[57] Z. Zhang, X. Ma, H. Wu, and Y. Li, ‘‘Fall detection in videos with
trajectory-weighted deep-convolutional rank-pooling descriptor,’’ IEEE
Access, vol. 7, pp. 4135–4144, 2019.
[58] Y. Zhang and H. Neumann, ‘‘An empirical study towards understanding
how deep convolutional nets recognize falls,’’ in Proc. Eur. Conf. Comput.
Vis. in Lecture Notes in Computer Science: Lecture Notes in Artificial
Intelligence and Lecture Notes in Bioinformatics, vol. 11134, 2019,
pp. 112–127.
[59] J. Quero, M. Burns, M. Razzaq, C. Nugent, and M. Espinilla, ‘‘Detection
of falls from non-invasive thermal vision sensors using convolutional
neural networks,’’ Proceedings, vol. 2, no. 19, p. 1236, Oct. 2018.
[60] Y. Tian, G.-H. Lee, H. He, C.-Y. Hsu, and D. Katabi, ‘‘RF-based fall
monitoring using convolutional neural networks,’’ Proc. ACM Interact.,
Mobile, Wearable Ubiquitous Technol., vol. 2, no. 3, pp. 1–24, Sep. 2018.
[61] A. H. Fakhrulddin, X. Fei, and H. Li, ‘‘Convolutional neural networks
(CNN) based human fall detection on body sensor networks (BSN)
sensor data,’’ in Proc. 4th Int. Conf. Syst. Informat. (ICSAI), Nov. 2017,
pp. 1461–1465.
[62] M. D. Solbach and J. K. Tsotsos, ‘‘Vision-based fallen person detection for the elderly,’’ in Proc. IEEE Int. Conf. Comput. Vis. Workshops
(ICCVW), Oct. 2017, pp. 1433–1442.
[63] K. Adhikari, H. Bouchachia, and H. Nait-Charif, ‘‘Activity recognition
for indoor fall detection using convolutional neural network,’’ in Proc.
15th IAPR Int. Conf. Mach. Vis. Appl. (MVA), May 2017, pp. 81–84.
[64] X. Li, T. Pang, W. Liu, and T. Wang, ‘‘Fall detection for elderly person
care using convolutional neural networks,’’ in Proc. 10th Int. Congr.
Image Signal Process., Biomed. Eng. Informat. (CISP-BMEI), Oct. 2017,
pp. 1–6.
[65] H. Yhdego, J. Li, S. Morrison, M. Audette, C. Paolini, M. Sarkar, and
H. Okhravi, ‘‘Towards musculoskeletal simulation-aware fall injury mitigation: Transfer learning with deep CNN for fall detection,’’ in Proc.
Spring Simulation Conf. (SpringSim), 2019, pp. 1–12.
[66] M. Yu, L. Gong, and S. Kollias, ‘‘Computer vision based fall detection
by a convolutional neural network,’’ in Proc. 19th ACM Int. Conf. Multimodal Interact. (ICMI), 2017, pp. 416–420.
[67] L. Shen, Q. Zhang, G. Cao, and H. Xu, ‘‘Fall detection system based on
deep learning and image processing in cloud environment,’’ in Proc. Adv.
Intell. Syst. Comput., vol. 772, 2019, pp. 590–598.
[68] G. Santos, P. Endo, K. Monteiro, E. Rocha, I. Silva, and T. Lynn,
‘‘Accelerometer-based human fall detection using convolutional neural
networks,’’ Sensors, vol. 19, no. 7, p. 1644, Apr. 2019.
[69] X. Zhou, L.-C. Qian, P.-J. You, Z.-G. Ding, and Y.-Q. Han, ‘‘Fall detection using convolutional neural network with multi-sensor fusion,’’ in
Proc. IEEE Int. Conf. Multimedia Expo Workshops (ICMEW), Jul. 2018,
pp. 1–5.
[70] J. He, Z. Zhang, X. Wang, and S. Yang, ‘‘A low power fall sensing technology based on FD-CNN,’’ IEEE Sensors J., vol. 19, no. 13, pp. 5110–5118,
Jul. 2019.
[71] H. Sadreazami, M. Bolic, and S. Rajan, ‘‘Fall detection using standoff
radar-based sensing and deep convolutional neural network,’’ IEEE Trans.
Circuits Syst. II, Exp. Briefs, vol. 67, no. 1, pp. 197–201, Jan. 2020.
[72] S. K. Tasoulis, G. I. Mallis, S. V. Georgakopoulos, A. G. Vrahatis,
V. P. Plagianakos, and I. G. Maglogiannis, ‘‘Deep learning and change
detection for fall recognition,’’ in Engineering Applications of Neural Networks (Communications in Computer and Information Science),
vol. 1000. Cham, Switzerland: Springer, 2019, pp. 262–273.
[73] N. Lu, Y. Wu, L. Feng, and J. Song, ‘‘Deep learning for fall detection:
Three-dimensional CNN combined with LSTM on video kinematic data,’’
IEEE J. Biomed. Health Informat., vol. 23, no. 1, pp. 314–323, Jan. 2019.
[74] L. Wang, M. Peng, and Q. F. Zhou, ‘‘Fall detection based on convolutional
neural networks using smart insole,’’ in Proc. 5th Int. Conf. Control,
Automat. Robot., 2019, pp. 593–598.
[75] Q. Zhang and S. Zhu, ‘‘Real-time activity and fall risk detection for
aging population using deep learning,’’ in Proc. 9th IEEE Annu. Ubiquitous Comput., Electron. Mobile Commun. Conf. (UEMCON), Nov. 2018,
pp. 1055–1059.
[76] S. A. Cameiro, G. P. da Silva, G. V. Leite, R. Moreno, S. J. F. Guimaraes,
and H. Pedrini, ‘‘Multi-stream deep convolutional network using highlevel features applied to fall detection in video sequences,’’ in Proc. Int.
Conf. Syst., Signals Image Process. (IWSSIP), Jun. 2019, pp. 293–298.
[77] E. Casilari, R. Lora-Rivera, and F. García-Lagos, ‘‘A study on the application of convolutional neural networks to fall detection evaluated with
multiple public datasets,’’ Sensors, vol. 20, no. 5, p. 1466, Mar. 2020.
[78] R. Espinosa, H. Ponce, S. Gutiérrez, L. Martínez-Villaseñor, J. Brieva,
and E. Moya-Albor, ‘‘A vision-based approach for fall detection using
multiple cameras and convolutional neural networks: A case study using
the UP-fall detection dataset,’’ Comput. Biol. Med., vol. 115, Dec. 2019,
Art. no. 103520.
[79] H. Cho and S. M. Yoon, ‘‘Applying singular value decomposition on
accelerometer data for 1D convolutional neural network based fall detection,’’ Electron. Lett., vol. 55, no. 6, pp. 320–322, Mar. 2019.
[80] T.-H. Tsai and C.-W. Hsu, ‘‘Implementation of fall detection system
based on 3D skeleton for deep learning technique,’’ IEEE Access, vol. 7,
pp. 153049–153059, 2019.
[81] M. Rahnemoonfar and H. Alkittawi, ‘‘Spatio-temporal convolutional neural network for elderly fall detection in depth video cameras,’’ in Proc.
IEEE Int. Conf. Big Data (Big Data), Dec. 2018, pp. 2868–2873.
[82] S. Li, H. Xiong, and X. Diao, ‘‘Pre-impact fall detection using 3D
convolutional neural network,’’ in Proc. IEEE 16th Int. Conf. Rehabil.
Robot. (ICORR), Jun. 2019, pp. 1173–1178.
[83] S. Hwang, D. Ahn, H. Park, and T. Park, ‘‘Maximizing accuracy of fall
detection and alert systems based on 3D convolutional neural network,’’
in Proc. 2nd Int. Conf. Internet Things Design Implement., Apr. 2017,
pp. 343–344.
[84] S. Kasturi, A. Filonenko, and K.-H. Jo, ‘‘Human fall recognition using
the spatiotemporal 3D CNN,’’ in Proc. IW-FCV, 2019, pp. 1–3.
[85] Y.-Z. Hsieh and Y.-L. Jeng, ‘‘Development of home intelligent fall detection IoT system based on feedback optical flow convolutional neural
network,’’ IEEE Access, vol. 6, pp. 6048–6057, 2018.
[86] R. Miikkulainen, J. Liang, E. Meyerson, A. Rawal, D. Fink, O. Francon,
B. Raju, H. Shahrzad, A. Navruzyan, N. Duffy, and B. Hodjat, ‘‘Evolving
deep neural networks,’’ in Artificial Intelligence in the Age of Neural
Networks and Brain Computing. New York, NY, USA: Academic, 2019,
pp. 293–312.
[87] R. Zhao, R. Yan, Z. Chen, K. Mao, P. Wang, and R. X. Gao, ‘‘Deep
learning and its applications to machine health monitoring,’’ Mech. Syst.
Signal Process., vol. 115, pp. 213–237, Jan. 2019.
[88] V. Veeriah, N. Zhuang, and G.-J. Qi, ‘‘Differential recurrent neural networks for action recognition,’’ in Proc. IEEE Int. Conf. Comput. Vis.
(ICCV), Dec. 2015, pp. 4041–4049.
[89] Y. Zhao, R. Yang, G. Chevalier, X. Xu, and Z. Zhang, ‘‘Deep residual
bidir-LSTM for human activity recognition using wearable sensors,’’
Math. Problems Eng., vol. 2018, pp. 1–13, Dec. 2018.
[90] N. Y. Hammerla, S. Halloran, and T. Plötz, ‘‘Deep, convolutional, and
recurrent models for human activity recognition using wearables,’’ in
Proc. Int. Joint Conf. Artif. Intell. (IJCAI), Jan. 2016, pp. 1533–1540.
[91] Y.-C. Chang, Y. H. Lai, and T.-C. Huang, ‘‘Inferential motion reconstruction of fall accident based on LSTM neural network,’’ J. Med. Biol. Eng.,
vol. 39, no. 3, pp. 315–328, Jun. 2019.
[92] A. Manashty, J. Light Thompson, and H. Soleimani, ‘‘A concise temporal data representation model for prediction in biomedical wearable devices,’’ IEEE Internet Things J., vol. 6, no. 2, pp. 1438–1445,
Apr. 2019.
[93] C. Taramasco, T. Rodenas, F. Martinez, P. Fuentes, R. Munoz,
R. Olivares, V. H. C. De Albuquerque, and J. Demongeot, ‘‘A novel monitoring system for fall detection in older people,’’ IEEE Access, vol. 6,
pp. 43563–43574, 2018.
[94] S. Mahfuz, H. Isah, F. Zulkernine, and P. Nicholls, ‘‘Detecting irregular
patterns in IoT streaming data for fall detection,’’ in Proc. IEEE 9th Annu.
Inf. Technol., Electron. Mobile Commun. Conf. (IEMCON), Nov. 2018,
pp. 588–594.
[95] I. Wayan Wiprayoga Wisesa and G. Mahardika, ‘‘Fall detection algorithm
based on accelerometer and gyroscope sensor data using recurrent neural
networks,’’ in Proc. IOP Conf. Ser., Earth Environ. Sci., 2019, vol. 258,
no. 1, Art. no. 012035.
[96] N. Lu, X. Ren, J. Song, and Y. Wu, ‘‘Visual guided deep learning scheme
for fall detection,’’ in Proc. 13th IEEE Conf. Autom. Sci. Eng. (CASE),
Aug. 2017, pp. 801–806.
[97] W.-N. Lie, A. T. Le, and G.-H. Lin, ‘‘Human fall-down event detection
based on 2D skeletons and deep learning approach,’’ in Proc. Int. Workshop Adv. Image Technol. (IWAIT), Jan. 2018, pp. 1–4.
[98] A. Abobakr, M. Hossny, H. Abdelkader, and S. Nahavandi, ‘‘RGB-D
fall detection via deep residual convolutional LSTM networks,’’ in Proc.
Digit. Image Comput., Techn. Appl. (DICTA), Dec. 2018, pp. 1–7.
[99] J. Xu, Z. He, and Y. Zhang, ‘‘CNN-LSTM combined network for IoT
enabled fall detection applications,’’ J. Phys., Conf. Ser., vol. 1267,
Jul. 2019, Art. no. 012044.
[100] X. Tao and Z. Yun, ‘‘Fall prediction based on biomechanics equilibrium
using kinect,’’ Int. J. Distrib. Sensor Netw., vol. 13, no. 4, Apr. 2017,
Art. no. 155014771770325.
[101] C. Rougier and J. Meunier, ‘‘Fall detection using 3d head trajectory
extracted from a single camera video sequence,’’ J. Telemed. Telecare,
vol. 11, no. 4, pp. 2–3, 2005.
[102] D. Ajerla, S. Mahfuz, and F. Zulkernine, ‘‘A real-time patient monitoring framework for fall detection,’’ Wireless Commun. Mobile Comput.,
vol. 2019, pp. 1–13, Sep. 2019.
[103] J. P. Queralta, T. N. Gia, H. Tenhunen, and T. Westerlund, ‘‘Edge-AI in
LoRa-based health monitoring: Fall detection system with fog computing
and LSTM recurrent neural networks,’’ in Proc. 42nd Int. Conf. Telecommun. Signal Process. (TSP), Jul. 2019, pp. 601–604.
[104] F. Luna-Perejon, J. Civit-Masot, I. Amaya-Rodriguez, L. Duran-Lopez,
and J. Pedro Dominguez-Morales, ‘‘An automated fall detection system
using recurrent neural networks,’’ in Artificial Intelligence in Medicine
(Lecture Notes in Computer Science: Including Subseries Lecture
Notes in Artificial Intelligence and Lecture Notes in Bioinformatics),
vol. 11526. Cham, Switzerland: Springer, 2019, pp. 36–41.
[105] E. Torti, A. Fontanella, M. Musci, N. Blago, D. Pau, F. Leporati, and
M. Piastra, ‘‘Embedded real-time fall detection with deep learning on
wearable devices,’’ in Proc. 21st Euromicro Conf. Digit. Syst. Design
(DSD), Aug. 2018, pp. 405–412.
[106] T. Theodoridis, V. Solachidis, N. Vretos, and P. Daras, ‘‘Human fall detection from acceleration measurements using a recurrent neural network,’’
in Proc. IFMBE, vol. 66, 2018, pp. 145–149.
[107] L. Hsiu-Yu, H. Yu-Ling, and L. Wen-Nung, ‘‘Convolutional recurrent
neural networks for posture analysis in fall detection,’’ J. Inf. Sci. Eng.,
vol. 34, no. 3, pp. 577–591, 2018.
[108] C. Ge, I. Y.-H. Gu, and J. Yang, ‘‘Co-saliency-enhanced deep recurrent
convolutional networks for human fall detection in E-Healthcare,’’ in
Proc. 40th Annu. Int. Conf. IEEE Eng. Med. Biol. Soc. (EMBC), Jul. 2018,
pp. 1572–1575.
[109] A. Krizhevsky, I. Sutskever, and G. E. Hinton, ‘‘Imagenet classification
with deep convolutional neural networks,’’ in Proc. Adv. Neural Inf.
Process. Syst. (NIPS), vol. 2, 2012, pp. 1097–1105.
[110] G. Dong, G. Liao, H. Liu, and G. Kuang, ‘‘A review of the autoencoder and its variants: A comparative perspective from target recognition
in synthetic-aperture radar images,’’ IEEE Geosci. Remote Sens. Mag.,
vol. 6, no. 3, pp. 44–68, Sep. 2018.
[111] M. P. Kenning, X. Xie, M. Edwards, and J. Deng, ‘‘Local representation
learning with a convolutional autoencoder,’’ in Proc. 25th IEEE Int. Conf.
Image Process. (ICIP), Oct. 2018, pp. 3239–3243.
[112] D. Charte, F. Charte, S. García, M. J. del Jesus, and F. Herrera, ‘‘A practical tutorial on autoencoders for nonlinear feature fusion: Taxonomy, models, software and guidelines,’’ Inf. Fusion, vol. 44, pp. 78–96, Nov. 2018.
[113] A. Rangamani, A. Mukherjee, A. Basu, A. Arora, T. Ganapathi, S. Chin,
and T. D. Tran, ‘‘Sparse coding and autoencoders,’’ in Proc. IEEE Int.
Symp. Inf. Theory (ISIT), Jun. 2018, pp. 36–40.
[114] D. Charte, F. Herrera, and F. Charte, ‘‘Ruta: Implementations of neural
autoencoders in R,’’ Knowl.-Based Syst., vol. 174, pp. 4–8, Jun. 2019.
[115] F. Charte, A. J. Rivera, F. Martínez, and M. J. del Jesus, ‘‘Automating autoencoder architecture configuration: An evolutionary approach,’’
in Understanding the Brain Function and Emotions (Lecture Notes in
Computer Science: Lecture Notes in Artificial Intelligence and Lecture
Notes in Bioinformatics), vol. 11486. Cham, Switzerland: Springer, 2019,
pp. 339–349.
[116] B. Jokanovic, M. Amin, and F. Ahmad, ‘‘Radar fall motion detection
using deep learning,’’ in Proc. IEEE Radar Conf. (RadarConf), May 2016,
pp. 1–6.
[117] D. Droghini, D. Ferretti, E. Principi, S. Squartini, and F. Piazza,
‘‘An end-to-end unsupervised approach employing convolutional neural
network autoencoders for human fall detection,’’ in Quantifying and
Processing Biomedical and Behavioral Signals (Smart Innovation, Systems and Technologies), vol. 103. Cham, Switzerland: Springer, 2019,
pp. 185–196.
[118] J. Zhou and T. Komuro, ‘‘Recognizing fall actions from videos using
reconstruction error of variational autoencoder,’’ in Proc. IEEE Int. Conf.
Image Process. (ICIP), Sep. 2019, pp. 3372–3376.
[119] M. S. Seyfioglu, A. M. Ozbayoglu, and S. Z. Gurbuz, ‘‘Deep convolutional autoencoder for radar-based classification of similar aided and
unaided human activities,’’ IEEE Trans. Aerosp. Electron. Syst., vol. 54,
no. 4, pp. 1709–1723, Aug. 2018.
[120] H. Alkittawi, ‘‘A deep-learning-based fall-detection system to support
aging-in-place,’’ Ph.D. dissertation, Dept. Comput. Sci., Texas A&M
Univ.-Corpus Christi, Corpus Christi, TX, USA, 2017.
[121] S. S. Khan and B. Taati, ‘‘Detecting unseen falls from wearable devices
using channel-wise ensemble of autoencoders,’’ Expert Syst. Appl.,
vol. 87, pp. 280–290, Nov. 2017.