婴幼儿智能视功能评估系统问世:AI可破解婴幼儿视功能检查难题

  思念        2019-11-22 09:51:07

在目前的儿童保健检查中,视功能方面的检查一直是个世界难题。婴幼儿缺乏主诉能力,又难以配合检查,医生要想准确评估他们的视功能并非易事。


AI正在改变这一情形。现在,只需一段5分钟的视频,人工智能系统就能加以评估,并判断婴幼儿是否存在视力损伤,而且,这项技术的准确率已经超过了80%。


上个月,由中山大学中山眼科中心刘奕志教授、林浩添教授和医疗AI企业体素科技共同合作的研究论文“Discrimination of the behavioral dynamics of visually impaired infants via deep learning”发表在《自然》杂志的子刊《自然生物医学工程》(Nature Biomedical Engineering)上,影响因子17。


婴幼儿智能视功能评估系统问世:AI可破解婴幼儿视功能检查难题

研究发现,宝宝的视力可以通过11种行为特征进行判断。通过对这些特性进行归纳梳理,进给予神经网络学习,中山眼科与体素科技成功建立了全球首个基于行为模式的婴幼儿智能视功能评估系统,用于及时发现语言前婴幼儿的视觉损伤。这一研究对婴幼儿视力筛查的普及有巨大推动力,亿万中国家庭将因此受益。


用AI推进婴幼儿视功能评估标准化


既有研究表明,视觉和行为表型之间存在一定的对应关系。然而,视力的丧失如何影响个体行为模式变化,学界至今没有统一的定论。为此,早在10年前,刘奕志和林浩添团队便依托“小儿白内障之家”开始了婴幼儿视力损伤与宝宝行为模式之间关系的研究。


团队首先设置了一个标准化的场景,在这个安静的与外界隔离的场景里,家长抱着小宝宝,摄像头将小宝宝们眼周的神态动作全部捕捉拍摄下来;接着,通过多年的分析、验证,明确了斜视、震颤、双眼运动不协调、揉眼、压眼、戳眼、补偿性光凝、空视、无目标视物、频繁眨眼、眯眼、皱眉等十多个医学行为特征与婴幼儿视觉损伤的量化关系。


但是,如此多的行为指标,研究人员若要一一观察(实验中每个样本的视频时长有5分钟),无疑会是一项浩大的工程。即便他们能证明行为模式能反映视力状况,但也很难在临床进行推广。


这时,体素科技AI的介入使这项研究出现了质变。拥有前沿深度学习算法的体素科技与中山眼科展开了紧密合作,体素科技作为这个项目整个AI算法的研发方,除了提供全长度视频训练的深度学习算法(时序分割网络),将标记好的视频片段进行随机分割以供机器学习,体素的AI还将一些未经学习的视频片段交给机器来进行判断,从而快速量化婴幼儿的行为模式。


基于此,团队定量对比了不同视功能群体4大类、13个行为特征的发生频率及严重程度,研究结果显示,婴儿视功能正常与否,确实会带来行为模式上的差异。在进一步研究中,双方明确了斜视、眼球震颤、代偿头位等11个标志性的医学行为体征与婴幼儿视觉损伤的量化关系。


据悉,体素科技研究团队现已积累了4196例婴幼儿的行为学表型视频,总时长超2万分钟,这些数据为人工智能系统进行学习提供了充足的“素材”。林浩添教授透露,经过大数据的学习和训练,目前这一AI系统对婴幼儿视觉功能的判断准确率达到了80%以上。


商业化展望:要从实验室走到家庭


正如前文所言,婴幼儿视功能检查目前还存在显着的痛点。即便是用肉眼长时间观察,也需要医生具备高资质、高水平、丰富经验;基于成本和现实的考虑,医院没有可能进行大规模检查和筛查……种种原因之下,这一细分领域的市场供给近乎空白。


但是,婴幼儿时期又是视力发育的关键阶段,一些致盲性的疾病若不及时发现和治疗,将会带来不可逆的视力损伤。据统计,全球每年有2000万以上的视觉损伤婴幼儿不能被及时发现而终生致盲,环境恶化、电子产品的普及等因素进一步推动这一数字上行。


因此,人工智能视功能评估系统的出现有望破解上述问题,一方面,AI对技术支持和婴儿合作的需求较少,另一方面,其检查可行性和准确性较高。综上所述,AI既避免了婴儿与诊疗设备长时间的合作,又推进了诊疗流程的效率与准确率,完全可能开辟婴幼儿视功能筛查这一全新医疗场景。


“家长需要在安静简单的环境中为宝宝录制视频,过程中APP会播放一小段带有专业视觉引导的动画,同时手机摄像头启动拍摄宝宝的眼周神态,录制3-5分钟的视频上传到系统内,人工智能系统就能评估宝宝是否存在视觉功能异常。”体素科技CEO丁晓伟介绍到。


婴幼儿智能视功能评估系统问世:AI可破解婴幼儿视功能检查难题


而在实际场景中,该技术可应用于包括医院眼科、儿童生长发育监测与干预中心、基层儿保诊所甚至是社区医院和家庭用于婴幼儿视功能筛查。


目前体素科技与中山眼科正联合开发基于手机客户端的婴幼儿智能视力筛查平台,届时婴幼儿视功能评估服务将延伸至家庭,未来家长抱着孩子即可随时随地通过手机评估小宝宝的视功能状况。


丁晓伟表示,与此前发布的皮肤全病种等技术一道,体素科技布局的一系列只需普通手机设备就可完成的临床级筛查分诊技术将进一步把医院的触手伸向每个需要的家庭。


开始“破解”医学难题,AI未来可期


除了医疗层面的意义,这项研究也验证了基于视频动态行为分析的深度学习技术能够安全有效的帮助医疗系统实现不可能。


林浩天教授表示,“一开始,专业医生团队需要去一帧帧地标记这些视频上婴幼儿的异常行为,但当标记数据积累到一定程度,机器便可开展自主学习。”


这也让我们得以管中窥豹——AI的价值不止于辅助诊断,还能够真正帮助科学发现、破解临床问题,甚至影响医疗系统的发展。


丁晓伟表示,正因为可以快速处理和分析视频图像,AI未来也可用于人体影像和病理图像之外的的其它生理特征的分析,譬如行为、表皮微循环等。这些指标能直接反映人体健康状况,已有研究发现,微循环中供血特征可以反映人体压力指数,步态、神态可以反映术后和运动神经恢复情况等。


“有了AI,未来人的行为特征能更好地分析归纳,从而有望破解更多的医学难题,行为检查也将会变成医学检查或诊断的一个重要手段,或者说一种新型的体外诊断方法。”林浩天教授总结道。


应用层面,丁晓伟指出,随着用人体行为来“看病”诊断方法的普及,在AI的加持下,视频有望成为既文字(也包括图像)之后的第二大在线问诊入口。


“正如当下AI与医学诊断结合应用的三大方向:基于放射影像看体内问题,基于光谱看体表问题,以及基于行为去看更多问题——譬如眼科疾病、心理疾病、脑科疾病,AI能做的事还有很多。”


关于视功能:


将速度及正确性纳入考量计算视工作岗位照度之一种定量评估. 人眼的视觉功能包括:光觉、色觉、形觉(视力)、动觉(立体觉)和对比觉(一般所说的视功能检查多指行觉(视力)的检查)。视功能分为三级:同时视、融合视、立体视。


临床上通常会检查光觉,当患者矫正视力低于手动/眼前时(即戴合适的眼镜仍不能分辨眼前的手是否在晃动);色觉,升学征兵入职体检时会涉及到;形觉(视力),即平时看的E视力表;对比觉,即对比敏感度,主要看夜晚的视力是否良好,对比敏感度不好的人晚上看东西不清楚。立体觉很少涉及。立体视不好的患者辨认物体远近、水的深浅等会有困难,尤其是在陌生环境中。

来源:36氪

注:文章内的所有配图皆为网络转载图片,侵权即删!

免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~

为您推荐