机器学习系统监测患者手术中的疼痛
在手术室中,接受局部麻醉且保持清醒的患者,往往难以清晰表达自身的疼痛程度。部分患者(例如婴幼儿或痴呆症患者)甚至完全无法传递这类感受。为了找到更优的患者疼痛监测方式,一支研究团队开发出一种无创监测方法 —— 通过分析患者的心率数据与面部表情,综合评估其疼痛程度。该研究方法的相关细节,发表在 11 月 14 日出版的《 IEEE Open Journal of Engineering in Medicine and Biology》中。
德国莱比锡应用信息学研究所研究员 Bianca Reichard 指出,基于摄像头的疼痛监测技术,无需患者佩戴心电图电极片、血压袖带等有线传感器,从而避免了这类设备对医疗操作造成干扰。
为了实现这种无创监测,研究人员开发了一套机器学习算法,能够分析摄像头可捕捉到的各类疼痛相关特征。该算法首先会解析患者面部表情的细微变化,以此初步评估疼痛等级。
这套系统还会通过远程光电容积脉搏波描记法(rPPG) 获取心率数据。该技术的原理是向患者皮肤发射光线,通过分析反射光线的强度变化,检测血管内的血容量波动情况。研究人员最初筛选了 15 项可通过 rPPG 测量的心率变异性参数纳入模型考量范围,最终选定了 7 项与疼痛预测统计相关性最强的参数,其中包括心率最大值、最小值以及心跳间隔等核心指标。
疼痛预测模型的训练数据集
研究团队采用了两个不同的数据集,对疼痛预测模型进行训练与测试。
第一个数据集是业内公认且被广泛使用的疼痛研究数据库 ——BioVid 热痛数据库。该数据库由研究人员于 2013 年构建,其数据来源于一系列实验:通过热电极对受试者皮肤施加可量化的渐进式升温刺激,同时记录受试者对相应疼痛的生理反应。
第二个数据集则是研究团队为本次研究专门构建的。29 名接受心脏导管介入手术的患者,每 5 分钟就需要对自身疼痛程度进行一次评分,研究人员据此完成数据采集。
值得重点关注的是,绝大多数同类疼痛预测算法的训练数据,都来源于时长极短的视频片段;而 Reichard 及其团队特意选用了时长 30 分钟至 3 小时不等的长时程手术场景视频,对模型进行训练。这些训练视频中,会出现手术室光线条件不佳、患者面部被部分遮挡等各类实际干扰情况。Reichard 解释道:“相较于实验室环境下采集的数据集,这种训练方式更贴近真实的临床场景。”
模型测试结果
测试结果显示,该模型的疼痛预测准确率约为 45%。Reichard 表示,考虑到原始视频素材中存在大量干扰因素 —— 例如患者在手术台上的体位变动、摄像头拍摄角度的变化等,这个准确率已经超出预期。尽管此前许多同类疼痛预测模型能够实现更高的准确率,但那些模型的训练数据均来自 “理想化” 的无遮挡短视频片段。而本研究团队则刻意选用了条件受限但更具现实意义的视频素材开展训练。
此外,Reichard 还指出,本次研究采用的是架构相对简单的统计机器学习模型。她表示:“如果采用更复杂的算法架构,例如基于神经网络的模型,系统性能很可能会得到进一步提升。”
Reichard 认为,这类研究能够同时为患者与医护人员提供有力支持,具有重要的临床价值。在未来的研究计划中,她打算开发基于雷达技术的同类无创监测系统,用于在医疗场景中实时监测患者的生命体征。
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码