确保临床试验数据的科学性和可靠性,是药物临床试验发展的关键,也是推动我国医药产业进步的重要举措。近年来,随着临床研究数据集复杂性的不断提升,传统统计方法的应用受到限制,机器学习(ML)方法被大量应用于观察性研究和预测模型中。机器学习能有效分析和利用海量数据,提供个性化的诊断、治疗和预后预测,从而提高临床研究和决策的准确性和效率。然而,目前由于研究报告撰写规则尚不统一,研究报告质量参差不齐。2020年,学术期刊《Cardiovascular Quality and Outcomes》发表的文章“临床研究中机器学习分析报告的建议”,探讨了机器学习分析结果进行透明和结构化报告的必要性,对采用机器学习技术的临床研究报告提出了系列规范建议。2024年4月,TRIPOD指南也更新了人工智能(AI)相关的报告规范。本研究以该分析报告为重点,借鉴TRIPOD+AI指南内容,探讨并整理了基于机器学习方法下我国临床研究报告的撰写规范,并提出建议,旨在让临床医生熟悉机器学习的基本原理,进一步提高我国药物临床试验专家学者应用机器学习方法促进临床研究的可重复性,加强临床研究报告撰写的规范性。
目的:测量正常人群表情运动的可重复性,为患者手术等干预措施的效果评价提供参照数据。方法:征集面部结构大致对称、无面部运动及感觉神经障碍病史的志愿者共15名(男性7名,女性8名,中位年龄25岁)。使用三维动态照相机记录研究对象的面部表情运动(闭唇笑、露齿笑、噘嘴、鼓腮),分辨率为采集频率60帧/s,挑选每个面部表情中最有特征的6帧图像,分别为静止状态时图像(T0)、从静止状态至最大运动状态时的中间图像(T1)、刚达到最大运动状态时的图像(T2)、最大运动状态将结束时的图像(T3)、最大运动状态至静止状态时的中间图像(T4)及动作结束时的静止图像(T5)。采集两次面部表情三维图像数据,间隔1周以上。以静止图像(T0)为参照,将运动状态系列图像(T1~T5)与之进行图像配准融合,采用区域分析法量化分析前后两次同一表情相同关键帧图像与对应静止状态三维图像的三维形貌差异,以均方根(root mean square,RMS)表示。结果:闭唇笑、露齿笑以及鼓腮表情中,前后两次的对应时刻(T1~T5)图像与相应T0时刻的静止图像配准融合,计算得出的RMS值差异无统计学意义。撅嘴动作过程中,前后两次T2时刻对应面部三维图像与相应T0时刻静止图像配准融合,得出RMS值差异有统计学意义(P<0.05),其余时刻的图像差异无统计学意义。结论:正常人的面部表情具有一定的可重复性,但是噘嘴动作的可重复性较差,三维动态照相机能够量化记录及分析面部表情动作的三维特征。
暂无评论