人工智慧(AI)在医疗领域的应用对于改善患者健康状况具有重大的意义,但法规上偶尔会走入灰色地带引发争议,基于电脑一向是消弥医疗偏见的客观方法,人们对人工智慧的依赖只会持续加深。
迄今为止,医疗AI在以演算法读取病患资料与医疗图像的结构化练习有所优势,这种训练可筛选大量医学文献(对人类而言过度繁重的任务),训练机器检测病理异常,并告知医疗建议,又被称为“深度学习”。
实例如MedyMatch与Viz公司,使用专门的演算法及深度学习读取患者的电脑断层扫描(CT Scan),来帮助医生在紧急治疗情况下快速诊断病患中风迹象,这样的进展尤其重要,因为迅速接受适当的治疗对病患会产生很大的影响。
北美放射学会(RSNA)在2017年11月举行的年会探讨的绝大多数议题,已将医疗AI运用在放射学和医学影像中,一些研究人员并介绍了AI在中风病患护理领域许多有前景的应用,以及肺结节(lung nodules)风险的发现与分类,并能辨识许多需要需要优先由放射科医生评估的影像病例。
虽然在临床上使用AI的方法是有希望的,但近期IBM Watson引起一波争议,Watson虽在MD Anderson癌症中心建立肿瘤临床决策支持系统方面发挥核心作用,但MD Anderson与IBM合作伙伴关系公开,引起一些业内人士对医疗AI的趋向保守。
开发AI与机器学习的公司也认识到,当他们开发出一项会造成快速改变的技术时,却有可能在通过美国食品及药品管理局(FDA)批准或其他审核程序中面临不确定性,这些技术许多都属于FDA的临床决策支持软体类别,但在FDA如何规范医疗AI仍存有关键的灰色地带。
不过FDA已了解现有商业化模式很快将变得过于繁重,无法跟上业界如此迅速的创新脚步,因此亦制定了“数位健康创新行动计画”(Digital Health Innovation Action Plan)以解决问题,目前FDA已透过该计画与苹果(Apple)、J&J、罗氏(Roche)、三星电子(Samsung Electronics)、Verily合作,为这些新兴技术创造新的法规途径。
许多利用云端运算的AI使用,受美国法律保护的医疗资讯(PHI)发展技术变成了安全问题,《健康保险可携与责任法》(HIPAA)要求健康保险确保病患隐私的法规。
此外,一个不能分享如何确诊的深度学习算法,可能会让临床医生和监管机构很难相信,使监管机构与依赖AI的医生较难获得透明度,因此能使FDA及其他公司了解这种“黑盒子”确诊的依据也变得越来越重要。