专家警告:AI系统的可解释性存在欺骗可能

2025-07-30 06:35 来源:科技日报
查看余下全文
(审核:欧云海)
光影之间
光影之间
记者专栏

首页 > 推荐阅读 > 正文

专家警告:AI系统的可解释性存在欺骗可能

2025年07月30日 06:35   来源:科技日报   李山

德国人工智能研究中心(DFKI)研究团队在日前召开的国际机器学习大会上报告称,在可解释人工智能(AI)领域,“X-hacking”是一个此前被普遍忽视的风险,并呼吁批判性和反思性地使用自动化机器学习(AutoML)工具。

如果AI系统作出了正确预测,但却以完全不同的方式解释其得出的这些结果,会发生什么?DFKI数据科学团队介绍了“X-hacking”给AI可信度带来结构性风险的研究成果。

X-hacking一词源于统计学中的P-hacking。所谓P-hacking指的是研究人员可通过一些数据操作技巧,在统计学上得出一个有显著意义的结果,即使这个结果实际上并无意义。这相当于一种数据篡改,可能会导致发布假阳性结果。

相应的X-hacking描述了两种核心机制:一是Cherry-picking,即从众多同样优秀的模型中,精心挑选出解释能力最强、最能支持预期结果的模型;二是定向搜索,AutoML系统不仅能优化预测性能,还能精准地找到具有特定解释模式的模型。但这里面存在的风险往往被低估。

即使模型得出的结果几乎相同,所谓的特征重要性也可能存在巨大差异。这在医学研究或社会科学等应用领域尤为敏感,因为在这些领域,可解释的模型通常构成关键决策的基础。

AutoML代表了开发、选择和优化机器学习模型的自动化流程。软件工具接管了许多以前只有经验丰富的机器学习工程师才能完成的任务,例如选择合适的模型架构、数据预处理和超参数优化等。在医学、工业或社会研究等数据密集型领域,AutoML有望实现更快的开发速度、更低的进入门槛和可重复的结果。

然而,这种自动化使得人们难以理解模型决策的制定方式,这是可解释AI的一个关键问题。因此,DFKI研究团队建议,使用AutoML的学科应该意识到方法的风险,而不仅仅只是信任软件。


(审核:欧云海)

推荐阅读

血凝胶纤维机器人:脑内的药物“速递达人”

大脑颅内肿瘤,尤其是位于脑深部或者临近重要功能脑区的肿瘤,一直是临床治疗中的重要挑战。为验证血凝胶纤维机器人在颅内肿瘤靶向治疗中的可行性与疗效,研究人员在18头小型猪中构建了脑胶质瘤模型,并将其分为三组:空白对照组、假手术组和治疗组。未来,团队将进一步聚焦于血凝胶纤维机器人的结构优化、运动控制精度... [详细]

钙钛矿有机电池光电转换效率纪录刷新

新加坡国立大学科研团队研制出一款新型钙钛矿有机串联太阳能电池,经权威认证,其1平方厘米有效面积内的光电转换效率达到26.4%,创下同类设备的世界纪录。在具体实施中,研究团队先将这种高性能有机子电池与顶层的钙钛矿电池叠加,再通过透明导电氧化物互连层将二者有机结合。这一成果不仅刷新了钙钛矿有机电池的纪录,... [详细]

低温下精准控制量子比特的芯片问世

量子计算机要真正实现大规模实用化,关键在于如何稳定、精准地控制海量量子比特。研究团队研制出一种可在毫开尔文温度条件下控制自旋量子比特的硅芯片。实验结果表明,只要控制系统设计得当,即使量子比特与不到一毫米远的晶体管芯片共存,其量子态几乎不会受到干扰。研究人员认为,该低温电子平台不仅可助力量子计算,... [详细]