新训练方法提高AI模型准确率和透明度
源 / 中国经济网    文 /     2026年04月09日 08时50分

  在医疗诊断、自动驾驶等高风险场景中,人工智能(AI)模型决策的可解释性至关重要。据美国麻省理工学院官网近日消息称,为了提高透明度,该校团队开发出一种新方法,能够从已训练好的计算机视觉模型中自动提取关键概念,并迫使模型使用这些人类易于理解的概念进行解释和预测。这项进展有望在提升模型准确性的同时,增强用户对“黑盒”AI的信任。

  概念瓶颈模型是增强AI可解释性的常见技术。它是指在模型决策过程中增加一个中间步骤:先识别图像中与任务相关的、可被人理解的“概念”,再基于这些概念做出最终预测。例如,在肿瘤诊断中,模型可能先识别“成簇的棕色斑点”这一概念,再判断是否为黑色素瘤。

  然而,传统方法依赖人类专家或大语言模型预先定义概念集,这些概念可能与具体任务关联性不强,或缺乏足够细节,从而影响模型性能。另外,模型在训练时也可能“暗中”使用了定义之外的其他特征,导致解释与真实不符。

  此次,团队利用一个经过海量数据预训练的视觉模型,认为其内部已蕴含了完成任务所需的知识。他们设计了一种两阶段流程来提取和转化这些知识。首先,使用一个称为稀疏自编码器的专用模型,提取出最相关的特征,并将其压缩为少量核心概念。接着,由一个多模态大语言模型将这些特征转化为简洁的自然语言描述,并自动为数据集中图像标注这些概念真实与否。最后,利用这些标注数据训练一个概念瓶颈模块,并将其整合到原始模型中,强制模型仅使用这套提取的概念进行预测。

  团队在过程中限制了模型每次预测最多只能使用五个概念,迫使模型筛选出最关键的几个特征,使生成的解释既精炼又直接相关。

  测试中,鸟类物种识别和皮肤病变诊断等任务结果均表明,新方法在提供更精确、与图像更贴合的概念解释的同时,也取得了比现有概念瓶颈模型更高的预测准确率。这意味着,该方法不仅能更好地“解读”模型的思考过程,还能维持更优的性能。

  团队未来的工作还将致力于解决信息泄露等问题,并探索利用更强大的多模态大模型来标注更大规模的数据,以进一步提升方法的效能。

网友讨论
还可以输入 200 个字符
热门评论

建议及投诉热线010-85869906

广告刊登热线010-85862238

  • 关注官方微信

  • 关注官方微信

中国人民银行 | 中国银行业监督管理委员会 | 中国保险监督管理委员会 | 中国证券业监督管理委员会 | 路透社 | 华尔街日报 | FT中文网 | 中国互联网金融企业家俱乐部(ECIF) | 工业和信息化部域名信息备案管理系统
Copyright © 2008-2030 北京大白熊网络信息有限公司 京ICP备16038172号-1 all rights reserved本网站所刊部分稿件为网络转载,若有侵权请您及时联系我们,我们会及时删除,本网站对所转载内容不承担任何的责任,请网民对相关内容的真实性自行判断。
账号登录
记住密码
账号注册
账号注册

*昵       称

*输入密码

*确认密码

*姓       名

*电子邮箱

*国家地区

*省       份

*出生年份

*性       别  男          女

*从事职业

*从事行业

请您留下正确的联络方式,以便我们能够及时与您取得联系

*手机号码

填写您要订阅的邮件
  •   我愿意接受有关新财网的新功能或活动的信息
  •   我愿意接受有关其他网站和产品的新功能或活动的信息
  •   我愿意接受第三方服务供应商的特别优惠的信息