人工智能“可解释性”被高估

据Forbes 4月13日报道,近年来,政策制定者和公众对人工智能系统的“可解释性”越来越关注。随着人工智能的进步和在医疗保健、招聘和刑事司法等领域的应用,一些人呼吁这些系统更加透明和可解释。人们担心现代机器学习模型的“黑盒子”特性使其不可解释,可能存在危险。



虽然人们对人工智能可解释性的渴望是可以理解的,但其重要性经常被夸大。首先,这个术语本身定义不清—一个系统到底需要满足什么标准才算是可解释的仍然不清楚。更重要的是,缺乏可解释性并不一定意味着人工智能系统不可靠或不安全。


现实是,即使是最先进的深度学习模型的创建者也无法完全表达这些模型是如何将输入转化为输出的。一个训练了数百万示例的神经网络的复杂性对于人类的思维来说是太复杂了。但是同样可以说,我们每天使用的无数其他技术也是如此。


我们并不完全理解化学制造过程或半导体制造背后的量子力学相互作用。然而,这并不妨碍我们从使用这些部分知识生产的药物和微芯片中受益。我们关心的是输出是否成功地实现了其目标并且是可靠的。


当涉及到高风险的人工智能系统时,我们应该首先集中精力对其进行测试,以验证其性能并确保其按照预期运行。探究刑事判决算法如何准确地结合数百个特征的方式,不如评估其在预测前科犯人再犯率方面的经验准确性重要。


一个新兴的领域叫做人工智能可解释性,旨在在一定程度上打开深度学习的黑盒子。这个领域的研究已经产生了一些技术,可以确定哪些输入特征在确定模型预测方面最重要,并描述信息如何通过人工神经网络的层流动。随着时间的推移,我们将对这些模型如何处理数据以得出输出有一个更清晰的认识。


然而,我们不应该指望人工智能系统会像一个简单的方程或决策树那样完全可解释。最强大的模型可能始终会包含一定程度的不可减少的复杂性。而这是可以接受的。人类知识的很多内容是内隐的,难以用言语表达—一个国际象棋大师无法完全解释他的战略直觉,一个技艺精湛的画家也无法完全表达她的灵感来源。重要的是,他们努力的最终结果被他们自己和他人所重视。


事实上,我们必须小心,不要将可解释性变成其他优先事项的阻碍。一个能够被人类轻松解释的人工智能并不一定比一个黑盒模型更健壮或可靠。性能和可解释性之间甚至可能存在权衡。迈克尔·乔丹可能无法解释他的肌肉、神经和骨骼如何协调地从罚球线上完成扣篮。然而,他能够执行这一令人印象深刻的动作。


最终,一个人工智能系统应该根据其对现实世界的影响来评估。一个不透明但更准确地预测员工表现的招聘模型比一个透明的基于规则的模型更可取,后者可能会推荐懒惰的工人。一个无法解释但比医生更可靠地发现癌症的肿瘤检测算法值得部署。我们应该努力使人工智能系统在可能的情况下可解释,但不以牺牲其带来的好处为代价。


当然,这并不意味着人工智能应该是不负责任的。开发者应该对人工智能系统进行广泛测试,验证其在现实世界的性能,并努力使其与人类的价值观保持一致,特别是在将其释放到更广泛的世界之前。但我们不应该让可解释性的抽象概念成为一个干扰,更不要说成为一个障碍,来实现人工智能改善我们生活的巨大潜力。只要采取适当的预防措施,即使是一个黑盒模型也可以成为一个强大的工具。最终,重要的是输出的结果,而不是产生输出的过程是否能够解释。


来源:Forbes 作者:James Broughel


编辑:瓷瓷

(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录