登录
首页 >  科技周边 >  人工智能

如何让人工智能变得可解释?

来源:51CTO.COM

时间:2023-04-25 20:03:20 439浏览 收藏

积累知识,胜过积蓄金银!毕竟在##column_title##开发的过程中,会遇到各种各样的问题,往往都是一些细节知识点还没有掌握好而导致的,因此基础知识点的积累是很重要的。下面本文《如何让人工智能变得可解释?》,就带大家讲解一下知识点,若是你对本文感兴趣,或者是想搞懂其中某个知识点,就请你继续往下看吧~

如何让人工智能变得可解释?

RegTech 公司Hawk: AI的首席技术官沃尔夫冈·伯纳(Wolfgang Berner)的表示,如果你真的可解释性对于许多应用尤为关键。

伯纳表示:“在反洗钱等严格监管的领域,考虑人工智能的使用透明度和可解释性是完全合适的。当AI的决策与原始数据过于脱节,以及算法的工作方式缺乏透明度时,人们就会对这种典型的“黑匣子AI”产生担忧。”

Hawk AI认为,合规行业、信任和接受的关键在于高度的透明度。因此,对于该公司来说,对人工智能可解释性的需求远远超出了纯粹的监管要求。

借助可理解的人工智能,金融机构甚至可以对神经网络等复杂模型进行概览和控制。对于 Hawk AI,可解释性由两个方面组成——人工智能驱动的个人决策的理由是什么?有助于人工智能的算法是如何开发的?

Hawk AI 表示:“对于 Hawk AI 来说,这很清楚——只有技术上可以解释的,最终才会被接受。决策的确切标准或某些风险的统计概率以及算法的组成与 AI 决策过程的完整文档一样重要。同样重要的是,所有这些都以清晰易懂的语言而不是纯粹的技术术语来表达。”

该公司认为,每个细节和每个数据源都必须是可验证的——例如,与特定同行组相比,某些值是显着高还是低。为什么人工智能假设某些预期值以及这些值如何相互关联,必须是透明的。数据情况必须非常清楚,以至于合规官会使用相同的数据做出相同的决定。

此外,一致的反馈和验证流程有助于不断改进决策——因此,人工智能直接从合规团队的决策中学习,并可以在未来更好地支持他们。

Hawk 提到,AI 不仅在其应用之初必须是透明的——因为它通过接触新数据来独立改进,还需要能够理解这样的优化。为此,该公司声称 AI 的每一个变更过程也都记录在软件中,并且需要明确的批准。因此,如果没有合规团队能够理解和控制它,人工智能就永远不会进化。

Hawk AI 总结道:“AI 反洗钱已经准备就绪——有了 Hawk AI,它是透明且安全的。由于这些原因,Hawk AI 谈到了与人工智能相关的“白盒 AI”,与“黑盒 AI”相比,其技术对于合规团队来说是完全可以理解的。因此,我们的软件提供了完全的控制和安全性。人工智能在金融领域的应用正在彻底改变打击金融犯罪的斗争。

“技术驱动的反洗钱不仅在效率和有效性方面明显超越了传统系统,而且由于它能够从犯罪行为模式中学习,因此特别具有前瞻性。因此,从长远来看,使用人工智能打击金融犯罪将成为行业标准。多年来,该技术已在实践中得到验证。即使在非常大的金融机构中,它今天已经在使用,或者至少在第一批试点中已经建立。”

Hawk AI 已与推动金融和零售互联商务的领导者 Diebold Nixdorf 合作,以扩大前者的 AML 解决方案的覆盖范围。

终于介绍完啦!小伙伴们,这篇关于《如何让人工智能变得可解释?》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布科技周边相关知识,快来关注吧!

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>
评论列表