管理 学习应用最佳实践并优化您的操作。

3个E的AI:创造可解释的AI

这是三部分系列中的第二件。读第一件这里

我有一种信念,即在数据科学世界中是非正统的:首先解释,预测权力第二,这是一个比以往任何时候都重要的概念,这是实现AI的公司。

为什么?因为AI是地球上最热门的技术,几乎每个组织都有一个授权探索其优势的授权应用人工智能模型内部开发或作为一揽子解决方案的一部分从第三方提供商收购。然而,伦敦风险投资公司MMC最近在欧洲进行的一项研究发现,被列为人工智能公司的初创企业中,有40%实际上并没有以对其业务有益的方式使用人工智能。在不清楚交付的模型是否是真正的人工智能的情况下,这些初创公司和从他们那里购买产品的客户如何依靠他们的人工智能技术的预测能力?

解释是一切

这是可以解释的应该使人类能够容易地找到重要问题的答案,包括:

  • 模型建立正确吗?
  • 使用该模型的风险是什么?
  • 模型何时退化?

后者的问题说明了谦卑AI的相关概念,其中数据科学家在不同情况下确定模型性能的适用性,或由于神经网络的低密度和缺乏历史数据而无法正常工作的情况。

我们需要更好地理解AI模型,因为当我们使用模型产生的分数时,我们假设分数对所有客户和所有评分场景都是同等有效的。通常情况下,情况并非如此,这很容易导致基于非常不完善的信息做出各种各样的重要决定。

平衡速度与可解释性

许多公司急于运营AI模型,即在比赛中既不明朗地理解也不可审计,以便使用许多用户不完全理解的开源工具尽快建立预测模型。在我的数据科学组织中,我们使用两种技术 - 区块链和解释的潜在特征 - 显着改善了AI模型的可解释性我们构建。

2018年我制作了一份专利申请(16/ 128359 USA)左右使用区块链为了确保对机器学习模型的所有决策,记录和可审核。录制了许多AI解决方案的基本组件。我的专利介绍如何使用区块链技术编写分析和机器学习模型开发,将实体链,工作任务和要求与模型相关联,包括测试和验证检查。

区块链证实了一系列决策过程。它显示了一个变量是否可接受,如果它引入了偏差到模型中,如果变量被正确使用。我们可以在一个非常细粒度的层次上看到模型的各个部分,模型的功能方式,以及它对预期数据、拒绝坏数据或对模拟的变化环境作出响应的方式。

使用区块链编排敏捷模型开发流程可以被开发组织之外的各方使用,比如治理团队或监管单位。通过这种方式,分析模型开发变得高度可解释,决策变得可审计,这是交付既可解释又合乎道德的人工智能技术的关键因素。

可以通过分析师,商业管理器和稳压器轻松理解可解释的多层神经网络,但是神经网络模型具有复杂的结构,即使是具有单个隐藏层的最简单的神经网络,也可以产生潜在的特征模型很难理解,如图1所示。

我开发了一种揭示每个隐藏节点规范的关键驱动功能的方法。这导致了一个可辩解的神经网络强制隐藏的节点只有稀疏连接使得神经网络的行为很容易理解。

图1:即使是最简单的神经网络也可以有一个隐藏的层,使其很难理解。资料来源:斯科特Zoldi,Fico。

生成此模型会导致一组的学习可说明的潜在功能这些是单个输入变量的非线性变换,也是两个或多个它们在一起的相互作用。这解释性阈值的值是单个隐藏节点中允许输入数量的上限阈值,如图2所示。

因此,隐藏的节点获得了简化。在该示例中,隐藏节点LF1是输入变量V2的非线性变换,并且LF2是两个输入变量,V1和V5的相互作用。在该示例中,这些节点被认为是解决的,因为输入的数量低于或等于两个中的解释性阈值。另一方面,节点LF3被认为是未解决的。

图2:节点LF1和LF2已解决。节点LF3未解析,因为其输入的数量超过了解释性阈值。资料来源:斯科特Zoldi,Fico。

为了解析一个未解析的节点,从而使它变得可解释,我们进入了它的激活状态。然后训练一个新的神经网络模型。隐节点的输入变量成为新神经网络的预测变量,隐节点的激活是新神经网络的目标。这个过程用另一层潜在的特征来表达未解决的节点,其中一些特征被解决了。将此方法迭代地应用于所有未解决的节点,得到一个稀疏连接的深度神经网络,其架构不同寻常,每个节点都被解析,因此可以被解释,如图3所示。

图3:通过迭代地应用分辨率技术来实现解释性。资料来源:斯科特Zoldi,Fico。

底线

一起,可解释潜在的特征和区块链制作复杂的AI模型对公司和监管机构的人类分析师可理解 - 将道德,高度预测的AI技术加速到生产中的一个关键步骤。

在AI的三个e的AI解释者系列中对我的AI解释器系列中的第三和最终博客留意。

一个LL IOT议程网络贡献者负责其帖子的内容和准确性。意见是作者,不一定能够传达物联盟议程的思想。

搜索CIO.
搜索安全
搜索网络
搜索数据中心
搜索数据管理
关闭