问题解决 获得您的技术,流程和项目的特定问题。

可信数据交换可以帮助发展道德ai吗?

AI正如我们所知道的那样,改变世界。上下文意识与ai配对正在为医疗保健,环保,保护,智能城市和公共安全的许多积极解决方案开门。企业AI应用还扩散了营销和销售,人力资源和招聘,安全,自主行动和金融服务。另一方面,AI的快速进步也提出了数据伦理周围的问题和疑虑,这只是开始解决。

作为一个案例,纽约警察局(NYPD)受到挑战AI偏差问题新的犯罪分析人工智能工具。该工具旨在帮助查明犯罪模式,以便更快作出反应和预防犯罪。为了避免偏见,纽约警察局从用于训练该工具的历史数据中删除了种族、性别和地点属性。然而,正如一位分析师指出的那样,如果种族或性别偏见在过去的警察行动中发挥了任何作用,即使数据中没有明确捕捉到,该工具的预测仍然会受到种族和性别的影响。随着人工智能市场的持续爆炸式发展,澄清这种情况下的道德准则将是至关重要的。

AI市场爆炸有多快?

IDC预测,2018年至2022年的复合年增长率为38%的复合年增长率为7.92亿美元的全球支出。对于AI地形正在发展的速度,良好的视觉参考,只需比较AI商业景观五年前至今的2019年AI景观。AI地形和AI发明的数量遵循类似的加速路径,如此人工智能专利可视化说明了。

恐惧是什么?人工智能伦理的崛起

如果AI真的可以帮助我们让世界变得更好,那么问题是什么?考虑此示例:一个城市具有智能红绿灯网络,以减少拥塞。AI算法时间灯以最小化流量积累和捕获任何车辆的车牌图像,这些车辆无法停止为红灯。系统自动将许可证标号与车主匹配,使城市能够更快地处理流量违规行为。

在这种情况下,您可能不会感到惊讶地在邮件中收到交通罚单。但是,如果您的保险公司通知您,您的房价将上涨?虽然这提出了公民隐私周围的问题,但解决了AI偏见可能是一个更大的挑战。例如,如果确定您的初始保险率的AI模型培训历史数据培训,那么在与您的种族,性别或教育程度偏见的历史数据上培训?事实上,IBM研究人员致力于缓解AI偏见已识别并归类为180多个人类偏见,可能会影响AI模型。

大多数AI伦理问题通常可以分为这些普遍区域:

  • 人机交互。模仿或愚弄人类的机器;在武器、事故、流氓机器人以及人类对机器的滥用中,自主性出了问题。
  • 数据采集​​。收集比需要更多的数据;未经许可收集数据;在未经许可的情况下监控,销售或连接不同的数据集和培训AI的数据中包含的偏差和人为错误。
  • 数据使用。深伪视频,假新闻,社会操纵,隐私入侵,基于保险,信贷或工作和歧视的社会评分。

幸运的是,许多与人工智能有利害关系的政府和公司意识到了存在偏见的可能性,并正在努力实施伦理方法。例如,欧盟发布了一套针对企业和政府的道德人工智能指导方针。美国国防部正在招聘一名人工智能伦理学家。人工智能伙伴关系(Partnership on AI)和IEEE等行业协会已经制定了人工智能伦理准则。人工智能伙伴关系(Partnership on AI)最近还宣布了一项研究奖学金,以促进人工智能的多样性和包容性。该伙伴关系包括100个企业和非营利组织成员。很多科技巨头,包括谷歌,微软,IBM开发了自己的AI道德此外,亚马逊还承诺向人工智能公平研究投入1000万美元。

日益增长的道德AI比一个利益相关者或政策更大,但通常包括公平,包容,透明度,隐私,安全,问责和社会利益的原则。数据是许多这些领域的核心,因为它真的归结为如何收集数据并用于训练AI模型。

信赖的数据交换如何帮助

人工智能模型和用来训练它们的数据一样好。剔除了偏见和误差后,具有不同特征的更大样本量将会产生更公平、更准确的人工智能模型。随着时间的推移,额外的数据源也可以帮助改进AI模型。例如,西门子建立了一个人工智能模型,分析来自列车的传感器数据,并结合历史数据来预测故障部件。未来,该公司还可以添加其他来源的数据,如基于路线的天气预报,以进一步改进该模型。

数据交换是作为组织更好地使用它们拥有的数据的一种方式,包括货币化,以及利用来自其他来源的数据。将来自不同来源的数据组合在一起物联网数据交换可以改进人工智能模型,产生更深刻的见解,并为新服务打开大门。信任是必不可少的基石。

使用数据信任原理构建的数据交换更好地配备了解数据隐私问题。通过直接和安全地互连物联网生态系统参与者,数据和算法,可信数据交换可以生成最大共享值,同时在低延迟高延迟,高带宽基础架构上保持数据私有和安全。

作为jeni tennison,开放式数据研究所的首席执行官填写了它,“我们只在使用时解锁数据的全部价值,因此我们真的需要找到更好的方法,而不会让人们面临风险。”

所有IOT议程网络贡献者负责其帖子的内容和准确性。意见是作者,不一定能够传达物联盟议程的思想。

搜索首席信息官

搜索安全

搜索联网

搜索数据中心

搜索数据管理

关闭