本篇文章1868字,读完约5分钟
如今,人工智能的智能性、自主性和高效性达到了发展的高潮,成为完成日常工作、改善生活、提高幸福感的得力助手。但与此同时,由于人类赋予了人工智能独立决策的能力,许多人开始提出人类应该对人工智能负责。
如何负责?它包括三个核心,即问责制、责任和透明度。这三点构成了人工智能的a.r.t原则。
责任制是指人们在人工智能系统的R&D、生产、销售和使用过程中所承担的工作,也包括人工智能系统在为人类做出决策和识别错误的过程中承担意外结果的能力。责任是解释和对个人行为负责的能力。例如,无人驾驶汽车与行人相撞的责任应该由谁来承担?是传感器、刹车和其他硬件的设计者吗?是自动驾驶软件的设计者吗?是当局批准无人驾驶汽车上路吗?还是个性化汽车决策系统的所有者?显然,汽车是一种产品,它不能承担责任,但所有的利益相关者都不能逃避责任。因此,基于责任原则,理想的模型和算法应该赋予人工智能系统解释其自身决策依据的能力。透明度,即解释、检查和显示人工智能系统的许多运行机制的义务,涉及决策、适应环境、使用和管理生成的数据等。如今,人工智能算法基本上是黑盒。因此,我们需要开发测试人工智能算法及其结果的方法。此外,应采用透明的数据管理机制,以确保合理和透明地收集、生成和管理数据,用于算法培训和决策,同时减少偏见,加强数据隐私和安全。然而,尽管大多数当前的算法是有效的,它们缺乏透明度。为此,许多专家和机构都在不断地研究,希望提高深度学习算法的透明度和可解释性。例如,谷歌一直呼吁公平和负责任的人工智能研发。
在这方面,普华永道最近公布了一个负责任的人工智能框架,强调专用人工智能对于提高结构性能和人工智能透明度的重要性。
▲负责任的人工智能框架该框架包括四个部分:战略、设计、开发和人工智能操作:
战略:强调将人工智能的创新能力与企业的核心战略目标和绩效指标相结合,强调人工干预在人工智能系统运行中的重要性;设计:关键是打开人工智能的黑匣子。普华永道认为,缺乏透明度将导致固有的声誉和某些财务风险,因此确保软件设计尽可能透明和可审计非常重要。同时,提出在设计和实施阶段建立最有效的控制,并引入行为抑制程序或对抗模型来监控人工智能技术的适应性和准确性标准;开发:重组计划管理,管理数据相关性,用足够的时间进行测试和培训,并设置置信阈值;操作:一方面,要认识到高质量数据的关键作用,防止数据带来的无意偏差;另一方面,我们应该防止系统性风险和蓄意攻击。此外,另一家咨询公司埃森哲(Accenture)最近透露,企业将很快能够为人工智能系统提供专门的测试服务。通过其人工智能测试服务,企业可以使用自己的基础设施或云计算来构建可靠的人工智能系统,并对其进行监控和测量。此外,它还包括针对组织的测试策略、工程、数字和企业技术。
埃森哲技术服务集团(Accenture Technology Services Group)首席执行官巴斯卡尔戈什(Bhaskar ghosh)表示:企业在推动创新和发展的过程中见证了变革的价值,因此它们正在加速推进人工智能。随着人工智能在各种企业中的整合,为了确保其安全性和质量,避免对企业绩效、品牌声誉和规则产生负面影响,找到更好的方法来培训和维护这些系统是非常重要的。
通过教学和测试方法,它将确保人工智能系统以两种不同的方式做出正确的决策:
在教学阶段,它负责检测用于训练机器学习的数据、模型和算法,并对不同模型进行统计评估,以实现最佳生产模式,同时遵守道德规范,避免性别和种族等偏见。
在测试阶段,人工智能系统的所有输出结果将与企业内部的关键绩效指标进行比较,并评估系统是否能够解释某项决策的依据或输出。埃森哲表示,为了保持系统性能,现阶段采用创新技术和云计算工具持续监控系统。
一家金融服务公司使用这种方法来培训会话虚拟客户服务。据该公司介绍,其培训速度提高了80%,客户推荐服务的准确率高达85%。不仅如此,它还用于培训情感分析解决方案和评估品牌的服务水平。
埃森哲高级管理总监兼战略和全球测试服务主管纪梭·杜尔格(Kishore durg)表示:人工智能测试系统仍面临一些挑战。传统的应用程序测试预设的场景数量有限,因此结果不可靠。人工智能系统需要无限的测试方法。因此,我们需要掌握数据评估、模型学习、算法选择、偏见监测和遵守道德规范的能力。
无论如何,随着人工智能的应用前景越来越明朗,越来越多的利益相关者和企业开始关注人工智能算法的黑箱问题。我们也相信,一旦这个问题得到解决,人工智能技术在企业的创新和应用将会有质的飞跃。
来源:搜狐微门户
标题:埃森哲推出AI测试服务,深度学习算法的“黑匣子”问题或将不再
地址:http://www.shwmhw.com/shxw/41818.html