本篇文章1743字,读完约4分钟
雷锋网络出版社:自从深层神经网络发展以来,机器已经解决了许多人类想象不到的问题。然而,在这个人工智能算法模型中有一个不可控的因素,即在神经网络的输入层和输出层之间有一个隐藏层(“黑盒”),人们无法理解机器最终是如何通过输入数据做出决策的。自动驾驶场景也是如此。如果找不到“黑匣子”的逻辑,就无法预测系统可能出现的问题,这对于安全性要求极高的自动驾驶系统是不允许的。最近,英伟达在这个问题上取得了突破,宣称已经打开了其自动驾驶深层神经网络的“黑匣子”。这篇文章是由ieee报告编译而来的。由于深入学习的技术细节,专业读者被邀请来批评不准确之处。
深层神经网络是计算机认识世界的一种方式,也是机器学习的经典算法模型之一。具体来说,这个模型是一个人工神经网络,它接受给定类型的输入数据,然后搜索规则模式。经过多年的发展,深层神经网络(ddn)已被应用于各种场景,如语音识别、机器翻译、机器围棋和自动驾驶汽车。
*深层神经网络的抽象模型
深层神经网络模型在机器学习中起着重要的作用,经常会产生意想不到的结果。然而,研究人员以前没有解决一个问题,即在神经网络的输入层和输出层之间存在一个隐藏层。换句话说,没有人真正理解计算机是如何在其中工作的。在神经网络模型中,有一个所谓的“黑箱”。
这也解释了为什么谷歌阿尔法戈不能解释如何赢得围棋游戏。他们唯一能做的就是看着他们训练的人工智能不断成长,从初始阶段到击败世界围棋大师。
“黑箱”带来了神经网络算法的不确定性,这可能导致人类无法预测的故障的发生。对于玩围棋的阿尔法戈来说,这个问题似乎无害。然而,对于面向人类出行的自动驾驶汽车来说,这个问题不容忽视。
对于自动驾驶汽车,工程师必须在正式运行前发现算法中的各种漏洞,预测可能出现的问题并加以解决,从而最大限度地提高系统的安全冗余度。目前,有一种方法可以进行这种调查。即通过自动驾驶的算法仿真,将特征逐一输入到人工智能系统中,从而考察影响系统决策的因素。然而,英伟达似乎找到了一个更快的方法,这可能会改变深度学习网络的未来应用。
据国外媒体报道,英伟达声称,它已经找到了一种更容易的方法来打开深层神经网络的黑匣子。此前,NVIDIA汽车业务负责人丹尼夏皮罗(danny shapiro)在NVIDIA官方博客中表示:“虽然深度学习技术是基于我们并不完全理解的架构进行学习,但我们仍然可以通过某些方式知道系统是如何做出决策的。”
据雷(公开号:雷锋网)介绍,英伟达的方法是基于深度神经网络不同数据处理序列输出结果的叠加原理。例如,对于自动驾驶汽车,如果一组图像信息被输入到前摄像机传感器,深度神经网络将逐层计算和学习它,并输出结果。目前,该结果所能指示的信息已经包括自主车辆的转向操作决策,例如车道保持等。
那么如何实现“黑匣子”的开启呢?这就是英伟达的工作。首先,我们得到一个经过分析的高级输出,并且输出的关键特征已经从摄像机收集的图像数据中提取出来。然后,该结果与较低级别的输出结果叠加、平均、与较低级别叠加等等,直到它叠加在原始图像信息上。
通过这种方式,最终的结果是具有一些突出特征的原始图片,其代表哪些特征是机器在深度学习过程中关注的价值点。通过这种方法可以发现一个有趣的现象,即机器通过深层神经网络关注的特征点正是人类驾驶员认为需要关注的——如车道标线、道路边缘、停放车辆、道路边缘等。
*叠加后输出结果图样本
然而,由于机器关注的特征点不同,为了找出决定机器最终决策的特征点,研究人员将这些高亮像素特征点分为两类:第一类是“重要特征”,即驱动决策。明显相关;第二类是“非显著特征”,通常是出现在背景中的信息。通过数字研究和比较,结果表明只有显著的特征信息与机器决策直接相关。
“如果‘显著特征’被移动,输出结果将与我们对整个图像的改变呈线性对应,”研究人员说,“而移动背景中的像素特征对输出结果的影响将小得多。”
的确,工程师不能深入到深层神经网络中去寻找“bug”,因为其中没有代码,所以你不能通过代码调试。然而,深层神经网络呈现特征。现在,英伟达试图通过这条路径来可视化机器特征提取的过程,这可能有助于人们更好地理解深层学习机制。
雷锋原创文章。严禁擅自转载。详情请参考转载说明。
来源:搜狐微门户
标题:一个时代的开始?英伟达宣称已开启自动驾驶汽车的“深度神经网络黑箱”
地址:http://www.shwmhw.com/shxw/63165.html