本篇文章1223字,读完约3分钟
人工智能的应用可能是一个影响深远的社会伦理实验。智能机器应该通过算法嵌入人类的价值观和规范,这样它们才能拥有和人类一样的道德观
不久前,包括特斯拉首席执行官马斯克在内的许多世界顶级人工智能专家签署了一份承诺书,呼吁不要开发“人工智能自主武器”。这不是该行业第一次警告人工智能的潜在风险。尽管“弱人工智能”处理个人任务和完成人类指令的自主性仍然很低,但人们不能忽视新技术应用的潜在隐患。
高效智能的人工智能并不完美。例如,人工智能有算法缺陷。这种缺陷通常源于无法解释和不可理解的机器学习过程,其判断有时是在黑箱中进行的,缺乏透明度。当无人驾驶汽车决定左转或右转时,人们并没有完全意识到转弯的过程。除了传感器故障,人们甚至不能准确地找到问题的原因,这给系统的有针对性的调整和责任的确定带来了障碍。正因为如此,不久前生效的《欧盟通用数据保护条例》明确规定,人工智能公司必须让人们审查一些算法决策。
不仅有近忧,也有远忧。展望未来,人工智能的应用正在模糊虚拟世界和物理世界的界限,这可能重塑人类的生存环境和认知形式,从而产生一系列棘手的伦理、法律和安全问题。与历史上的其他技术创新相比,人工智能的伦理和法律问题吸引了如此多的关注。一个重要的原因是,人们期望它在概念上实现可计算的感知、认知和行为,从而在功能上模拟人类的智能和行为,进而使机器具有准人格或准主体的特征。现有的人类法律规范、概念框架和知识储备能否应对人工智能发展带来的新问题,是人们必须正视的挑战。
鉴于人工智能应用中的潜在风险,国际社会提出了一系列方案,试图从标准设计和伦理道德的角度来控制智能机器系统,并逐渐形成了一个共识原则:通过算法将人类的价值观和规范嵌入智能机器中,使其具有与人类相同的伦理道德,如同情心、责任感和羞耻感。人们希望人工智能的算法遵循“好的规律”,同时吸收人类伦理的“好”的一面,从而达到控制机器风险的目的。毕竟,任何算法都只是达到目的的工具或手段,“善”的结果是人类追求的目标。
事实上,通过编写代码和算法来控制机器的想法并不新鲜。70多年前,美国科幻作家阿西莫夫提出了“机器人三定律”,通过内置的“机器伦理调节器”构想出机器人不应伤害人类的原则。如今,计算机专家、伦理学家、社会学家、心理学家等等。正在共同努力,走在实践这一理念的道路上。
人类对人工智能发展的长期关注可能来得有点早,但未雨绸缪是人类的智慧和洞察力。我们不能等到人工智能深入人类生活之后才考虑如何与之相处。与机器的和谐应该是人类开发和利用人工智能的一个重要尺度。毕竟,人工智能的应用不仅是一项技术创新,也是一项影响深远的社会伦理实验。
“人工智能的短期影响取决于控制它的人,而长期影响则取决于人工智能是否完全由人控制。”这是著名物理学家霍金留下的警告。我们不必被人工智能的风险吓倒,但在享受人工智能的好处的同时,我们也需要划定道德和法律规则的红线。
《人民日报》(2018年9月3日,第18版)
来源:搜狐微门户
标题:给智能机器嵌入“道德”算法
地址:http://www.shwmhw.com/shxw/52791.html