本篇文章1149字,读完约3分钟
人工智能算法的潜在安全风险、认知偏差和法律伦理冲突往往是现实社会缺陷的反映。只有关注机器和使用机器的人,我们才能创造一个人工智能与人类积极互动的未来
语音订购,刷脸付款,无人驾驶汽车送回家...60多年前,当一群年轻科学家首次提出人工智能的概念时,他们可能没有预料到它带来的巨大变化;如今,由于计算能力的提高、大数据的推动和深度学习的突破,人工智能正在加速其进化,并日益改变我们的生产和生活。
技术是一把双刃剑。应该注意的是,尽管人工智能正在取得巨大进步,但它也对安全、法律伦理等提出了新的挑战。例如,一些专家担心人工智能可能会模糊虚拟世界和现实世界的界限,甚至重塑人类的生存环境和认知形式,从而导致一系列棘手的道德伦理问题。著名物理学家霍金认为,人工智能的短期影响是由控制它的人决定的,而长期影响则取决于人工智能是否完全被人控制。
从技术发展过程和逻辑判断,这些担忧可能来得有点早。幸运的是,我们不只是停留在辩论中。鉴于人工智能的潜在风险,科学家和工程师们提出了一系列可行的方案,试图从产品设计标准和规范方面控制智能机器系统。面对智能算法的不可理解性和缺乏透明性所导致的机器偏差,人们正在加强对人工智能所使用的数据、算法和模型的评估,并消除可能导致偏差的潜在因素;在未来强大的人工智能环境中,科学家们还试图探索具有准人格的机器如何与人和谐相处,并通过算法将人类的价值观和规范植入智能机器,使它们拥有与人类一样的同情心、责任感和羞耻感。我们希望在监督人工智能项目的同时,人工智能的算法应该遵循“好的规律”,吸收人类伦理的“好”的一面,从而控制机器的风险。
当然,建立一个好的机器法律伦理体系并不容易。现实中丰富的语言表达和微妙的情感诉求能被机器理解和接受吗?用定量指标来衡量善恶等伦理概念是否可行?此外,谁将决定算法并设定标准?这些是我们在试图规范人工智能的发展时需要面对的难题。但是将道德植入机器的困难并不意味着我们只能无所作为。机器学习输出的判断和行为通常取决于它接收的信息。从这个角度来看,人工智能本身没有错。在理想状态下,当前基于深度学习的人工智能算法应该是中立、客观和高效的,其潜在的安全风险、认知偏见、法律和伦理冲突等。通常是真实社会缺陷的反映,这些缺陷只在技术视野中被放大。因此,为了使智能机器更加完善,除了通过技术手段回顾或指导算法之外,正视、理解和改善现实的社会环境也许更为重要。只有关注机器和使用机器的人,我们才能创造一个人工智能和人类积极互动的未来。
伦理学家说,人工智能的道德标准将是一面镜子,它反映了人类文明的道德高度。人类社会不可能完美,未来的机器智能时代也不会完美。我们应该继续不懈努力,创造一个更加美好的智能时代。
《人民日报》(2018年11月2日,第18版)
来源:搜狐微门户
标题:创造良性互动的智能时代(科技杂谈)
地址:http://www.shwmhw.com/shxw/54177.html