本篇文章1170字,读完约3分钟

近年来,随着人工智能技术的快速发展,公众的关注度不断提高。最大的声音之一来自已故的斯蒂芬?霍金教授认为人工智能可能会毁灭人类。那么,你如何看待人工智能的威胁?应该采取行动来控制人工智能吗?我们应该像核能和其他潜在的危险技术一样,制定法律甚至国际条约来控制人工智能的发展吗?

在回答这些问题之前,应该清楚人工智能的成就仍然有限。今天的人工智能系统可以完成20年前计算机无法完成的任务。例如,全世界数百万人每天都在使用自动文本翻译工具。无人驾驶汽车将很快问世,并将在未来10年出现在道路上;电脑现在比人类更擅长识别人脸。尽管这些成就令人印象深刻,但人们仍然不知道如何让机器有意识和自我意识。因此,在可预见的未来,人工智能接管世界仍将是科幻小说的情节。当然,这并不意味着我们可以坐下来放松。

牛津大学教授:如何把控人工智能

人工智能系统越来越多地被用来做决定,这对人们有直接的影响。例如,银行发现人工智能系统擅长预测潜在客户是否会成为高质量的客户——他们是否会按时偿还债务等等。他们可以通过使用大量的客户记录来“训练”人工智能系统。一段时间后,这个系统将能够分析潜在客户的详细信息,从而预测他们是否是高质量的。对于银行来说,他们可以快速而廉价地决定是否需要一个特定的客户。但对于客户自己来说,他们应该担心:如果银行的人工智能系统在某种程度上存在偏差,会怎么样?

牛津大学教授:如何把控人工智能

这是算法偏差。当前人工智能浪潮的一个特点是,该系统不能像人类一样解释或合理化其决策。因此,银行可能会使用人工智能系统来决定不与你做生意,但他们无法解释原因。这公平吗?银行这样经营合乎道德吗?谁对这个决定负责?

这些问题不容忽视。一个解决方案是建议监管人工智能技术的使用。我认为通过一般法律来管理人工智能的使用是不现实的,这似乎有点像试图通过立法来管理数学的使用。一种似乎被接受的方法是,如果软件做出了影响你的决定,那么你应该有权知道这个决定是如何做出的,使用了哪些与你相关的数据,以及标准是什么。我认为这更合理。使人工智能可解释和透明是这个领域最大的挑战之一。

牛津大学教授:如何把控人工智能

在某些情况下,人工智能决策可能直接关系到生死,比如在战场上使用人工智能系统。虽然没有证据表明这种“致命的自动武器”被使用过,但这确实是可能的。在过去的五年里,人工智能领域的科学家们采取了积极的行动,希望政府能够认识到这个问题的严重性并做出回应。最近,英国政府在一份报告中明确表示,它永远不会赋予人工智能系统伤害人类的权力。

牛津大学教授:如何把控人工智能

人工智能只是一种技术,就像任何技术一样,它可以用来造福人类,也可能带来危害。条件立法不太可能有效控制人工智能。我们需要以负责任和合乎道德的方式使用人工智能。正如关于自主武器的全球讨论最近取得了进展一样,国际社会需要应对人工智能带来的挑战。

(作者是英国牛津大学计算机科学系主任)

《人民日报》(2018年5月15日,第22版)

来源:搜狐微门户

标题:牛津大学教授:如何把控人工智能

地址:http://www.shwmhw.com/shxw/47075.html