本篇文章9471字,读完约24分钟
杰里·卡普兰(Jerry Kaplan)谈到了人工智能与人类的关系、机器人产业的发展、人工智能引起的就业结构变化及其对策、人工智能的国家和产业战略,以及人工智能时代的教育和人才。
本文由王永刚授权的创新工场(微信号:创新2009)发布。
近日,著名计算机科学家、连续企业家、未来学家、《人工智能时代》畅销书作家杰里·卡普兰(Jerry Kaplan)接受了人工智能工程创新工程研究所副所长王永刚的专访。在一次独家采访中,杰里·卡普兰畅谈了人工智能与人类的关系、机器人产业的发展、人工智能引起的就业结构变化及其对策、人工智能时代的国家和产业战略、教育和人才等。
王永刚:你好,杰瑞。有些人担心人工智能最终会进化成超级智能,威胁甚至控制人类。你会有同样的担心吗?
杰里·卡普兰:我认为这种情况发生的可能性非常小。事实上,我们现在所做的只是制造工具来自动完成以前需要人类参与的任务。我认为,之所以会有这样的疑问,是因为人们习惯于将人工智能拟人化,这是问题的根源。
这件事对专业人士和公众的意义是不同的。例如,公众总是担心无人驾驶汽车会伤害人类的生命。在某些极端情况下,无人驾驶汽车真的需要做出决定,是撞向左边并伤害左边的行人,还是撞向右边并伤害右边的行人。但是无人驾驶汽车只是一套机器系统,它们并不真正做决定。它们只根据对环境的感知,按照一定的原则和设计做出反应,而我们人类完全控制着整个系统的感知和反馈模式。如果他们做了不符合我们社会规范的事情,那一定是因为我们人类在设计它们时犯了错误。
我们面临的只是一系列工程设计问题。我们必须确保我们设计和制造的产品和服务符合我们的愿望和期望。你知道,这和桥梁工程师使用一整套质量保证计划来确保他们建造的桥梁不会倒塌没有什么不同。我们有许多工程原理来指导我们如何测试一个系统,什么样的系统是合格的,什么样的系统是足够安全的,等等。在人工智能领域,我们也需要这样的技术,因为人工智能非常强大,有潜在的危险。但这不是因为智能机器像人类一样思考。仅仅因为它们非常强大,我们就必须小心使用它们。
智能经历了漫长的进化过程,从猿类智能到人类智能,再到人工智能技术和人类制造的智能机器。那些预测超智能的人根据这样一种进化趋势来思考问题:
(图1:关于智能进化的线性思考)
但是这种线性结构是有问题的,因为我们没有简单的方法来测量智力。这与测量重量或鞋子尺寸非常不同。智力是一个非常定性的概念,它反映了一个人成功解决特定问题的能力。例如,人们总是问,如果人工智能的智商达到200,会发生什么?然而,人工智能的智商是多少?事实上,智商在这里是一个被极度滥用的概念。心理学家使用一个叫做发展能力的概念来评估人类。他们测试一个人解决算术和逻辑等问题的能力,然后将测试得到的分数除以这个人的年龄,这就是智商的含义。如果一个人解决这些具体问题的能力超过了他同龄人的平均水平,我们说他的智商很高。然而,如何定义机器的智商呢?如何定义机器的年龄?机器解决算术问题的速度比人类快一百万倍。那么,这些机器的智商是多少?事实上,这种说法没有实际意义。
因此,第一个问题是,智力的定义非常主观,这取决于每个人自己的观点。这与我们对美的定义非常相似。你可以说有些人比其他人更漂亮,或者一个人比其他人更聪明,但是想要将美丽或智商的定义客观化和量化是错误的。其次,智力的衡量不是线性的,而是多维度的。如果你用算术能力来评估,这台机器已经很聪明了。但是如何将机器集成到多维测量系统中呢?这句话到底意味着让机器变得更聪明?
关于机器智能的一个更好的思考方式是,我们有新的技术手段,我们可以将这些新技术应用到新的问题领域。由于机器学习技术的进步,我们现在正处于最好的时期。当你有锤子时,一切看起来都像钉子。今天,在美国,每个人都在试图了解我们如何应用人工智能技术,以及它能被应用到多深。我们正在解决自然语言处理、翻译、机器视觉、机器人等问题。在某些地方,人工智能工作得很好,而在某些地方,它们很难满足实际需要。推动这一进步的主要力量不是智能本身,而是大数据以及以更快、更便宜、更简单的方式访问大数据的能力。
我经历了许多技术革命。今天,人们对机器学习的兴趣与每一次新的技术革命都没有根本的不同。例如,机器学习与那一年关系数据库的发展非常相似。当我们使用基于层次模型和网络模型的数据库时,关系数据库的出现改变了一切。在关系数据库的帮助下,任何人都可以使用数据库作为一个方便的工具,而不需要雇佣许多专业的工程师。人工智能是如此方便的工具,可以给我们带来巨大的变化,就像几十年前的关系数据库一样。
王永刚:谷歌的阿尔法戈和软银的胡椒机器人让普通人觉得机器变得越来越智能。这些新技术是否误导人们相信机器是有意识的?
杰瑞·卡普兰:人工智能不是单一的技术,它是一组不同技术的统称。此外,它会随着时间不断变化。今天,这个技术领域与20年前大不相同。公众认为机器变得越来越智能的原因是机器可以做新的事情。然而,今天阿尔法戈赢得go比赛的技术与20年前ibm Deep Blue赢得国际象棋比赛的技术大不相同。阿尔法戈和深蓝背后的技术是不同的。Alphago是一种基于大数据的新算法。因为数据极其丰富,我们可以从数据中学习,让机器发现人类可感知的模式。这是一种基于模式的算法,与算术问题有很大不同。公众并不关心这些技术细节。他们只能说,现在机器可以下棋了,现在机器可以开车了,现在机器又可以玩围棋了。上帝,机器越来越聪明了!
作为工程师,我们知道阿尔法戈可以做很多事情,但是我们不期望阿尔法戈有人类意识。我们不知道让机器有意识或自由意味着什么。当前的科学体系没有为理解这些问题提供一个基本模型。你必须从以下两种解释中选择一种:要么,所有关于意识的人类经验都是不可靠的。例如,我们认为我们知道意识,但我们不知道它;或者,我们缺乏理解人类意识的基本工具。
软银的胡椒机器人有着和人类一样的脸。它看起来像一个孩子。你可以和它谈谈。但这只是一场魔术表演。它没有思想。人工智能技术只能解决一些只有人类才能解决的问题,但这并不意味着人工智能程序有想法,或者按照人类的标准它们是智能的。让人们认为机器与人类相似的应用程序实际上只有娱乐价值。它们只是一场魔术表演,并不能真正取代人类。
王永刚:你认为仿人机器人会是机器人行业的一个很好的发展方向吗?
杰瑞·卡普兰:我不能说这是好是坏。这不是一个黑白分明的问题。公众认为机器人看起来像人类,但是你和我都知道机器人只是机器,这些机器通常看起来不像人类。机器人有一个传感器和一个驱动装置。该程序利用传感器感知环境,利用驱动装置驱动机器人做出反应。我们不是在造人。
出于一些商业原因,一些人制造出具有人类外观的机器人。人形机器人有着和人类相似的脸和笑容,比如软银的胡椒机器人,在娱乐业或某些特定领域具有商业价值。
如果我们想制造一个可以在人类活动的空房间里工作的机器人,给机器人一个类似于人体的尺寸,或者一个类似于人体的物理功能也是非常合理的。
你可能知道国防高级研究计划局的机器人竞赛。在这项由美国国防高级研究计划局组织的竞赛中,机器人制造团队要求机器人完成一项特定的任务来相互竞争。例如,机器人爬楼梯、开门或使用电钻。为什么国防高级研究计划局会组织这样的比赛?想象一下2011年日本福岛核电站事故。在那次事故中,人们遇到的问题之一是人类很难进入辐射覆盖的区域。我们必须制造能够进入危险区域并完成简单任务的机器人,比如关门或关阀门。因此,这就是darpa组织机器人竞赛的原因。这是我们制造和使用机器人的最好理由。这些机器人不必看起来像人类,它们只是可以像人类一样完成任务。
因此,仿人机器人是一种能够以类似方式完成人类任务的机器人。人形机器人可能像也可能不像人类。我们有很多理由来设计和制造人形机器人。
王永刚:在不久的将来,人工智能会导致多少失业?你如何估计这个百分比?由此产生的失业会成为一个严重的社会问题吗?
杰瑞·卡普兰:不是所有的工作都会被人工智能取代。相反,许多工作将转化为新的工作机会。一个很好的例子是银行的出纳员。过去,大多数银行出纳员总是做最基本的银行交易。显然,atm自助终端的使用已经取代了一定数量的银行出纳员的传统工作。但有趣的是,银行出纳员的员工数量并没有下降,而是上升了,因为出纳员的工作已经发生了变化。我们仍然称他们为银行出纳员,但他们的工作描述与20年前大不相同。大多数时候,银行出纳员不会坐在那里等着帮你取钱和存钱。今天的银行出纳员已经成为各种银行业务的推销员。你可以走进一家银行的分行,和出纳员谈论银行业务。那些银行出纳员可以给你所有的帮助。这份工作不同,但职位的头衔没有变。科技让银行变得更加高效和可扩展。银行可以开设更多分行,雇佣更多员工,投资新领域,创造新工作。
最近,詹姆斯·卢伯森的一份报告(计算机自动化如何影响职业:技术、工作和技能:voxeu/Article/How-Computer-Automation-impact-占领)显示了过去几十年里全职银行出纳员数量的增长趋势:
(图2:美国全职银行出纳员和自动取款机数量之间的关系)
人工智能将取代什么工作?人工智能可能取代的大多数工作都有明确的评价标准,工作绩效可以客观地衡量。人工智能无法替代的工作通常需要人类做出决定。例如,风险资本家仍然需要与企业家面对面地会面,以确定他们的投资意图。即使是受过高等教育的人也会花很多时间做重复性的工作,这是最容易自动化的。这使得那些高级人才可以花更多的时间在那些能充分发挥他们的技能和特长并且最不可能自动化的部分。对于某些工作,所有工作内容都可以自动化,因此不再需要人工。例如,放射科医生的工作可以完全自动化。但是对于其他的工作,比如全科医生,你不能取代他们,因为你不能完全取消面对面的诊断。
人工智能导致的失业并不像一些人认为的那样严重。例如,无人驾驶系统可以完全取代卡车司机。但据计算,目前美国大约有150万卡车司机。假设所有这些卡车司机将在15年内被替换,那么15年内将失去150万个工作机会,这意味着我们平均每个月要安排大约8300个再就业机会。这不是一项不可能完成的任务。
与卡车司机不同,许多其他的工作将会转变成新的工作。例如,医生不会消失。我们将有自动辅助诊断系统,但这些系统只会使医生工作更有效率,使医生有更多的时间来完成科研任务或接待更多的病人。今天,许多人因为高额的医疗费用而不去看医生。当人工智能被广泛使用时,医生可以更有效地接待病人。医生的数量可能会减少,但人们可以更容易和更频繁地看医生。
王永刚:在你的《人工智能时代》一书中,你提出了解决失业问题的方法:工作抵押贷款。这听起来像是由政府、雇主和教育系统保证的再教育机制。然而,考虑到在人工智能时代,人类教育可能比以前复杂得多,因为简单而重复的工作很容易被人工智能所取代。人们学习一项新技能可能会变得非常困难。有鉴于此,就业抵押的再教育机制是否真的可行?
杰瑞·卡普兰:我认为你的问题包含了一个隐藏的假设:要求低水平技能和较少培训的工作更容易自动化,而要求高水平技能和更多培训的工作更难自动化。这个假设可能不像你想的那样正确。
让我给你举个例子:放射科医生。放射科医生是医生。他们需要多年的训练来学习技能,但是他们的工作可以完全自动化。这是一个很好的例子,高等教育水平的工作也可以自动化。驾驶卡车可能是一项低水平的工作,可能需要一些培训,但这显然不是一项高级技能。在我看来,自动化将会影响各行各业各种技能水平的人。当我们担心我们应该如何对待那些低层次的工人时,我们也需要担心那些高层次的工人。
即便如此,仍有许多工作不需要大量培训,但很难实现自动化。从事这些工作的人不必担心失业。这些工作作为一个人出现是非常重要的。例如,如果你看看体育教练,我们很难自动化这种工作。因此,也许我们可以把失业的卡车司机重新培训成体育教练,那些会开卡车的人可能会发现体育教练的技能更容易掌握。
当我们谈论再教育时,你的问题包含了一个我不同意的假设。我可以给你另一个例子。通常,按摩服务在今天的美国是一项奢侈的服务。你必须有足够的收入来支付昂贵的按摩服务。按摩师挣很多钱。按摩师需要什么工作技能?这项工作技能不需要特别高级的培训。如果人们有足够的钱,更多的人会选择接受按摩服务。这将大大增加对按摩师的需求。未来,由于可共享无人驾驶汽车的普及,你可能不再需要拥有自己的汽车。在美国,这意味着普通个人每年可以节省大约1万美元的汽车拥有成本。有些人可以把省下来的钱花在更豪华的服务上,比如按摩。那么,我们需要更多的按摩师。
人工智能只会取代低级工作的假设是不正确的。许多需要人际接触的工作很难被取代,比如接待员。当然,你可以用一个自动化系统来代替它们,但是你肯定不想看到你的酒店或者你公司的前台,只有机器才会接待访客。你肯定需要在前台安排人力,因为你需要他们在那里解决一些用先进的标准化系统难以预测的问题。
因此,我有一个非常有趣的建议。在你的工作或生活中,看一看,想想你周围的人在做什么。他们的工作有可能自动化吗?通常你会得出结论,他们的一些工作可以自动化,但另一部分不能。这意味着他们的工作将转变成新的工作。这种情况随处可见。让我给你另一个例子:酒保。酒保的工作当然可以自动化。你可以走到自动售货机,自己买一杯杜松子酒和滋补品。但是调酒师也可以参与我们的社交活动。你想见他们。你想和他们聊天。因此,调酒师的职业不会消失。那些失业的卡车司机也可以被训练成调酒师。
王永刚:2016年10月,白宫发布了《人工智能研发国家战略计划》。这是否意味着人工智能已经成为美国国家战略的一部分?你希望政府在人工智能领域或多或少做些什么?
杰瑞·卡普兰:在美国,白宫可以做一些事情,但是他们缺乏真正的控制。例如,如果他们说我们想让洛杉机的空煤气变得更清洁,人们肯定会质疑他们是否有这种能力,是否需要很长时间才能达到目标。白宫能做的非常有限。他们必须说服工业和人民去做。当中国公众看到美国宣布的人工智能国家战略时,他们可能会感到焦虑。中国公众会认为我们也需要在这个领域做些事情,因为美国政府认为这非常重要。然而,这样的报告和政府声明在美国和中国有非常不同的含义。中国政府比美国政府更有能力将计划付诸实施。
类似的事情以前也发生过。许多年前,美国开始了一个名为第五代计算机的项目。日本政府也认为他们需要做类似的事情。政府认为他们可以主持建造所谓的第五代计算机,它有大量的cpu单元来提高其性能。美国政府曾在大力推广中实施该计划,但该计划从未实现。日本政府做出的类似努力使日本经济倒退了几年,因为他们投资了数十亿美元却收效甚微。
因此,当我们看到美国政府的类似计划时,我们必须持怀疑态度。美国的所谓政策,往往只是一群有良好愿望的人召开政府会议,发布一些相关文件。这些东西通常没有约束力。此外,美国政府公布的内容不一定正确和可行。在美国可行的东西可能不会被复制到中国。在美国,我们可能还需要20到30年才能看到无人驾驶汽车的大规模应用。然而,在中国,政府可以加大对无人驾驶汽车行业的投资,在技术应用上选择更灵活的政策,并尽早在试点城市开始测试无人驾驶汽车技术。当然,由于中国的执行效率更高,相关政策在付诸实施之前需要仔细考虑。但中国不需要照搬美国政府的政策计划。
在美国,政府已经在关系数据库上制定了类似的战略计划。那时候这意味着什么?美国政府可以说,所有政府部门都必须更新其数据库系统,以使用关系数据库。这是可以理解的,也是个好主意。然而,作为一项国家战略,政府没有理由或能力强迫整个国家使用关系数据库。你可以给政府内部的信息技术部门提建议,但是对于私营企业,你只需要让他们做他们擅长的事情。如果这是一项好技术,私营企业自然会采用它。
在美国,政府很难在没有直接经济利益的领域投入大量资金。例如,2009年,奥巴马总统启动了一个投资太阳能的项目。政府决定投资,我认为这是一件好事。政府投资了不同的公司。在这些公司中,一家名为solyndra的公司获得了5亿美元的投资,其中大部分来自政府。该公司于2011年破产。当时,政府和民主党都受到批评。奥巴马总统的声誉受到了严重的打击,因为他推动了这个项目的建立。能源行业对这些公司进行了大量投资,但损失了数亿美元。
王永刚:openai声称它的任务是创造安全的人工智能,以确保人工智能不会威胁人类。你认为这个世界上有好的人工智能和坏的人工智能吗?你担心谷歌和其他掌握了最强大人工智能技术的行业巨头会做坏事吗?
杰里·卡普兰:这与公众习惯于看到问题的危险一面有关。我们必须非常小心。回到关系数据库的例子,我们应该确保关系数据库是有用的和好的,但是我们怎么做呢?这是什么意思?关系数据库只是一项基本技术。技术既不是好的也不是坏的。技术既有好的一面,也有坏的一面。
你和我可以在家里设计一种非常危险的武器。我们都有足够的知识来制造非常有害的设备。同样,我们可以让任何技术变得有害。人工智能可能很危险。想象一辆由程序控制的汽车。在驾驶过程中,该程序可以驾驶车辆杀死路人,以挽救司机的生命。然而,与这种危险的人工智能技术相同的技术也可以用来拯救生命和拯救汽车。
不同场景下的技术有什么不同?当我们说我们可以开发好的人工智能技术时,你认为这句话是什么意思?这句话的真正含义是我们应该尽最大努力鼓励人们为了好的目的使用技术。这是非常不同的。你不能说这个工具是为做坏事而设计的,而那个工具是为做好事而设计的。这没有任何意义。它们是完全相同的技术。公众通常认为人工智能是一个黑匣子。但是作为工程师,你和我在这个盒子里。好的人工智能和坏的人工智能分别意味着什么?你能衡量一个黑匣子是好是坏吗?那么我们不妨假设一些人工智能技术,如卷积神经网络,是危险的。
欧派的创始人埃隆·卢马斯克和山姆·卢奥特曼,他们打算做什么?他们从斯坦福大学雇佣了许多人。他们能做的可能是制作一个开放的工具包。他们可以为那些缺乏经济回报的领域制造应用系统,比如减少环境污染的系统。这些都是好东西。我支持他们做这些事情。
另一个相关的例子是优步。我特别惊讶地发现,优步在旧金山的所作所为受到了极大的赞赏,但在伦敦的所作所为却遭到了批评。优步已经导致许多伦敦人失业。伦敦的租赁系统非常发达。伦敦人称传统出租车为黑色出租车。这些出租车司机是一个有着悠久历史的社会职业,他们需要熟悉街道才能通过上岗考试。优步在伦敦打破了这一传统,因为任何拥有汽车的人都可以成为优步司机。在这种情况下,优步低估了英国人对传统职业的重视。伦敦的许多人讨厌优步,他们认为优步正在损害英国社会。在旧金山,每个人都认为优步很棒。人们称赞优步,几乎没有负面报道。这是不同城市对同一事物的不同评价。因此,很难说某项技术是好是坏。
至于谷歌,它拥有大量数据和极其强大的深度计算集群。是好还是坏?如果你在谷歌工作,你会觉得它很棒。如果你不在谷歌工作,问题的实质将变成,大数据和强大的计算能力是否为谷歌提供了一些我们不想看到的决策能力,并能对社会产生巨大影响?我可以给你另一个例子。你和我可以说无人驾驶汽车显然是好技术。我当然相信这个判断。然而,相当多的人认为无人驾驶汽车应该如何在道路上工作是一个道德或伦理问题。将决策权授予开发无人驾驶技术的公司,实际上是将重要的道德或伦理决策授权给为盈利而生的私人机构。这是问题的根源。在硅谷,优步或谷歌等公司的态度是,我们永远不会做坏事。但这并不为全世界所知和认可。硅谷以外的人可能会非常担心,因为这些公司已经掌握了技术的决策权。谷歌拥有巨大的力量,因为它拥有大数据和计算能力。他们将如何使用这种能量?你可能不想看到这种能量被少数决策者控制。
王永刚:你认为现有的教育体系适合即将到来的人工智能时代吗?
杰里·卡普兰:首先,在美国,用于职业培训的教育系统被称为职业培训。职业培训使人们能够获得工作技能并有机会就业。第一个问题是,这种教育体系的初衷并不能真正帮助人们在劳动力市场上获得有用的工作技能。为什么?因为这和公共财政有很大关系。美国政府没有直接的动机来确保学生学习雇主要求的工作技能。没有特定的因果关系。我认为解决这个问题很简单。你只需要将这些职业培训的财务投资私有化,并遵循以下原则:如果学生所学的技能毫无用处,学校将不会赚钱。其次,在某些行业,当工作技能发生变化时,我该怎么办?需要继续教育,我们需要一个能够支持继续教育的系统。例如,允许工程师学习新技能的系统。这也非常重要。
王永刚:许多人工智能初创公司雇佣高级人工智能研究人员作为公司的首席科学家。另一方面,高级人工智能研究人员通常可以从谷歌(Google)和facebook等大公司获得丰厚的薪水,他们很难决定加入一家初创公司。你认为人工智能初创公司有必要雇佣资深科学家吗?
在我看来,做科学研究和开发商业产品是不同的技能组合。有一位工程师毕业于斯坦福大学。他获得了斯坦福大学的硕士学位。这是一个非常有价值的学位,你可以通过它找到一份好工作。他的导师鼓励他继续他的博士研究。他也这么做了。他的假设是,拥有博士学位比拥有硕士学位更有价值,也更容易找到高薪工作。这是不对的。为什么?你在硕士学位中获得的是进入公司开发产品所需的工程技能。大学里的博士学位是研究角色,他们不一定有能力开发科技产品。这是两码事。为了开发产品,你需要市场分析的技能和理解你所使用的技术。你有博士学位,这并不一定意味着你是一个比硕士学生更好的程序员。如果你有硕士学位,可能更适合开发产品。如果你需要在算法层面工作,你可能需要博士学位。
人们说目前的深度学习框架仍然需要科学家来调整参数。但是我认为知道如何编程的人可以做同样的调整参数的工作。问题是,当使用能够调整参数的研究员或科学家时,他们通常缺乏工程经验。他们是受过研究训练的人。我们需要的应该是更适合开发产品的人。
我会雇佣机器视觉专家来设计最先进的视觉算法吗?不。我需要的是能理解和使用算法的人。例如,我们可以安装一个摄像头,从视觉上区分树枝和儿童的腿。这一要求不需要重新设计视觉算法。这些是不同的工作技能。在大多数情况下,雇佣科学家来做工程师的工作会适得其反。
我的建议是在雇佣科学家时要非常谨慎。人们说,看看这个人。他拥有卡内基梅隆大学的博士学位。他一定比另一个乔治·华盛顿大学毕业的硕士学生更优秀。说这种话的人会浪费钱,因为博士生不需要有工程经验。我知道在斯坦福大学,许多博士生毕业时工程技能很差,因为他们没有受过工程训练。这些博士生被培养成视觉研究领域的高级算法专家。他们没有接受过如何在预算内按时发布产品以及如何解决具体工程问题的培训,也没有接受过如何理解客户需求并确保产品满足客户需求的培训,而这些实际上是市场技能。
人才市场上有足够多的候选人具备并理解工程技能。如果是我,我会质疑雇佣科学家的做法。仅仅因为有些人拥有顶尖大学的博士学位,就不应该认为这些人特别适合某项工作。我将主要根据候选人的技能来考虑这个问题。只是不要认为擅长编程的人也擅长管理团队。这些是不同的技能。我见过许多类似的事情。你必须雇用最合适的人。
本文由王永刚授权的创新工场(微信号:创新2009)发布。
来源:搜狐微门户
标题:创新工场专访杰瑞·卡普兰:中国拥有比美国更大的潜力实践人工智能
地址:http://www.shwmhw.com/shxw/55962.html