专访杰瑞·卡普兰:中国拥有比美国更大的潜力实践人工智能
2017-01-08 10:15 人工智能 人才

杰瑞·卡普兰就人工智能与人类的关系、机器人产业的发展、人工智能引发的就业结构变化及应对办法等问题畅谈了自己的看法。

本文系创新工场(微信ID: chuangxin2009)授权i黑马发布,作者王咏刚。

日前,著名计算机科学家、连续创业家、未来学家、《人工智能时代》等畅销书作者杰瑞·卡普兰接受了创新工场人工智能工程院副院长王咏刚的专访。专访中,杰瑞·卡普兰就人工智能与人类的关系、机器人产业的发展、人工智能引发的就业结构变化及应对办法、人工智能的国家和产业战略、人工智能时代的教育和人才等问题畅谈了自己的看法。

王咏刚:杰瑞你好。一些人担心人工智能最终会演进成超级智能(Superintelligence)并威胁甚至控制人类。你会有同样的担心吗?

杰瑞·卡普兰:我认为,这件事发生的概率是非常小的。其实,我们现在做的只是在制造工具,以自动完成此前需要人类参与才能完成的工作任务。我想,之所以会有这样的疑问,根本上是因为大众习惯把人工智能人格化,这是问题的根源。

这件事对于专业人士和对于大众的意义是不一样的。例如,大众总是担心无人驾驶汽车可能伤及人类的生命。在一些极端的例子里,无人驾驶汽车确实需要做出决定,是要撞向左边,伤及左边的行人呢,还是要撞向右边,伤及右边的行人。但无人驾驶汽车只是一套机器系统,它们并不会真正做出决策。它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而我们人类对于整套系统的感知和反馈模式拥有完全的控制权。如果它们做了什么不符合我们的社会准则的事情,那一定是因为我们人类在设计它们时犯了错误。

我们所面对的,只不过是一系列工程设计上的问题。我们必须确保我们设计制造的产品和服务符合我们的愿望和预期。你知道,这件事与桥梁工程师们使用一整套质量保障方案来确保他们建造的桥梁不会坍塌并没有什么两样。我们有许多工程学上的原则,来指导我们如何测试一个系统,什么样的系统是合格的,什么样的系统是足够安全的,等等。在人工智能领域,我们同样需要这样的技术,因为人工智能十分强大,具有潜在的危险性。但这并不是因为智能机器会像人类一样思考。只是因为它们十分强大,我们必须小心使用它们。

“智能”经历了相当长时期的演进,从猿猴的智能,到人类的智能,再到人类制造的人工智能技术和智能机器。那些预测超级智能的人是按照这样一种演进趋势来思考问题的:

(图1: 关于智能演进的线性思考)

但这种线性结构是有问题的,因为我们并没有一种简单的方式来对智能进行度量。这和测量体重或鞋子尺码很不一样。智能是一个非常定性的概念,它反映的是某个人成功解决某种特定问题的能力。例如,人们总是会问,如果人工智能的智商达到200,那会发生什么呀?可是,什么是人工智能的智商?实际上,智商在这里是一个被极度滥用了的概念。心理学家使用一种叫发展能力(Developmental competence)的概念来评估人类。他们测试一个人解决算术、逻辑等问题的水平,然后将测试所得的分数除以这个人的年龄——这是智商的含义。如果某人解决此类特定问题的能力超出他同龄人的平均水平,我们就说他的智商高。但是,该如何定义一部机器的智商呢?如何定义一部机器的年龄?机器可以用比人类快一百万倍的速度解决算术问题,那么,这些机器的智商是多少?这种说法其实并没有什么实际意义。

所以,问题首先在于,对智能的定义是非常主观的,这依赖于每个人自己的视角。这一点非常像我们对美的定义。你可以说某些人比其他人长得美,或者说一个人比另一些人更聪明,但希望把美或把智商的定义客观化、量化的想法是错误的。其次,关于智能的度量并不是线性的,而是一种多维度的度量。如果你用算术能力来评估,那机器已经非常聪明了。但你如何将机器纳入一个多维度的度量体系?让一部机器变得更聪明,这句话到底意味着什么?

一个关于机器智能的更好的思维方式是:我们拥有了新的科技手段,我们可以将这些新技术应用于新的问题领域。因为机器学习技术的进步,我们现在正处于最好的时期。“当你拥有一把锤子,所有东西看起来都像钉子。”今天在美国,所有人都在尝试,看看我们该如何应用人工智能技术,可以应用得多么深入。我们正在解决自然语言处理问题、翻译问题、机器视觉问题、机器人问题,等等。有些地方,人工智能工作得很好,有些地方,他们还难以满足实际需要。驱动这种进步的主要力量并不是智能本身,而是大数据,以及使用更快、更便宜、更简单的方式访问大数据的能力。

我经历过许多次技术革命,今天人们对于机器学习的兴趣与曾经的每一次新技术革命并没有本质的不同。例如,机器学习和当年关系型数据库的发展非常类似。我们当年使用基于层次模型和网络模型的数据库,关系型数据库的出现改变了一切。借助关系型数据库,任何人都可以将数据库当成一个方便的工具,而不需要雇佣许多专业的工程师。人工智能就是这样一个可以为我们带来巨大改变的便捷工具,就像关系型数据库在几十年前所做的一样。

王咏刚:谷歌的AlphaGo和软银的Pepper机器人让普通大众觉得机器正变得越来越智能。这些新技术是不是正在误导大众,让人们相信机器是有意识的?

杰瑞·卡普兰:人工智能并不是一种单一的技术,它是一组不同技术的统称。而且,它随着时间在不断变化。今天,这一技术领域和20年前很不一样。公众之所以觉得机器变得越来越智能,那是因为机器可以做新的事情。但今天AlphaGo赢得围棋比赛的技术和20年前IBM深蓝赢得国际象棋比赛的技术有很大不同。AlphaGo和深蓝背后的技术是不一样的。AlphaGo的程序是建立在大数据基础上的新算法。因为数据极大丰富,我们可以从数据中学习经验,让机器发现人类可感知的模式。这是基于模式的算法,和算术问题很不一样。公众并不关心这些技术细节。他们只会说,现在机器会下象棋了,现在机器会驾驶汽车了,现在机器又会下围棋了……天啊,机器变得越来越聪明了!

作为工程师,我们知道AlphaGo可以做到很多事情,但我们不会期望AlphaGo有人类意识。我们不知道让一台机器有意识、或有自由意愿究竟意味着什么。目前的科学体系并没有提供一个理解这些问题的基本模型。你必须从以下两种解释中选择一种:要么,所有有关意识的人类经验并不可靠,比如,我们认为我们了解意识,其实并不了解;要么,我们缺少理解人类意识到底是什么的基本工具。

软银的Pepper机器人拥有和人一样的脸。它看上去就像个小孩子,你可以跟它说话。但那只是魔术表演而已——它并没有思想。人工智能技术只是解决了以前只有人类才可以做的某些问题,但这并不代表着人工智能程序有思想,或者它们以人类标准看是智能的。那些让大众误以为机器与人类相仿的应用,其实只拥有娱乐价值。它们只是一场魔术表演,无法真正取代人类。

王咏刚:你认为类人机器人会是机器人工业的一个好的发展方向吗?

杰瑞·卡普兰:我不能说它是好的,或者它是坏的。这不是一个非黑即白的问题。公众认为机器人长得像人一样,可你我知道机器人不过是机器,这些机器通常长得都不像人类。机器人有传感器,有驱动装置,程序使用传感器感知环境并使用驱动装置驱使机器人做出反应。我们并不是在制造人。

有些人因为某些商业理由而制造拥有人类外貌的机器人。类人机器人拥有和人相似的脸和笑容,例如软银的Pepper机器人,这些机器人在娱乐业或某些特定领域还是有商业价值的。

如果我们希望制造能够在人类活动的空间里工作的机器人,那么,为了让机器人在人所处的环境里工作,赋予机器人与人体相似的尺寸,或某种类似人体的物理机能,这也非常合理。

你可能知道美国国防高等研究计划署(DARPA)的机器人竞赛。在DARPA组织的这项比赛中,机器人制造团队让机器人完成某种特定任务来相互竞争。例如,机器人爬楼梯、开门或是使用电钻。为什么DARPA要组织这样的竞赛?想象一下日本福岛2011年的核电站事故。那次事故中,人们遇到的一个问题是,人类难以进入那些被辐射笼罩的区域。我们必须制造可以进入危险区域,并完成诸如关闭一扇门或关掉一个阀门等简单任务的机器人。所以,这是DARPA组织机器人竞赛的原因。这是我们制造和使用机器人的最好理由。这些机器人没有必要长得像人,他们只是能够像人一样完成任务。

所以,类人机器人是那种可以用类似方式完成人类任务的机器人。类人机器人也许像人类,也许不那么像人类。我们有许多理由来设计和制造类人机器人。

王咏刚:人工智能将在不远的将来造成人类多大范围上的失业?你如何估计这个百分比?由此引发的失业会成为一个严重的社会问题吗?

杰瑞·卡普兰:不是所有工作都会被人工智能取代。相反,很多工作都会转变为新的工作机会。一个好的例子是银行的柜员。过去,大多数银行柜员总是在做最基本的银行交易。显然,ATM自助服务终端的使用,已经代替了一定数量的银行柜员的传统工作。但有趣的是,银行柜员的雇员数量不降反升,因为柜员的工作转变了。我们仍然管他们叫银行柜员,但他们的工作描述与20年前相比已经有了很大不同。大多数情况下,银行柜员不是坐在那儿等着帮你取钱存钱。今天的银行柜员已经成为了银行各类业务的销售员。你可以走进一家银行的支行,跟柜员就银行业务展开交谈。那些银行柜员可以为你提供所有帮助。这项工作已经不同了,但职位的名称还没有改变。技术让银行变得更加高效,更易扩展。银行可以开更多的支行,雇佣更多的员工,在新的领域投资并制造新的工作机会。

最近,一份来自詹姆斯·贝森的报告(How computer automationaffects occupations: Technology, jobs and skills: http://voxeu.org/article/how-computer-automation-affects-occupations)显示了在过去几十年间全职银行柜员的数量增长趋势:

(图2: 美国全职银行柜员与ATM机数量的变化关系)

人工智能会取代哪些工作呢?人工智能可能取代的工作大多拥有清晰的评估标准,工作业绩可以客观地衡量。人工智能无法取代的工作通常需要人类做出决策。例如,风险投资人仍然需要面对面和创业者会谈,以确定投资意向。即便是高级教育背景的人,也会花很多时间来做重复性的工作,而这些重复性的工作最容易被自动化。这可以让那些高级人才将更多的时间用于那些最能发挥他们的技能特长,最不容易被自动化的工作部分。对于某些工作,全部工作内容都可以被自动化,所以不再需要人类员工。例如,放射科医师的工作就可以全部被自动化。但对另一些工作,比如普通医生,你没法将他们全部替换,因为你没办法彻底取消面对面的病情诊断。

人工智能造成的失业并不像某些人想象的那么严重。例如,卡车司机可以完全被无人驾驶系统取代。但计算一下,目前美国约有150万名卡车司机,假设这些卡车司机会在15年内全部被取代,那么,15年内失去150万个工作机会,这意味着我们平均每月要安排大约8300人再就业。这并不是一个不可能完成的任务。

与卡车司机不同,许多其他工作会转变为新的工作。例如,医生就不会消失。我们将会拥有自动辅助诊断系统,但这些系统只是让医生的工作更高效,从而让医生有更多时间来完成科研任务,或者接诊更多的病人。今天,很多人因为医疗费用昂贵而不去看医生。当人工智能被广泛应用后,医生可以更高效地接诊病人。医生的数量可能会下降,但人们可以更容易也更频繁地去看医生。

王咏刚:在你的《人工智能时代》一书中,你提出了解决失业问题的一个方案——“工作抵押(Job mortgage)”。这听上去像是一种由政府、雇主和教育系统联合提供保障的再教育机制。但考虑到在人工智能时代里,由于简单和重复性的工作更容易被人工智能取代,人类教育可能因此比以往复杂得多。人们学习一种新技能可能会变得非常困难。鉴于此,“工作抵押”的再教育机制真的可行吗?

杰瑞·卡普兰:好吧,我想你的问题中包含了一种隐藏的假设:需要低级别技能和更少训练的工作更容易被自动化,而需要高级别技能和更多训练的工作则难于被自动化。这个假设也许不像你想象得那样正确。

让我来给你一个例子:放射科医师。放射科医师是医生的一种,他们需要许多年的培训来学习技能,但他们的工作完全可以被彻底自动化。这是一个高等教育程度的工作也可以被自动化的好例子。驾驶卡车可能是一种低级别的工作,也许需要一些训练,但它显然不是一种高级技能。我的观点是,自动化将影响所有技能级别的、各行各业的人。当我们担心我们该如何处置那些低级别工作者的时候,我们一样需要担心那些高级别工作者。

即便如此,仍然存在很多不需要大量训练,但也很难被自动化的工作。从事这些工作的人,是不用担心失业问题的。以人类角色出现这件事,对这些工作非常重要。例如,看看那些体育教练,我们很难将这类工作自动化。所以,也许我们可以将失业的卡车司机重新培训成体育教练,那些能够驾驶卡车的人也许会发现,体育教练的技能是比较容易掌握的。

当我们谈论再教育的时候,你的问题包含了一个我并不认同的假定。我可以给你另一个例子。通常,按摩服务在今天的美国是一种奢侈服务。你必须拥有足够的收入,才能负担得起按摩服务的昂贵价格。按摩师的收入很高。按摩师需要的工作技能是什么?这种工作技能并不需要特别高级的训练。如果人们有了足够的钱,更多的人就会选择接受按摩服务。这会让按摩师的需求大增。未来,因为可共享的无人驾驶汽车的普及,你可能不再需要拥有你自己的汽车了。在美国,这意味着平均水平的个人可以每年节省大约1万美元的汽车保有费用。一些人就可以将这些省下来的钱花在按摩等较奢侈的服务上。然后,我们就需要更多的按摩师了。

有关人工智能只会取代低级别工作的假定是不正确的。许多需要人际接触的工作都很难被取代,例如前台接待员。你当然可以用一个自动化系统来取代他们,但你肯定不希望看到你的宾馆或你的公司前台,只有机器来接待访客。你肯定需要在前台安排人类职员,因为你需要他们在那里解决一些很难被高级规范化的系统预测的问题。

所以,我有个很有趣的建议——在你的工作或生活中,经常看一看,想一想,周围的人都在做什么?他们的工作是否有可能被自动化?通常你会得到的结论是,他们的一部分工作可以被自动化,但另一部分不行。这意味着,他们的工作会转变为新的工作。这种情况随处可见。让我给你另一个例子:调酒师。调酒师的工作当然可以被自动化。你可以走到一台自动售货机前,用自助的方式买一杯金汤力。但调酒师还可以参与我们的社交活动。你希望看到他们。你希望和他们聊天。所以,调酒师的职业不会消失。那些失业的卡车司机也可以被训练成调酒师。

王咏刚:2016年10月,美国白宫发布了《国家人工智能研究与发展战略规划》。这是否说明,人工智能已经成为了美国国家战略的一部分?你希望政府在人工智能领域做得更多还是做得更少?

杰瑞·卡普兰:在美国,白宫能做一些事情,但他们缺乏真正的控制力。例如,如果他们说,我们要让洛杉矶的空气变得更清洁,人们肯定会质疑他们是否具备这种能力,是否要花很长的时间才能达到目的。白宫能做的事情非常有限。他们必须劝说工业界,劝说人们去做这件事。中国的公众看到美国公布了什么人工智能国家战略,也许会很焦虑。中国公众会想,我们也需要在这个领域做些什么,因为美国政府认为这很重要。但是,这种报告和政府声明在美国和中国的意义截然不同。中国政府拥有比美国政府强大得多的能力来将计划付诸行动。

此前也发生过类似的事情。许多年以前,美国启动了一个叫做“第五代计算机”的项目。日本政府也认为他们需要做类似的事情。政府认为他们可以主持建造所谓的第五代计算机——拥有大量CPU单元以提高性能的计算机。美国政府一度在大力推动计划的实施,但这个计划从未变成现实。日本政府所做的类似努力让日本经济倒退了好几年,因为他们投入了数十亿美元却收效甚微。

所以,当我们看到美国政府的类似计划时,我们必须持一种怀疑的态度。美国所谓的政策,很多时候不过是一群拥有美好愿望的人召开了一次政府会议并发布了一些相关文件。这些东西通常并不具有约束力。更进一步,美国政府所发布的内容也不一定就是正确可行的。对于美国可行的规划,未必可以复制到中国。在美国,也许还需要20到30年,我们才能看到无人驾驶汽车的大规模应用。但在中国,政府可以用更大的力度投资无人驾驶产业,可以在技术的应用上选择更灵活的政策,更早开始在试点城市测试无人驾驶技术。当然,因为中国在执行上更有效率,相关政策就更需要缜密思考后再付诸实践。但中国不需要复制美国政府的政策规划。

在美国,政府曾经在关系型数据库上制定过类似的战略规划。这在当年意味着什么?美国政府可以说,所有政府部门都必须更新他们的数据库系统,以使用关系型数据库。这是可以理解的,是一个好主意。但作为国家战略,政府没有理由也没有能力强制整个国家都使用关系型数据库。你可以对政府内部的信息技术部门做出建议,但对于私有企业,你只要让他们做他们擅长做的事情就好了。如果这是一种好的技术,私有企业自然会采用它。

在美国,政府很难在没有直接经济效益的领域投入大笔的资金。例如,2009年,奥巴马总统启动了一个投资太阳能的项目。政府决定去做投资,我认为这是一件好事情。政府在不同公司投入了资金。在这些公司里,有一家叫Solyndra的公司拿到了5亿美金的投资,其中大多数来自政府。这家公司在2011年倒闭了。当时,政府和民主党饱受批评。奥巴马总统的声誉遭受严重打击,因为他推动设立了这个项目。能源工业在这些公司身上投入巨资,却因此而损失了数亿美元。

王咏刚:OpenAI宣称他们的使命是制造安全的人工智能,以保证人工智能不会威胁人类。你认为这世界上存在好的人工智能和坏的人工智能吗?你会担心谷歌等掌握了最强大的人工智能技术的业界巨头做坏事吗?

杰瑞·卡普兰:这和公众惯于看到问题中危险的一面有关。我们必须非常小心。回到关系型数据库的例子,我们要确保关系型数据库是有用的,是好的——但我们该如何做到这一点?这意味着什么?关系型数据库只是一种基本的技术。技术既不是好的,也不是坏的。技术既可以被用于好的目的,也可以被用于坏的目的。

你和我都可以在家里设计出一种非常危险的武器。我们都有足够的知识来制造出非常具有伤害力的装置。类似的,我们可以让任何技术具有伤害力。人工智能可能很危险。想象一辆被程序控制的车辆,行驶过程中,程序可能驱使车辆杀死路人以挽救司机的生命。但是,与这种危险的人工智能技术完全相同的技术也可以被用来拯救生命、保全汽车。

技术在不同的场景中有什么不同?当我们说我们可以开发好的人工智能技术时,你觉得这句话意味着什么?这句话的真正含义是我们要尽力鼓励人们将技术用于好的目的。这非常不同。你不能说,这个工具是为干坏事儿设计的,那个工具是为干好事儿设计的,这完全讲不通,它们是完全一样的技术。公众通常将人工智能看成一个黑盒子。但作为工程师,你我就在这盒子里面。好的人工智能与坏的人工智能分别意味着什么?你能测量出某个黑盒子是好的,某个黑盒子是坏的?那我们还不如假定某种人工智能技术,例如卷积神经网络是危险的——显然,我们不能这样假定。

OpanAI的创始人,伊隆·马斯克和山姆·阿尔特曼等人,他们要做什么?他们从斯坦福大学雇了许多人。他们所能做的也许是制造一个开放的工具包。他们可以为那些缺乏经济回报的领域制造应用系统,例如减少环境污染的系统。这些都是好的事情。我支持他们去做这些事。

另一个相关的例子是Uber。我特别惊讶地发现,Uber在旧金山做的事情被大加赞赏,可Uber在伦敦做的同样的事情却饱受批评。Uber在伦敦造成了许多人失业。伦敦有非常发达的出租系统。伦敦人管传统的出租车叫“黑色出租”。这些出租车的司机是一个有着悠久历史的社会职业,他们需要对街道非常熟悉,以通过上岗测试。Uber在伦敦破坏了这样的传统,因为任何人只要有一辆车就可以成为Uber司机。在这件事上,Uber低估了英国人对于传统职业的重视。伦敦的许多人痛恨Uber,他们认为Uber是对英国社会的破坏。在旧金山,每个人都觉得Uber棒极了。人们赞扬Uber,几乎没有什么负面报道。这是同一件事在不同城市得到的不同评价。所以,你很难说某项技术是好的,或者是坏的。

至于谷歌,它拥有大量的数据和极其强大的深度计算集群。这件事是好还是坏?如果你在谷歌工作,你会觉得这真是太棒了。如果你不在谷歌工作,问题的本质就会变成,大数据和强大的计算能力是否给谷歌提供了我们不希望看到的某种可以对社会造成重大影响的决策能力?我可以给你另一个例子。你和我可能说,无人驾驶汽车显然是好的技术。我当然相信这一判断。但也有相当一部分人认为,无人驾驶汽车在道路上该如何工作,这是一个道德或伦理问题,将这个问题的决定权赋予研发无人驾驶技术的公司,其实是在将重要的道德或伦理决策授权给天生为了盈利的私有机构。这是问题的根源。在硅谷,Uber或谷歌等公司的态度是,我们绝不做坏事。但这并非被全世界知悉和认同。硅谷以外的人们也许会因为这些公司掌握了技术的决策权而非常担心。谷歌因其大数据和大计算能力而拥有极其强大的能量。他们会如何使用这种能量?你可能不希望看到这种能量只被某几个决策者控制。

王咏刚:你认为现有的教育系统是否适合即将到来的人工智能时代?

杰瑞·卡普兰:首先,在美国,用于职业训练的教育系统被称作职业培训。职业培训使人们获取工作技能并有机会被雇佣。首要问题是,这样的教育系统的设计初衷,并不能真的为帮助人们获得在劳动力市场上有用的工作技能而服务。为什么?因为这与公共财政有很大关系。美国政府并没有确保学生学到雇主所需的工作技能的直接动机。这里面没有特定的因果关系。我想,要解决这个问题非常简单。你只需要将这些职业培训的财政投资私有化,并遵循以下的原则:如果学生学习到的技能无用,学校就赚不到钱。其次,在某些行业里,当一个工作的技能发生转变时该怎么办?这里存在继续教育的需求,我们需要一个能够支持继续教育的系统。例如,一个允许工程师学习新技能的系统。这一点同样非常重要。

王咏刚:许多人工智能创业公司雇佣了资深的人工智能研究员,来出任公司的首席科学家。另一方面,资深的人工智能研究员通常都可以从谷歌、Facebook等大公司拿到丰厚的薪酬,他们很难做出加盟一家创业公司的决定。你认为人工智能创业公司有必要雇佣资深的科学家吗?

在我看来,做科学研究和开发商业产品是不同的技能组合。有一个斯坦福大学毕业的工程师,他在斯坦福大学获得了硕士学位。这是一个非常有价值的学位,可以借此获得很好的工作。他的导师鼓励他继续攻读博士学位。他也照做了。他的假定是,拥有博士学位会比拥有硕士学位更有价值、更容易找到高薪的工作。这是不对的。为什么?你在硕士学位里获取的是你需要进入公司开发产品所需的工程技能。而大学里的博士学位属于研究角色,他们并不一定拥有开发科技产品的能力。这是两件非常不同的事情。对于开发产品来说,你需要市场分析技能,需要理解你所用的技术的技能。你拥有一个博士学位,这并不一定意味着你是一个比硕士生更好的程序员。如果你有硕士学位,这对于研发产品来说可能要更好。如果你需要在算法层面工作,你可能才需要博士学位。

人们说,目前的深度学习框架仍然需要科学家来调整参数。但我想,懂得编程的人一样可以胜任调整参数的工作。问题在于,使用一个会调参数的研究员或科学家时,他们通常缺乏工程经验。他们是被训练来做研究的人。我们需要的应该是更适合研发产品的人。

我会不会雇佣一个机器视觉专家,来设计最先进的视觉算法呢?不会。我需要的是能够理解和使用算法的人。例如,我们可以安装一部摄像机,来从视觉上区分树枝和小孩子的腿。这种需求并不需要重新设计视觉算法。这是不同的工作技能。雇佣科学家来做工程师的工作,在大多数情况下会适得其反。

我的建议是,对于雇佣科学家要非常谨慎。人们说,“看这个人,他有卡内基梅隆的博士学位,他一定比另一个从乔治华盛顿大学毕业的硕士生强。”这么说的人会花冤枉钱的,因为博士生并不需要具备工程经验。我知道在斯坦福大学,许多博士生毕业时的工程技能都少得可怜,因为他们接受的并不是工程方面的训练。这些博士生被训练成视觉研究领域的先进算法专家。他们并没有接受如何在预算范围内按时发布产品、如何解决特定的工程问题等方面的训练,他们更没有接受如何理解客户的需求并确保产品符合客户需求的训练,这些实际上都是市场方面的技能。

人才市场上有足够多的拥有和理解工程技能的候选人。如果是我,我会质疑雇佣科学家的做法。不要因为某些人拥有顶尖大学的博士学位,就假定这些人特别适合做某件工作。我会主要根据候选人所拥有的技能来考虑问题。正如不要假定一个擅长编程的人也善于管理团队。这是不同的技能。类似的事情我见到过很多。你必须雇佣最合适的人。