关于人工智能,我相信大家已经接触了很多内容,包括技术、商业模式等等,但是听到的内容和实际操作之间还有很大的差距。今天主要想和大家分享我在“如何衔接技术-产品-业务”方面的思考。
一、“判断”最具商业价值
我将人工智能分为三类:
1.识别
在视觉上,基于相对活动物体的识别已经发展到一定水平。识别的核心“人脸识别”和“语音识别”也具有很大的突破。因此,原来,人所具有的感性体验现在也能够被机器所掌握。
2.判断
能够协助人们进行选择或者判断。比如阿尔法狗就是在帮助人们为棋子选取一个更好的位置。判断被越来越多地应用到实际工作生活和领域,比如:广告。未来在基金方面也有可能由机器自主进行决策购买行为。
3.创造
在学术界里面研究较多的就是创造类,比如:帮助人类合成一段文字或者语音等。谷歌发布的WaveNet就是基于语音网络使用生成算法制作而成的,相对于以前的拼接法、参数法,在声音质量上更具优势。以前方法集中虽多,但性能慢,每合成一秒的音频需要用时几分钟之多。
到目前为止,创造本身仍停留在学术阶段,当然如果有人能够控制无人驾驶领域就另当别论了。但是即便拥有无人驾驶技术,技术本身仍然不具商业价值,因为目的地是由用户指定的,商业利益弱。
费曼曾说过“凡是我们不能创造的,就是我们不能理解的”,比如:除了生孩子以外的方法我们不能创造生命。虽然创造在商业上并没有直接的用处,但是有助于我们对基础的理解。
我认为在这三个领域里,识别和创造的商业前景并不大,最具商业价值的是判断,即帮助人们进行选择或者决策。
事实上,输入法作为搜狗最大的产品并没有达到它应具有的商业价值,因为输入法作为一个工具,用户所表达的和他所需要的内容是完全一致的。比如输入“A”绝对不能显示“B”,所以输入法没有丝毫空间可以做更多的增值。
当用户对一个产品具有充分选择权,这个产品就无法体现出判断的增值。这也是搜狗基于如此之大的用户规模,在输入法方面却没有获得商业回报的原因。
与输入法不同的是——搜索引擎,它可以利用与搜索相关的推荐优势,帮助人们进行决策判断,在推荐的同时,就能够带来商业选择的价值。
二、人工智能发展的三个阶段
1.教规则
将规则教给机器,让其进行判断,这是依赖于人们的经验的最初级的人工智能产品。
电饭锅就是其中典型的例子,在其内部有一个测试温度的传感器,可以监控内部温度,如果温度达到103度,就停止加热。
最初的人脸识别技术,虽然技术实现方面更加复杂,但是原理是一样的,就是告诉机器该从哪几个特征来进行判断。如何理解眼睛的距离、鼻子的高度,如何选取这些特征是传统人工智能的做法。
传统人工智能最大的瓶颈在于,不仅要懂规则,还要能够准确描述规则。比如:人脸识别技术,我们看到一个人就能够立刻知道他是谁,但是对于机器来讲,就需要工程师将这个识别技巧写成语言告知它。
但是,这一点,相对来说,就不那么容易了,因为很难用机器能懂的语言描述一个人的长相。我们把这些说不清楚的规则叫做感性:即使我知道怎么回事,但是无法用语言描述出来。
2.原始数据
在2012年,图像识别技术有了重大突破,机器的识别能力超越了人类。其基础原理在于,图像识别不再需要描述,而是输入大量原始点阵数据,当机器存储的数据量足够大,计算能力足够强的时候,就能够学会有效识别。
举个例子,阿尔法狗就是存储了将近3000万个棋局,将每一个棋局的原始点阵数据输入进去,告诉机器人下棋的棋路和落子方法。当3000万个棋局全部输入进去以后,机器就开始学会了下围棋。
中国围棋队总教练余斌,号称在围棋界里面最会写程序的人。他认为让机器下围棋最大的难点在于机器没有大局观,但事实证明机器在大局观方面比人做的更好,因为机器存储的是整个棋盘的点阵图,而人还要琢磨某一个局部。
这个阶段突破的意义在于,计算机工程人员有机会进入更多的行业领域进行合作。
比如:医疗领域,以前做心电图分析需要技术人员能够像医生一样懂行,到底什么样的心电图代表一个人的心脏有问题,是一种经验技巧,仅停留在医生心中,工程师要掌握这方面的知识就有些难度。
但是现在如果数据量足够多,工程师就不必费力去进行规则表达描述,只要告诉机器这样的心电图是生病的心脏,那样的心电图是健康的心脏,机器就有机会学会对心电图的识别判断。
这就是大数据下,强大的计算能力和精准的算法在日常工作和生活中的突破。以前需要依靠经验才能够解决的问题,现在通过数据和技术人员就能够实现,阿尔法狗最大的启发就是不用找规则,直接给出答案即可。
3.强化学习
有的时候我们既不知道如何向机器表达规则,也不能找出一个准确的答案,但是我们有能力去判断,机器执行后的结果是离目标更近了,还是更远了。这就是强化学习的基本意义。
一个复杂性颇高的问题,很难找出正确的答案,但是验证答案是否正确十分简单。就像几何里的定理一样,证明定理很难,但是如果别人证明以后,判断是否正确就很简单。
在这种情况下,给机器的答案就进化成了给机器一个目标。与围棋类似,阿尔法狗既拥有3000万个棋局作为基础,也有人为判定输赢帮助它继续学习。学习到一定程度以后,就可以安排两个机器对弈,目标就是赢取比赛,过程无论好坏,只要告诉机器棋局结果就可以了。
机器根据比赛结果,自行复盘总结的这种算法称作强化学习。
这是基于我个人视角进行的分类,在行业里面可能会看到不同的分类方法。我这个视角的优势在于最容易理解技术的进步路线图,最容易分析怎样的职业容易被取代。
对于普通员工来讲,他们最担心的问题是科技发展到什么程度,自己就失业了。而对于企业家来讲,他们更关心的是如何将人工智能嵌入自己公司业务的发展。
如果所输入的信息是封闭、有边界、可以结构化的,且包含做决策所需的所有信息,目标也是确定的,那么这样的判断能力就可以被机器所取代。
在计算机数据里面有一个基本准则,机器完全可以胜任,输入可以被表达,输出目标稳定且可评测的工作。除了下围棋以外,还有类似审计和数字相关的工作其实都可以被机器取代。
难以被取代的职业有画家、作家、科研人员等,就是那种创造性大、输入的问题相对开放的职业。
即便机器可以进行绘画,但仍然不能取代画家,因为机器不能真正理解“画”,“画”里面融合了画家个人的人生经历和阅历,作品里带有好的人生体验。因此,机器不能创造“画”,只能作为一种噱头供人观看。
过去人们总认为,人工智能会取代蓝领工人的工作,精英人士无所畏惧。但我觉得不一定,比如服务员、幼儿园老师等等面对极其不确定的、开放环境的工作者,是很难被取代的。这些工作并不需要具有高深的知识,而是在与他人的交互中处于完全开放的环境,任务也是开放的。
因此,不要认为蓝领的工作容易被取代,而白领、金领的工作容易被保住。只要不带有创造性的工作,就会有被智能取代的风险。
三、人工智能仍有诸多未突破的领域
直到今天,人工智能领域依然有很多瓶颈没有被突破。
与阿尔法狗的对局以4:1结束的结局虽然很美妙,但如果阿尔法狗连赢五局,这会让人们对人工智能产生恐惧。如果机器完胜人类,就会让人类找不到自己的生存空间。
其实,机器只要赢一局就是一种胜利,企业也会把它当做英雄,老百姓更是亲昵的称“阿尔法狗”为“狗狗”。这就代表着,阿尔法狗作为机器已经被放在了和人相对平等的位置上,很多下围棋的棋友更是称呼“阿尔法狗”为“阿老师”,这彻底地将机器拟人化了。
我在6月份的时候去DeepMap(硅谷自动驾驶领域的技术公司,2016年才刚刚成立,专注于高精度地图解决方案的研发)参观访问,与开发人员进行讨论。
为什么阿尔法狗会输这一局?当时在现场下棋的时候,机器走着走着就开始变得毫无章法了。对于这一点,程序员也很抓狂,比赛完的当天就回去复盘了,但是结果显示程序并没有bug,没有bug就意味着代码不能改进,问题也就不能得到解决,只能想尽各种办法去找漏洞。
我去的时候,比赛已经过去3个月了,但是这个问题仍然没有解决,因为程序员也不知道问题究竟出在哪里了。
阿尔法狗所采用的神经元网络是一个高维叠加的空间,从数据输入到结果输出,计算的复杂程度之高难以想象。比如:我们现在看到的是一个三维空间,但是再增加维度,四维就没有那么直观了,而五维就彻底混乱了。
在深度学习网络中,空间是几百维甚至上千维,那么人用肉眼就没有办法去梳理究竟是哪些数据出了差错。
人工智能的妙处就在于可以解决高维复杂的问题,但难点在于出问题以后,程序员根本无从查起。
所以与之相对应的另一个学派,贝叶斯学派认为,程序一定要能够看到参数的运算过程,即如何得到的运算结果。贝叶斯学派一直对深度学习表达担忧,认为深度学习理论体系没有严格的数学证明,而是仅靠梯度进行不断尝试,所得结果的稳定性不受掌控,风险大。
以前我认为这种思想是吃不到葡萄还说葡萄酸,你自己做不到还要贬低能做到的人。然而这件事情真的证实了深度学习理论框架确实存在风险,这个系统的正确率能够达到90%-95%,但是对于从未尝试的某些数据处理,人为根本无法掌控,没有原有的算法稳定性强。
我离开后一周,DeepMap的程序员将程序进行了修改,重新调整了网络连接参数,使得阿尔法狗一旦面对之前失败的棋局会选择正确的位置,但是这并不代表不会出其他的问题。因为这不是bug,如果换另外一个棋局,可能依然会出现严重的漏洞。
四、无人驾驶技术尚不成熟
其实就好比给墙上漆,如果有的地方有遗漏的点,可以多刷几下补漏。阿尔法狗的这个点被补刷上了,但是这堵墙上究竟还有多少没有刷上的点就不得而知了。
因此,深度学习理论是高度不稳定的系统,将这个问题引申到无人驾驶领域,如果不考虑商业问题,利用大数据模式,让无人驾驶能够在开放环境里自由上路的技术还是不成熟的。
在汽车工业界,将无人驾驶分为L1-L4四级。L4为最高级,即在任何环境都能够实现无人驾驶;L3是在封闭环境下可以实现无人驾驶,比如高速公路中间不会有人突然穿越,没有不可预计的障碍物。
我与DeepMap程序员进行交流的时候,得到的结论是:传统算法无法实现无人驾驶技术,实现无人驾驶技术只能依靠深度学习理论。
就目前情况来看,深度学习理论的数据量越大,得到的结果越准确。但是人为无法判断“墙上漏刷的点” 在哪里,这个“漏刷的点”可能会带来非常严重的后果。比如突然从路边冲出来一个人或者一只动物,就很可能会发生加速冲撞事件。
所以到目前为止,在开放环境里面仍然无法彻底实现无人驾驶,或者说让人不能放心。有可能使用无人驾驶技术很长时间都很顺利,但是突然间出现了事故,就会像阿尔法狗输的那局棋一样。
对于遇到类似情况如何弥补,能否杜绝此类现象不再发生,厂商也显得无能为力。如果这件事情不能得到有效彻底的解决,就可能会出现严重的事故。所以我认为,无人驾驶仅作为辅助驾驶还是相对安全的,开车上路仍然需要司机。
五、人工智能是否会再一次退潮
在学术界有一个大讨论,主题是人工智能是否会再一次退潮?
之所以是“再一次”,是因为人工智能已经退潮过很多次了,只不过没有引起大家的关注而已。
每一次新科技出现“涨潮”,都会引起学术界的欢呼,大伙儿认为会有重大的突破,然而过了几年却根本无法实现,就会引发“退潮”,这样的“涨退”已经发生过三次了。以阿尔法狗为代表的胜利,让人们认为人工智能很厉害。
我认为不会退潮的原因是:虽然人工智能没有突破到永久高,但是已经第一次能够跟工业界大范围结合,解决一些复杂性的问题了。能够投入使用,是与前三次比较而言最本质的区别,也是不会退潮的根本原因。
另外,因为有资本家看到了商业价值,所以会有资金源源不断地流入,有了资本的驱动,人工智能才会不断进步。
我希望这波人工智能浪潮能够持续涨潮,因为已经可以预见到未来的实用性,但是仍然有很多的坑值得注意和警惕。
六、人是否会被机器所取代
总有人问:人会不会被机器所取代?
我认为这个问题的提问者既自大又自卑。人体的构造实际上非常复杂,是难以通过机器进行创造的。凯文·凯利的《失控》里面有一句话:一架波音飞机和一根黄瓜究竟谁更复杂?
对于这个问题,我认为黄瓜比飞机还复杂,因为黄瓜的细胞结构里面的运转很难。科学家在尝试创造最小的生命的时候,是剪掉现有细菌的DNA,剪掉以后去观察细菌是否还活着,如果可以进行新陈代谢和繁殖,就仍然认为它是个生命。
到今年为止,这个细菌被剪到还剩200个基因,仍然存活。这代表人类制造生命的最高水平,但这条生命是在现有生命体的基础上得到的,而不是创造的。人类目前还没有能力去创造一条生命。因此,到目前为止,生命还是来源于生命本身。
人类对于生命的理解还停留在非常浅显的阶段,这200个基因里面只有60%是被明确作用的,而剩下的40%仍然不知道存在的作用,可是没有这40%,生命就不能继续繁衍。所以,要了解,生命是特别艰难的,机器到目前为止仍然不能取代人类,人类不要盲目“自卑”。
在我心中,未来会出现一个人机结合的局面,这才是未来世界的本源。
以前,人是自我进化的,这个进化是跟环境对抗而言的。比如冷,就会长脂肪、长肌肉;奔跑,让自己更加健壮。现在冷了,要穿衣服、开暖气;走不动了,就可以开车、坐电梯。
所以,现在人的进化是跟机器同步的,甚至依赖于技术的进步。原来我总在思考一个问题,人在科技面前,是变得更强大了还是更弱小了。我得出的基本结论是如果人和机器是一种协同关系,把科技当做工具,比如:使用搜索引擎、淘宝等等,人几乎无所不能。一旦离开了科技以后,人其实变得更加脆弱了。
因此,我们必须拥抱科技进步,这是不可阻挡的趋势。
技术在进化,技术和我们共同合成了地球的一部分,所以体内进化一段时间以后,又开启了智能设备,然后又走向了体内技术的侵入。
有一本书内容很浅显,叫《科技想要什么》,讲人和机器之间的互动关系。对人们理解人和技术之间的进化会有帮助,不是理解商业问题,而是理解人生存在地球上的价值。
人工智能实现以后,人类最后的阵地也会有一部分失守。过去人认为断腿没有关系,机器可以代替腿的功能,由大脑控制就可以了,大脑是人最宝贵的。但是现在,人脑可以进行的活动,机器也能够替代一部分了。就比如阿尔法狗使得下围棋的棋手非常痛苦,认为自己的大脑被机器取代了。
但其实,人早晚会进化成一种人工智能的物种,或者人和机器进行合体,不只是身体的替代。因此也会慢慢出现人和机器的连接、“脑机接口”等。
以上是我关于人工智能的一些感悟,我不是科班出身,也许会有错的地方,仅作为我个人的想法与大家分享。
评论
登录后你可以发表评论,请先登录。登录>>