人工智能商业密码:AI 领域的投资趋势

一、AI导论

大家好,我是王维嘉。欢迎来到我的人工智能课程。

人工智能的领域很广,涉及技术、产业、不同领域、不同公司,对于感兴趣甚至利益相关的人士,似乎又有一定门槛。而我的新书《暗知识:机器认知如何颠覆商业和社会》,以及这门课,希望用最通俗易懂的语言给大家介绍人工智能的本质,一旦抓住了这个本质,你就可以非常清楚地判断商业机会和投资陷阱,马上可以明白这次人工智能大潮和自己是什么关系。

在开讲以前,我们先了解这门课的核心概念:什么是暗知识?暗知识,指近年来由机器发现的,且人类无法理解、无法感知的一类知识。你会问,怎么可能人类无法理解?它在人工智能领域属于什么地位?将带来哪些深刻的变革和商业机会?这门课就是要把这个问题讲清楚。

这门课将分为三个部分、八节课:

第一部分讲暗知识是怎么发现的,到底什么是暗知识,和我们平时理解的知识有什么不同?为了讲清楚暗知识,我们要探讨学习生物学的机制,也就是大脑神经元是如何工作的。人类是如何模仿大脑造出今天的电子神经网络的,电子神经网络的基本原理是什么。

第二部分是暗知识在商业上的应用,在哪些行业机器比人强,哪些行业其实不适合机器去做。比如为什么机器做人脸识别比人还准?自动驾驶这条路是否走的通。我们还会回答大家关心的问题,如人工智能这个产业现在有没有泡沫,如果有在哪里?如何避免投资陷阱。未来哪些行业会先被机器颠覆,每个人,还有孩子该如何做好准备。

第三部分是暗知识对社会的颠覆。比如机器能收集大量的用户信息,甚至能预测用户的需求,这样会导致计划经济吗?到处都是摄像头,社会积分系统用算法给我们每个人打分,然后这积分决定我们的就业,贷款,升职,这种前景有问题吗?机器在多大程度上能取代人,会造成大规模失业吗?我们还会讨论机器和人的关系,脑机接口是否靠谱,机器最终会成为我们的


二、学习的本质是什么?

大家好,我是王维嘉,欢迎来到人工智能课程。第一讲,我想用最通俗易懂的方法,告诉你,机器为什么能实现智能?也就是什么是人工智能?不用担心,在我看来,高中以上学历都可以理解其中原理。

如果你已经关注人工智能领域,你会发现今年的图灵奖刚刚颁布给北美的三位科学家,图灵奖是计算机界的最高奖,是计算领域的诺贝尔奖。这三位获奖人是神经网络或者深度学习领域的三大天王。神经网络是人工智能里的一个流派,是一个受了几十年打压终于翻身的流派,我在斯坦福的博士导师就是这个流派的鼻祖之一,我在 80 年代博士期间也做过神经网络的研究,当时是冷门,出来都找不到工作。当神经网络的火种快熄灭的时候,这三位获奖人各自给添了一把柴,终于燃成今天的熊熊大火。

神经网络,深度学习和我们常听说的人工智能,机器学习到底什么关系?这张图画出了它们之间的关系:机器学习是人工智能的一部分,神经网络又是机器学习的一部分,深度学习又是神经网络的一部分。今天说的 AI、,或者机器学习都是一回事,主要指的就是神经网络,或深度学习。

图片

这一波人工智能大潮最激动人心而又影响深远的一件事,就是机器发现了人类无法理解的暗知识。你会问:整个机器和人工智能领域都是人类发明的,难道机器还能发现出人类不能理解的知识?

这还要从阿法狗下围棋说起。阿法狗下围棋是让人工智能进入大众视野的里程碑事件。它给我们带来巨大震撼,柯洁下完后绝望地哭了,说根本没有赢的希望,聂卫平说阿老师至少 20 段,是上帝派来教我们人类下棋的。不仅柯洁、聂卫平不理解阿法狗的棋路,连谷歌负责开发阿法狗的工程师也说不清为什么阿法狗每一步这么走。人居然无法理解自己造出来的机器的行为,这是给我们人类的第一个震撼。

这就是目前人工智能研究中的一个重大理论问题,叫「不可解释性」。机器就给你个结果,没有逻辑推理过程,谁都不知道这结果怎么得来的。

阿法狗是先学习人类棋谱,再战胜人类。谷歌后来想我不学人类行不行?我靠自我对弈学习行不行?他们又造出个阿法狗零,零就是从零开始的意思。自我对弈 7 天以后,阿法狗零就赢了原来的阿法狗,40 天后天下无敌,孤独求败。所以,这是对我们人类第二个震撼。阿法狗零无可辩驳地证明了,人类积累了 2000 年下棋的经验一钱不值,甚至还是束缚,是累赘。

下围棋一直是需要高智商的游戏之一,围棋大师通常都是最聪明的人。现在问题更严重了,不仅我们无法解释机器的结果,我们一直引以为豪的知识和机器发现的知识相比居然毫无价值!

这件事实在让我们百思不得其解,一定是我们关于「知识」的基本概念出了大问题。要搞清楚这个「不可理解」的问题,就逼着我们重新反思习以为常的概念,比如什么叫「知识」,或者什么叫「学习」?

关于「学习」与「知识」,从柏拉图和亚里士多德开始,两千年来一直有两派吵吵:一个叫理性主义,一个叫经验主义。理性主义认为知识是通过推理得到的;经验主义认为知识是通过感官和经验得来的。谁对?在我看来,他们都没说到点子上。为什么?因为在他们的时代,人们对大脑一无所知。一直到差不多 70 年前,人类才开始搞明白:学习是靠大脑神经元的连接。

人的大脑有 1000 亿个神经元,每一个神经元都和几千个其他神经元相连。两个神经元连接的地方叫突触。突触就是一个 20 纳米的间隙,中间有化学分子传递。简单讲,所谓神经元的连接,是一个神经元的化学分子传递到下个神经元,通过电荷的积累可以激活下个神经元。它的机制非常复杂,今天脑科学研究的重点就是突触的传导机制。而学习的生物学机制就是神经元之间的连接。

图片

学习的微观机制的发现要归功于三位伟大的科学家。第一位就是大家熟悉的俄国神经生理和心理学家巴甫洛夫。大家都听说过他的条件反射实验:给狗喂食时同时摇铃,以后狗只要听到铃声,哪怕没有看到狗食,也会流口水。

第二个科学家是脑神经之父,西班牙科学家卡哈尔。他第一个在放大镜下把大脑神经元的连接画出来。

在前面两人研究的基础上,1949 年加拿大神经科学家赫布提出了一个猜想:同时受激发的神经元会互相连接起来。听到铃声的神经元和流口水的神经元同时受刺激,两个就连起来了。下次听到铃声,铃声神经元受激发,再把信号传给口水神经元,狗就流口水了。这个猜想后来被大量实验证实,现在成为公认的赫布学习定律。

直到这个时候,人类才搞清楚了神经元的工作原理,就是一个神经元把电信号传到下个神经元,人类自然想到,唉,我能不能用电子线路模仿神经元呵。

图片

所以 1957 年康奈尔大学的罗森布莱特就发明了第一个人工神经元,叫感知器。这个感知器把输入信号乘上一个参数后加在一起,看看电压有多高来决定是否激活下一个神经元。只要耐心用手调节感知器的参数,感知器就能学会认一个简单图形,如字母「A」。

听课的朋友可以看看讲稿中的照片,是我和我斯坦福的博士导师威德罗教授,我手里拿的是他老人家 1960 年做出来的世界上第一个可以自我学习的神经元。就是不用手工调节,给这个机器看一些「A」的图形,它会自动调节参数学会认。照片中的这个神经元到现在还正常工作。

图片

我 80 年代博士期间就做神经网路的研究,那时候的芯片速度是现在的几千万分之一,只能搞几个神经元玩玩。现在动辄就是几亿个神经元。神经元越多就能学会认越复杂的图形,比如人脸、X-光片子等。

把很多神经元一层层连接起来,就构成了一个神经网络,多层的神经网络就叫深度学习。我们会在第三讲仔细讲神经网络的工作原理,在我的新书《暗知识》中也有很详细的描述,任何高中以上学历的人都能看懂。这是我在斯坦福读书的一个深刻体验,不管多高深的学问,让这门学科的祖师爷讲起来一定深入浅出,听完一辈子不会忘记。这也是我写这本书的原则,任何读者看不懂的地方 100% 是我没讲明白。

从神经元的微观机制来看,学习的本质就是在两件事之间建立联系,比如教孩子认字母「O」,就是孩子看到一个椭圆形,同时听到「欧」的声音,建立两者的联系就是学会认了字母 O。而神经网络的本质就是发现事物间复杂隐蔽的相关性,因为太复杂太隐蔽,人类无法感受和描述,我们可以把它叫暗知识。

总结一下这一讲的内容。机器带来的震撼逼我们思考,机器是否发现了一类人类无法理解的知识。回顾人类认识世界的过程,其实直到 70 年前我们才开始理解学习的本质。那就是大脑神经元之间的连接。知识的本质就是不同事物之间的关系。正是基于这一理解,人类才开始模仿人脑,造出了电子神经元和神经网络,点燃了今天人工智能的熊熊大火。下一讲,我将继续带你认识人工智能。


三、暗知识:机器认知开拓的未知领域

大家好,我是王维嘉。欢迎来到人工智能课程。上一讲我们搞清楚了学习的本质就是大脑神经元的连接,而人工智能就是靠模拟此原理实现机器认知。这一讲,我们来学习暗知识,机器认知带我们走进的充满惊奇的未知领域?

我们过去认为的知识嘛,就是那些可以用语言、文字表达事实和逻辑。大家知道语言的出现是人类和所有其他动物的最大区别。语言让我们可以用有限的单词组装出无穷多的句子,表达各种复杂思想和意义。但在文字出现以前,人类的知识无法积累,如何做一只瓦罐,这需要父亲用嘴告诉儿子,儿子又这样传给孙子,语言能表达的有限,脑子能记住的更有限,所以一代代传下来,瓦罐还是那么粗糙。但文字发明以后,知识就可以积累了,每一代的改进和创新都记录下来,瓦罐就做的越来越精美。除了语言,我们还可以用数学公式表达一个数学定理,今天还可以用计算机程序编写一个复杂的流程。总之,所谓的知识就是那些能用符号表达的信息。几千年来我们一直认为这就是所有的知识。

一直到 70 年前,人们发现还有一类知识,叫默知识,或者叫默会知识:就是那些只可意会,不可言传的知识。像骑自行车,没有一个人骑车子是看手册学会的,都是上去歪歪扭扭摔几跤就学会了。舞蹈、绘画、拉琴,都是如此。

听课的朋友,不论在企业还是在政府工作,都要和很多人打交道,和人打交道多了,一搭眼就能判断一个人是否靠谱。但你问他怎么判断的,没人能说清楚。

很多重大决定都是在信息不足的情况下作出来的。大家最后都会说:老板你定吧。老板怎么定?老板的信息可能还不如一线员工多。所以只能靠经验和直觉。所谓「拍板」,所谓「一咬牙一跺脚」就是凭直觉。索罗斯说他的所有重大决定都是靠胃作出来的。胃疼就说明决定是错的。

为什么这些知识「只可意会,不可言传」?因为不论是骑车还是看人,在我们大脑中形成的神经元连接非常复杂,而我们语言又那么贫乏,根本表达不出来。

所以我们现在可以把那些能用语言文字表达出来的知识叫明知识,把只可意会不可言传的叫默知识。那很自然会想到,是不是还应该有一类「既不可意会,也不可言传」的知识呢?好多东西就是这样,一旦想通了,就特别简单。

图片

现在看这张图,用「是否可感受」和「是否可表达」作为两个轴,就能分出四类不同的知识。

第一类:可感受也可表达:比如阿基米德就是躺在浴缸里发现了浮力定律,脑袋对墙撞一下,马上感受到作用力反作用力。这些定律的表达也非常清楚。

第二类:可表达不可感受:相对论,量子力学等。量子力学为什么难懂?因为和我们经验无关,甚至反经验,所以连爱因斯坦对量子力学的理解都是错的。这两类都是明知识。

第三类:可感受不可表达,就是我们刚才说的默知识。

第四类,就是过去我们从来没意识到的、既不可感受也不可表达的暗知识。

什么叫不可感受?比如那些人体感官无法感受的物理量、化学量。像我们眼睛看不到紫外、红外、X 射线,耳朵听不到超声波。或者是我们感官能感受但大脑没反应,不会建立新的神经元连接,比如我们听马路上的噪声,什么都听不出来,但其实这些噪声里包含了很多信息比如车流量密度,各种车辆种类,路面情况,但我们耳朵无法分辨。什么叫不可表达?就是这些量之间的关系太多太复杂,根本无法用文字或者公式描述。

阿法狗学会下棋就是掌握的这类暗知识。简单讲,暗知识就是人发现不了,但机器能发现的、万事万物间的隐蔽关系。

而更重要的是,这三类知识之间的关系像这张冰山图。人类自从文字发明以来近万年积累的的所有明知识就像水面上的冰山一角,默知识就像水下的整个冰山,而暗知识就是整个海洋。你会问,这比喻准确吗?在数学上,我们是可以证明这三者的数量级关系。

现在你要问了,暗知识即便体量大,但是不是仅仅是个学术概念啊?和我有什么关系吗?关系大了去了。

这张照片是上海交大两位教授的一个研究:他们用 1800 张的罪犯和好人的照片训练机器,机器能以 89% 的准确率通过长相判断谁是罪犯。上面这一排是罪犯脸,下面是好人脸。

但为什么是这些结果?对不起,无法解释。你信还是不信?这个研究在国际上引起巨大争议。反对的认为,人是有自由意志的,小偷在下手前的一瞬间也可以改主意,哥们今天不偷了。惯犯也可以放下屠刀,立地成佛。支持的说这是统计概率啊。我在以色列也看过一家类似的公司,他们的产品会用在海关识别谁是恐怖分子。如果这玩意儿真能发现几个恐怖分子,能挽救很多人的生命,但也可能冤枉几个长着大胡子的好人,你用不用?

又比如自动驾驶,马路上突然蹦出几个小孩,躲开孩子就要要撞到墙上把驾驶员撞死,不躲要把孩子压死,机器该如何做决定?

像诺曼底登陆这样的大型军事行动。天时地利人和,敌我双方力量对比,太多的因素,人小脑袋瓜根本无法应付,但机器很轻松。机器算出来应该在卡拉斯登陆而不是诺曼底。为什么?不知道。听不听机器的?不听可能输掉这场战役,听吧,又无法理解。

未来一个个类似的问题会严峻地摆在我们面前。

好,总结一下这节我们讲的内容。长久以来,人类概念里的「知识」仅仅是那些可以用语言文字表达出来的知识,叫明知识。70 年前,人类发现了一类只可意会不可言传的知识,叫默知识。这几年的机器认知让我们发现了第三类知识:暗知识。人类既不可感受,又不能表达的知识。也可以叫「机器知识」。而暗知识的发现警示我们,我们不知道机器决策的路径,但机器决策的结果,将与我们每个人息息相关。

过去我们在知识的海洋上遨游,阳光明媚,风平浪静,现在一下子进入了一个陌生的海域,伸手不见五指,风高浪急,未来会有什么样的风险和惊奇?且听下回分解。

下一节我们会讲神经网络到底是如何模仿人脑工作的。


四、神经网络的工作原理和特长

大家好,我是王维嘉,欢迎来到我的人工智能课程。这一讲,我们来认识神经网络,可以说理解了神经网络,你就理解了人工智能的爆发的原因和未来的技术方向。

人工智能火起来以后,各种技术词汇满天飞:人工智能、、神经网络、,我们在第一讲讲过,它们之间是包含的关系。听课的朋友可以再复习一下这个图:

图片

人工智能是最大的一个圈,它除了包含机器学习,还包含非机器学习。什么是非机器学习?就是人教机器学。过去叫专家系统。举个例子,如果我们做自动驾驶,就把人类驾驶经验全部总结出来:红灯停,绿灯走,等等,然后一一输入到电脑里,结果就是告诉机器,「如果遇到这种情况,则那样处理」。但问题是我们驾驶遇到的情况多到根本无法穷尽,这条路最终证明走不通,所以专家系统在 80 年代热了一阵就冷下去了。

而现在人工智能的主流,是机器学习,它的特点就是把历史数据「喂」给机器,机器从数据中自己找规律。机器学习有五大流派,神经网络是其中的一个流派。这是现今最火的一个学派。我们在第一讲中,已经知道人学习知识是通过神经元的连接,科学家通过模仿人脑机理发明了人工神经元。技术的进一步发展,多层神经元的连接,就形成了神经网络。那么神经网络是怎么搭建起来的呢?

神经元是构建神经网络的最基本单位,这张图就是一个人工神经元的原理图,非常简单,一个神经元由一个加法器和一个门限器组成。加法器有一些输入,代表从其他神经元来的信号,这些信号分别被乘上一个系数后在加法器里相加,如果相加的结果大于某个值,就「激活」这个神经元,接通到下个神经元,否则就不激活。

图片

原理就这么简单,做起来也很简单。今天所有的神经网络的基本单元都是这个。输入信号乘上的系数,我们也叫「权重」,就是网络的参数,玩神经网路就是调整权重,让它做你想让它做的事。一个神经元只能识别一个东西,比如,当你训练给感知器会「认」数字「8」,你给它看任何一个数字,它就会告诉你,这是「8」还不是「8」。

为了让机器识别更多更复杂的图像,我们就需要用更多的神经元。人的大脑由 1000 亿个神经元构成,人脑神经元组成了一个很复杂的三维立体结构,这么复杂的连接在芯片上做不出来。所以只能简化,三维太复杂,我们就只能两维,神经元不能到处去连接,我们把它们分层,只允许每一层的神经元连接下一层的。就像下面这张图

最初科学家只做出了单层的神经网络,后来做出了双层。而多层神经网络的突破发生在 2012 年,在每年一次的图像识别大赛 Image Net 比赛中,多伦多大学的杰弗里·辛顿(GeoffreyHinton)教授,就是 2019 年图灵奖的获得者之一,和他的博士生阿列克斯·克里杰夫斯基(Alex Krizhevsky)使用神经网络的机器学习,令图像识别的准确率大幅突破了原先人们认为的极限。

我们来看,这个博士生阿列克斯用的 AlexNet 的神经网络有 5 层,而三年后微软研究院的 Resnet 神经网络到了 152 层。层数越越多就能学会认越复杂的图形,比如人脸、X-光片子等。所谓神经网络就是像这张图,把很多神经元一层层连接起来。多层的神经网络,我们就它叫深度学习。

图片

所以人工智能、机器学习、神经网络、深度学习是逐次包含的关系。但今天大家用这四个词的时候,大多数情况下说的是一回事,就是神经网络或深度学习。我们甚至可以说,这几年人工智能的大爆发,其实是神经网络的大爆发。

黑盒子:神经网络的学习方法

好,我们现在有了神经网络,这个网络究竟是怎样学习的?其中的权重是如何调节的?

我们可以把神经网络看成一个有魔法的黑盒子。像这张图片,黑盒子上有很多旋钮,每个旋钮就是神经网络中的一个权重。假设我们现在要让这个黑盒子学会识别汽车和猫。黑盒子怎么学呢?

图片

我们先找比如 100 张不同汽车的图片和 100 张张不同猫的图片。我们在黑盒子的输出端装两个灯泡,第一个灯泡亮表示机器认出了汽车,第二个灯泡亮表示机器认出了猫。现在我们给机器一张张看汽车的图片。一开始,机器不会认,灯是乱亮,可能两个都亮,两个都不亮,甚至只有第二个灯亮,把汽车认成猫。那我们就慢慢调节旋钮,一直调到只有第一个灯亮。把每张汽车图片给机器看,都是第一个灯亮。说明机器学会了认汽车,然后给机器看猫的图片,耐心调旋钮,一直到只有第二个灯亮。

现在我们就说机器训练差不多了,可以认汽车和猫了。这时候我们还不放心,就再找一些机器没见过的汽车和猫的图片给它看,如果灯亮的都是正确的,我们就说训练成功了。你可能听说过机器要训练,需要大量的训练数据等等,就是说的这个过程,所谓训练数据就是那 100 张汽车和猫的图。当然实际当中训练数据要大得多,也许要 1 万张。所以听上去很神秘的神经网络,它的工作原理奏这么简单。

神经元与神经网络的结构

但这个黑盒子上的旋钮,数量是非常大的,Alex Net 就有 6000 万个旋钮,现在大的神经网络有上万亿个旋钮,所以调旋钮的过程不可能用手去调,实际上是通过一种数学算法算出来的,叫「反向传播法」,就是用输出误差反过来一层层调节权重系数,误差越大,调节幅度越大,误差为零,调节成功。这个算法很成熟,我的书《暗知识》里有详细的描述,外行也能看懂。值得一提的是,「反向传播法」,便是我的博士生导师威德罗教授奠定的基础,他在上世纪 60 年代做出来的世界上第一个可以自我学习的神经元。

人脑在几亿年的进化中主要是为了觅食,求偶和躲避风险,所以只能发现一些简单的关系,果子红了,吃!,母猴丰满,追!,草丛一动,跑!。演化让人脑只能关注简单特征,识别简单关系,无法去识别复杂关系。神经网络不仅能比人脑识别更复杂的关系,而且比人脑反应速度快几百万倍。所以在识别复杂关系这件事上,机器把人脑甩开几百条大街不止。

神经网络最擅长的是发现的关系是隐蔽的相关性,也就是暗知识。数据量越大,相关性越隐蔽,人越头痛,机器越得心应手。那神经网络有没有什么局限呢?有,它不适合发现因果关系,也不会推理。事物之间的关系有两种,一种是因果关系,一种是相关关系。因果是一件事导致另一件事,比如阳光很毒导致皮肤晒黑,相关是一件事和另一件事同时发生,皮肤晒黑时冰激凌也化了,皮肤晒黑不是冰激凌化了的原因,它们共同的原因可能是阳光很毒。

你给神经网络一个简单的逻辑推理问题可能就难倒它了。比如你让它听两个句子:第一个是「餐馆拒绝了这帮学生的订餐要求,因为他们害怕喧哗」第二个句子是「餐馆拒绝了这帮学生订餐要求,因为他们喜欢喧哗」,这两句里的「他们」是谁?

对我们人类来说,好简单啊,第一个「他们」当然指餐馆,第二个指学生呵。但对机器可就难死了。因为机器要首先理解场景:餐馆是干什么的?喧哗什么意思?为什么餐馆里不能喧哗?餐馆和学生是什么关系?各自有什么权利?一大堆背景常识和一大堆因果关系。这些都不是神经网络擅长的。所以机器分不出两个「他们」各自指谁。你看,神经网络虽然在很多方面能远超人类,但在另一些方面远远不及人。

总结一下,听完这一讲,我希望记住以下几句话:

1、人工智能的一部分是机器学习,机器学习的一部分是神经网络,神经网络今天就是深度学习。

2、神经元组成了神经网络,多层神经网络就是深度学习

3、神经网络的工作原理是用历史数据训练网络,使得神经网络能够识别出训练数据中的已知物体。神经网络见的越多,就能越准确识别这类物体。

4、神经网络的本质是从海量数据中提取相关性,但它不懂因果关系,不理解场景,也不擅长逻辑推理。

理解了这些,你就可以开始向人工智能更深入一步,比如哪些技术有前景?可关注?可投资?我们下一讲见!


五、我的硅谷投资经验:AI真正的适用领域

大家好,我是王维嘉。欢迎来到人工智能课程。上一讲我们讲了神经网络的本质就是发现事物间复杂隐蔽的相关性。有了对本质的把握,我们就可以轻松理解神经网络在哪些领域适用,在哪些领域不适用。

比如现在很火的人脸识别,就是一个很适合神经网络的应用。神经网络可以发现人脸上那些人类不易察觉的细微特征。我们人看人脸只能看几个最突出的特征,比如大眼睛、高鼻梁、国字脸。但机器看得可就细多了,比如两眼间距、下巴长度等等,不仅看得细,还能精确测量。这都是我们人类大脑做不到的。机器能提取的特征比人类多得多,所以识别准确率可以超过人类。更重要的是识别速度比人类快几万倍,一颗芯片可以处理成百上千个摄像头来的视频,负责监视一大片地方。同样看医疗影像、CT 片子、核磁共振片子,也比人类更准确。

医疗诊断也是一个特别适合神经网络的领域。我在硅谷投资了一家公司做精准医疗诊断。一个疾病的成因非常复杂,比如你血糖高,这可能和你的饮食习惯、胰脏功能、遗传基因、血压、血脂、心脏功能,甚至肾功能都有关系。要把可能的相关因素罗列出来可能有几百个。而人的脑袋根本处理不了这么复杂的关系,即使一个有经验的医生也只能看几个重要指标,做个大概判断。而机器就非常擅长处理这类海量的变量和复杂的关系。所以可以比有经验的医生判断准确得多。更神奇的是,一台机器把历史上所有的病历数据都学习一边,就相当于一个医生看了几百万个病人,一下子成为地球上最有经验的医生。

再举个例子,我在硅谷还投了一家新药发现公司。大家看过《药神》电影,觉得药厂好黑。但大家不知道的是现在一款新药的研发成本平均是 30 亿美元。为什么这么贵,因为研发时间很长,其中光找到合适的化学分子就得 3-4 年。新药发现,简单讲有两个步骤,第一是生物学家找到造成疾病的那种蛋白质,比如肝癌是由某种蛋白质造成的。有了这个目标蛋白质,第二步是化学家要去找到一个化合物和这个蛋白质发生反应,比如能抑制这个蛋白质的活性。化学家根据自己经验,针对这个目标蛋白质,从已知的化合物数据库里找匹配的化合物。这个过程就像爱迪生发明电灯丝,一个一个材料去试。问题是化合物数据库里有 10 亿个以上化合物,找到一个对的就像大海捞针,比爱迪生找到钨丝难多了。我投的这家公司就是让机器先把历史上所有的蛋白质和化合物匹配的信息学习一遍,然后对于一个新的蛋白质,机器心里就有数了,什么样的化合物合适。找这个化合物有点像媒婆的工作,你给我个姑娘,我给你选个合适的小伙子。媒婆根据什么?经验和直觉。虽然身高、长相、职业、爱好这些指标有用,人和人之间还有化学反应,日子能不能过到一起,这些都是默知识,都是说不清、道不明的东西。机器就像一个成功配对了几百万对的媒婆一样有经验,现在你给我个新的目标蛋白质,我一眼就知道哪个化合物配它。看看这个过程,典型的是在海量数据里面找相关性,人的小脑袋瓜根本没戏,机器却得心应手。

你会问,还有哪些是神经网络适用的领域?多了去了。你记住一个标准,只要是能产生大量数据的生产和生命过程,只要这些数据量大、关系复杂,人看了脑袋疼,都适合神经网络。一个典型的行业就是金融行业,不论是证券、保险、银行,还是反欺诈,都产生大量用户和交易数据,都是多变量的复杂关系。像这样的产业,我敢说一定会被机器深度改造或颠覆。大家可以举一反三,适合的领域和行业还非常多,甚至我们想不到的,比如农业。植物的生长过程超级复杂,和气候、土壤、种子、水分、虫害、肥料、时间等很多因素相关,如果能精确检测每个变量,整个过程一定能优化,产量进一步提高。

那有没有不适合神经网络的领域?当然有,比如说自动驾驶。你会问:什么?自动驾驶不是人工智能最火的一个领域吗?你肯定是第一次听说人工智能不适合自动驾驶。我这里说的是全自动驾驶。就是连方向盘都没有的小汽车能满大街到处跑。

对于神经网络的商业应用,我本来最感兴趣的就是全自动驾驶,因为这是一个颠覆性技术,如果成功,会颠覆全球几万亿美元的汽车和出行产业。我过去三年看了中美的几十家自动驾驶公司,最后一家都没投。为什么?

因为我最终有两个判断:

1. 神经网络不适合做全自动驾驶。所以乘用车的全自动驾驶几乎不可能实现,

2. 自动驾驶软件公司除了被收购没有商业模式。

现在来看我为什么这么判断。我们前面讲过,神经网络的本质是提取相关性。现在这些自动驾驶软件公司拼的就是谁软件驾驶里程最多。因为软件见过的不同场景越多,就能从中总结出场景的相似性和差异性,见到新的场景就可以更准确判断。谷歌过去 10 年积累了 1300 万公里的驾驶数据,但还是不够。为什么?因为不同的场景太多了,几乎无穷无尽,用这种死记硬背的办法,猴年马月也整不完。

而我们人学开车需要驾驶那么多里程吗?在驾校开几天,上路开几天,最多开几百公里就学会了。为什么我们不需要经历所有可能的场景?因为我们能理解驾驶中的每个场景,也很容易推理判断。但神经网络只会把每一个场景当成一幅图像,傻乎乎提取相关性,神经网络不懂因果关系,根本不会理解场景。所以神经网络本质上不适合用来做自动驾驶。

由于这个根本原因,乘用车的全自动驾驶,也就是满大街没有方向盘的自动车到处跑,实现起来非常困难。这就是谷歌代表的这一派,一步到位,连方向盘都不要的自动驾驶方向。但用机器辅助驾驶,一步步增加功能,是有市场的。像特斯拉车的自动线道保持和自动跟踪就非常有用,我上下班堵车时打开这个功能就可以脚不踩閘,双手不扶方向盘,可以看眼微信,甚至打个盹。当然,在限定区域内,如厂区、校园、港口、仓库这类场景简单,全自动驾驶也许还有戏。

第二个重要原因是自动驾驶软件公司没有商业模式。因为整车厂商不可能把人命关天的事交给一家小公司,要么自建团队,要么收购团队。但目前所有一线大厂都有了自己的团队,或者已经收购了团队,这么多自动驾驶公司卖给谁呢?汽车行业是一个复杂的供应链,整车厂商通常只向一级供应商采购,因为一级供应商都是老牌公司,质量可靠,供货及时。一级供应商再从二级供应商采购。这些自动驾驶软件公司连二级供应商的资格都没有。整车厂商和一级供应商对自动驾驶软件公司的态度是来者不拒,你有技术我都愿意让你测试,我学差不多了就自己干了。时间关系,音频课程中我就不再深入,在新书《暗知识》里有关于这个产业非常详细的讨论。

和自动驾驶关联的是传感器,目前最火的是激光雷达。全世界有近百家激光雷达公司,我也看了几十家,到目前为止也一家没投。因为这些公司瞄准的是全自动驾驶,一个激光雷达几千上万美元,一般的车根本用不起。那些瞄准全自动驾驶的激光雷达公司也会死一批。但激光雷达本身是有用的,可以用在机器人、低速行驶车辆等,但一定要做得足够便宜。我在书里介绍了激光雷达的四种不同的技术路线和各自的优劣,而我看好其中的一种技术路线,叫微机电,也就是 MEMS,对于它的商业应用,我还在继续看。

好,我们总结一下这一讲的内容。神经网络的本质是发现人难以发现的相关性,所以数据量越大,其中关系越复杂,越是人看了脑袋大的问题,机器就越得心应手。但神经网络没有理解能力,不会推理,很多人做起来很简单的事情机器很累。用这个标准,你可以去判断众多 AI 应用,哪些靠谱,哪些不靠谱。


六、AI 泡沫和投资陷阱

大家好,我是王维嘉,欢迎来到人工智能课程。上一讲我们讲了神经网络的本质和适用范围。懂了这个根本的东西,就可以做出准确的商业判断。比如说现在科创板刚开,鼓励硬核科技公司上市,今后几年一定有不少公司打着人工智能旗号上市,很多上市公司也会重新把自己包装成人工智能公司。

历史上每个新的科技概念,都是一次疯狂割韭菜的机会。因为人工智能的技术很深,别说普通股民,很多 VC/PE 的投资人都掉坑里。我的新书和这门课,一个重要目的就是让读者如何避免掉坑里被收割。

我们现在谈谈一个很多人关心的问题:人工智能产业有没有泡沫?我明确的说:有,而且主要就分布在三个细分领域:一个在自动驾驶,一个在人脸识别,一个在芯片。但这三个领域的泡沫性质完全不同。只有真正把握了神经网络的本质,才能判断是否有泡沫和泡沫的性质。下面我们就一个个剖析。

先说自动驾驶。我们上节课说了,神经网络不适合全自动驾驶。这是人工智能产业到目前为止最大的一个泡沫,中国美国都有泡沫。3 月底有家自动驾驶公司叫 Roadstar.ai,中文名字是「深圳星行科技」,宣布清盘。他们在 2018 年 5 月刚融了 1.28 亿美元,东西一直做不出来,加上内讧,投资人为了止损,逼公司清盘。这家公司还没成立就在硅谷找到过我,我和四个创始人一起吃了四个小时的晚饭,创始人分别在百度自动驾驶部门和特斯拉干过,学历背景又是斯坦福和清华的博士。种子轮开价小几千万美元估值,我晚饭后就决定不投。之后不久国内一家著名投资公司合伙人来硅谷见我,兴致勃勃说他投了家很牛的公司,我一问是 Roadstar, 我当时只能心中默默祝福他。1.28 亿美元这一轮是国内一家顶级风投公司领投。说明什么?AI 太黑科技,没有很强专业背景不容易看明白。

为什么会内讧,因为一直做不出能落地的东西。为什么做不出来,我们上一讲说了,神经网络不理解驾驶中遇到的千奇百怪的场景,不管行驶多少公里,永远会碰到新的场景,还是不知道怎么办,靠积累历史数据,死记硬背解决不了这类问题,这是一个典型的人做起来很轻松但机器非常累的一个领域。所以 Roadstar 清盘是自动驾驶这个泡泡的第一声破裂,以后大家还会不断听到,全世界有几百家自动驾驶公司,我认为今后 2-3 年会死掉 90%。

怎么看一家自动驾驶公司遇到困难了?如果他们在做本来不该他们做的事,就是个不详的标志。

本来自动驾驶软件公司最理想的商业模式是卖软件。但你发现很多软件公司自己开始造车了,为什么?因为他们的软件没人买,只能自己造车用自己软件。造车可不是闹着玩的,特斯拉十几年了到现在都没从大规模生产的坑里爬出来,没有几十亿美元,想都不要想。所以这些软件公司造出来的车都是用榔头敲出来的,根本不可能卖出去。那怎么办,自己做运营。所以就跑到景区、校园跟人家说,我把你的运营包下来,负责景区运营。一个软件公司,一群人工智能博士,最终被逼得造车,被逼得去卖票运营。这就是商业模式出了严重问题。现在不少自动驾驶软件公司都被逼到了这条路上。

上一讲讲过,人脸识别是一个很适合神经网络的领域,为什么这个领域也有泡沫呢?人脸识别在美国几乎没有什么市场,但中国市场很大,客户都是各地政府。这么合适的一个应用为什么会有泡沫?

原因有两个:第一是同质化竞争,大部分人脸识别公司都是用同样的芯片,大部分都是美国英伟达公司的图形处理芯片或者赛灵思公司的现场可编程门阵列 FPGA,大家的算法几乎都是用谷歌的开源程序库 Tensor Flow,所以识别能力都差不多。所以目前它们在竞争什么?打单能力,看谁能搞定客户。

第二个原因,是投资人不懂。在互联网时代,赢者通吃,只要你能投中一家头部公司,再贵也值得。许多投资人就糊里糊涂把这个原则搬到了 AI 领域。殊不知 AI 和互联网最大的区别在于 AI 是个 toB 的生意,不像互联网是个 toC 的生意。toB 的生意就没有赢者通吃。打个比方,人脸识别你拿下了上海市场,你的识别率 99.6%,我的 99.5%。但我同学是四川公安局长,你说谁更能拿下四川市场?给一个没法赢者通吃的公司赢者通吃的估值,泡沫就出来了。

现在我们说芯片。目前神经网络的芯片,主要用三种:英特尔的 CPU,英伟达的图形处理器 GPU,和赛灵思的 FPGA。这三家公司都是硅谷公司。在机器学习领域,芯片有三个应用场景,第一是数据中心的训练和识别,第二是边缘的训练和识别,边缘计算又可以分为不怕耗电的和害怕耗电的。所以一共三类。

数据中心训练和识别就是这些互联网巨头的服务器上的各种应用,如谷歌的翻译、脸谱的照片分类、淘宝的精准广告、微信的删帖,背后都是成千上万台服务器在执行深度学习程序。边缘计算指什么呢?比如说中国有近两亿个摄像头,如果把所有视频都传到云去识别,数据量太大了,而且这些视频绝大部分是没用的,坏人偶尔出现一下。如果能把识别功能放在摄像头,上传的视频就可以大大减少。摄像头的地方有电源,芯片多耗点电问题不大。自动驾驶和辅助驾驶汽车里的芯片也类似。但如果是手机里,或移动设备里的识别就需要省电。

现在的芯片创业公司主要是集中在边缘计算。因为想要攻下数据中心市场太难了,英伟达和赛灵思不仅有过硬的芯片,而且他们经过十几年开发的软件生态已经非常成熟,任何一家互联网巨头在这些芯片和软件上都承载着几百亿美金的生意,谁都不敢轻易换成一个小公司的、未经检验的芯片。有的新创公司说我的芯片可以比英伟达 GPU 快十倍,更省电,但你的芯片还没出来,而且还是和英伟达在市场上正在用的芯片比。英伟达也不会躺在那睡大觉,他们的研发能力和投入都远远大于小公司,一颗芯片的科研投入往往超过十亿美元。等你的芯片出来后,他们的下一代芯片也上市了,可能快 20 倍。在这个领域新创公司不能说绝对没有机会,但他们的成功机会和当年企图代替英特尔 CPU 的机会一样小。

在边缘计算领域,还有机会,但那些大市场对小公司来说也非常有挑战。这里的第一大市场机会来自手机上用的 AI 芯片。但手机厂商无法容忍再单独放一颗 AI 芯片进手机,这样增加重量体积和成本,所以 AI 芯片必须是 CPU 的一部分,放在同一颗芯片中。这样只有原来做手机芯片的公司有机会在 CPU 里加一个 AI 模块。这件事对高通、海思这样的手机芯片巨头都不是什么难事。同样的道理,在摄像头里的 AI 芯片也是现在给摄像头做图像压缩芯片的公司近水楼台。汽车的半自动驾驶是一个大市场,芯片巨头都志在必得,所以英特尔 160 亿美元收购了以色列做驾驶路线识别芯片公司 Mobileye。

那芯片创业公司的机会在哪里呢?只能是目前还很小,大公司看不上眼的,比如扫地机器人上用的芯片。

讨论了芯片产业的生态,现在可以讨论芯片的泡沫。这个泡沫主要在中国。因为硅谷风险投资已经 20 年不投芯片了,做一个主流芯片的周期要十年,投入至少几亿美元,风险极高,所以硅谷的主流 VC 唯恐避之不及。但中国的 VC/PE 没有这些血的教训,初生牛犊不怕虎,也搞不清里面的套路,奋勇争先往坑里跳。

泡沫的另一个重要原因是美国对中国芯片的封锁看来是长期趋势,国家不惜一切代价要把芯片搞上去,所以国企和国资背景的 VC/PE 往前冲得更猛。因为即使赔钱了也要干。这就进一步推高了估值。目前国内一个芯片公司的估值是美国同类公司的 5~10 倍估值价格,不是人民币的数对美元的数,是美元对美元的数。我国内做 VC/PE 的朋友问我该怎么办?这么高估值和风险,投吧可能会亏钱,不投吧,好像要整个踩空一波机会,整个赛道就这行情。如果是我,宁可踩空也不投。或者一定只投那些目前芯片巨头没有涉足的领域。如果一定要赌一把,就把后期投资者当交易对手,快进快出,早期进入,一两轮后升值马上套现。

我们总结下这一讲的内容。人工智能领域有没有泡沫?泡沫在哪里?只要你把握了技术的本质,只要用商业的常识,就可以判断哪里有泡沫。

每次新的技术革命,不论是火车、电力和互联网,一开始总有泡沫。由于人工智能比互联网涉及更深的技术,很多没有专业背景的投资人跟风追热点,将会造成巨大损失,现在这个泡沫刚刚开始破裂,今后几年会一地鸡毛。希望我们的听众在读了这本书后,听了这门课以后,不论是在私募股权市场还是在股票市场上投资,能够避开陷阱,少被割韭菜。


七、AI产业生态和创业者的市场进入策略

大家好,我是王维嘉,欢迎来到人工智能课程。

我们前面讲了一些案例,哪些是神经网络适用的领域,哪些不是。产业的泡沫集中在那几个领域,和泡沫的成因。在这一讲我们看看整个产业的生态是什么样的。所谓一个产业的生态,主要是指这个产业有哪些环节,以及这些环节之间的关系,譬如看懂一个产业的生态,你要看懂哪个环节是生态的瓶颈并掌握最强的侃价能力。更深入的产业生态分析还包括各环节的未来发展以及对整个生态的影响。

AI 的产业生态如下图所示,是一个金字塔结构。金字塔的最上层是算法,相当于皇冠上的钻石,算法下面是芯片,整个生态最核心的部分。就像 CPU 在 PC 产业的核心地位一样。芯片下面一层是编程框架,有点类似 PC 里面的操作系统,但不完全一样,待会我们解释。最下面一层就是应用。

图 1:AI 产业生态的金字塔结构 图片来源:自绘
图 1:AI 产业生态的金字塔结构 图片来源:自绘

金字塔的下层对上层有依赖性,但反之不成立。也就是说上层是驱动力,是自变量,下层是驱动结果,是因变量。金字塔的宽度大致对应市场规模和公司的数量。所以越上层的对整个行业影响越大,但市场规模越小,越下层市场规模越大。接下来,我会为大家依次分析一下金字塔中的各层生态:

第一,产业的皇冠——算法

AI 近年的爆炸性发展,有三大驱动因素,分别是算法、算力和数据。其实最重要的是神经网路算法的突破。因为其他两个因素属于「搭便车」。目前研究算法的主要集中在美国的一流大学和几家超级互联网公司,总所周知的谷歌、脸书,、亚马逊、微软、IBM、百度等。大学的算法研究大部分都是学术性的和公开的,而大公司的算法研究最核心的只留给自己用。专门研究算法的私人企业屈指可数,一家著名的算法公司就是被谷歌收购的大胜围棋世界冠军的 DeepMind。纯粹做算法的新创公司少得可怜,原因主要是缺乏商业模式。

第二,产业生态的核心——芯片

半导体芯片是一切信息技术的基础,有了芯片才有电脑和存储,有了电脑和存储才有互联网,有了互联网才有大数据,有了大数据才有人工智能。在这每一波的发展中,芯片都是最关键的环节,芯片厂商总是处在霸主地位。

在大型机时代,能够自己开发芯片的 IBM(国际商用机器公司)独占鳌头,在 PC 时代,能够生产出最好的 CPU 的英特尔(Intel)成为新的霸主,在移动通信时代,高通(Qualcomm)几乎垄断了手机芯片,直接挑战英特尔霸主地位,在云计算大数据时代三星(Samsung)凭借自己在存储芯片方面的优势成为世界半导体第一大厂家。

在人工智能时代,谁将是新的霸主?这个新霸主的桂冠,很可能落在硅谷的半导体公司英伟达(Nvidia)头上。英伟达成立于 1993 年,创始人是生于台湾,小时候随父母来美国的斯坦福毕业生黄仁勋(Jen-sen Huang)。公司最开始是做电脑图形显示卡,20 多年来一直在研发销售图形显卡和图形处理芯片 GPU。除了工业应用之外,图形显卡的最大市场是电脑游戏,今天高端游戏电脑里面几乎清一色用英伟达的显卡。当电脑游戏市场开始成熟后,英伟达也曾经想进入手机市场并收购过相应的公司,但是并不成功。一直到 2012 年天上为准备好了的英伟达掉下一块大馅饼:这个馅饼就是们前面提到过的 2012 年的 ImageNet 比赛。比赛中大幅提高识别准确率的神经网络就用了英伟达的 GPU,证明了 GPU 非常适合用于有许多并行计算的神经网络,比 CPU 快得多。在这之后,其他公司都开始采用 GPU,比谁能将网络做的更大,层数更多。从此之后,GPU 成了神经网络计算的引擎,相当于 CPU 对电脑的作用一样。

除了 GPU,现场编程门阵列 FPGA 是另外一个广泛用于深度学习的芯片。大家不要被这个拗口的名字吓到。简单讲,任何一个芯片,不论是 CPU 还是 GPU,里面的线路都固定了,所以无法为一些特殊的需求优化。FPGA 里面的线路可以随时改,可以「现场编程」为特殊需求优化,变成颗专用的芯片,当然可以效率更高。FPGA 最大的厂商有两家,赛灵思和被英特尔收购的埃尔特拉(Altera).

第三,生态大战,编程框架的使用和选择

在 AI 领域经常听到一个新技术名词叫做「编程框架」。这个「编程框架」和过去我们熟悉的「编程语言」、「操作系统」是什么关系?简单讲,所谓「编程框架」就是一个程序库。这个库里有许多常用的函数或运算。这样的程序库可以大大节省编程人员的时间。几乎任何早期的机器学习的编程者都会自己编写一些常用的函数和运算,自己建一个自己用的或自己公司内部用的程序库。

发源于大学的这些程序库,如发源于 Berkeley 的 Caffe, 通常从一开始就是「开源」的,也就是说这些程序库里面的源代码都是公开的。但近年来谷歌、脸书、微软、亚马逊等公司也将自己的程序库开源。目前占绝对统治地位的编程框架是谷歌的 Tensor Flow. 为什么他们会如此「大公无私」?当然这些公司内部推动开源的技术人员中不无理想主义者,希望通过开源来推动机器学习的快速发展。但公司作为一个营利主体,开源的主要商业动机是吸引更多的软件编程人员使用用自己的编程框架,滋养一个围绕着自己编程框架的生态系统。

所以有了开源的编程框架后,大量的 AI 应用开发公司就可以使用现成的程序库而不必从头开始。这就大大降低了 AI 应用的技术门槛。一个不懂机器学习的有经验的软件工程师,可以用一个月时间在网上上一门机器学习的基础课程,再花几周时间就可以掌握像谷歌的 TensorFlow 这样的编程框架。所以今天融资的新创技术型公司每一家都可以说自己是「AI 公司」。如果这些公司的技术都使用开源编程框架,他们的技术差别就很少。因此这些公司需要比拼的是对某个行业的理解和在该行业的销售能力,以及对该行业数据的占先和占有程度。有 AI 技术实力的公司通常不完全依赖开源的编程框架,而是自己开发很多自己专用的底层程序库,甚至有自己的编程框架。

AI 生态金字塔的最底层就是各种应用。我们前面几讲已经讲过一些,其实只要读者掌握了神经网络的本质,自己就可以判断哪些领域会被改造或颠覆。注意到这张图中我加了一个应用叫「意外」。就是我们现在还想不到的应用。

比如当年 iPhone 刚出来,大家讨论移动互联网的杀手级应用会是什么,当时互联网大佬们认为无非是多了一块屏幕,无非就是把搜索条、淘宝网站、QQ 挪到手机上。另一派认为移动互联网和 PC 互联网是两个完全不同的动物,但到底会有哪些 PC 互联网上没有的大东西出来谁也说不清楚。果不出其然,Uber、滴滴成了移动互联网的杀手级应用,微信成了杀手级应用。这些都是事先无法预测的。今天人工智能也一样,现在热门的自动驾驶、人脸识别可能都不是杀手级应用,杀手级应用可能还没出来。我的书中有一些猜测,有兴趣得可以去看看。

搞清楚了这个生态,我们就有了高屋建瓴的视角,就对整个产业有了全局的认识。每当一个新鲜事出来,一家新公司出来,一个新投资机会出来,我们就可以用这个框架去判断。这个生态框架还可以帮助我们判断不同公司在产业链中的位置,他们各自的机会风险和议价能力。

现在说说一家创业型公司如何进入这个市场?大致有三种策略。第一种是进入全新市场,如人脸识别。原来根本没有这样的市场,所以都是新创公司在里面。大公司能不能做?能,但他们看不上,也没钻营劲儿。目前大部分创业公司是选择这种进入策略,这样的新行业不多,很快就变得很拥挤,很容易变成红海,现在人脸识别就是这样。第二种策略是给现有产业赋能,即所谓+AI,原来的产业加 AI 功能,为现有产业提高效率,降低成本。但这是为原有行业巨头打工的事,人家吃肉你喝汤,踢掉你也是分分钟。但需要 AI 的行业很多,所以这个策略是低风险,低收益。第三种进入策略就是颠覆现有行业。这个策略是高风险,高收益。具体如何选择不光看你自己的偏好,还要看行业本身特点。比如在医疗领域,看 X 光片子,医院不会介意外包技术,所以欢迎你去赋能。但金融领域,打死他们也不会把数据拿出来给你,肯定要自己做,事实上我知道的大金融公司都有自己的机器学习团队。那你要觉得能赚大钱,只能去颠覆他们。但不管是赋能还是颠覆,都要对这个行业有很深的理解。

总结一下这一讲的内容。AI 产业的结构像一个金字塔,最顶端是算法,最核心技术是芯片,最难撼动的是围绕芯片的编程软件生态系统,这三者都是美国领先。在应用层面,中美各有胜负,比如人脸识别中国远远领先,新药发现美国远远领先,自动驾驶两边差不多。对于人工智能,两边市场都很大。如果说互联网是淘地面上的金沙,人工智能就是挖深井里的金疙瘩。作为一个创业者,最重要的是对行业的理解,否则你的深井就是个黑洞。好,我们下一讲见。


八、技术权力和个人自由

大家好,我是王维嘉。欢迎来到人工智能课程。我们上一讲介绍了人工智能产业的金字塔结构,让我们对这个产业有了一个全局的理解。机器能发现暗知识这件事不仅会颠覆商业,对未来社会也会有重大影响。在这一讲,我们看看技术是如果深刻影响经济和社会的。

AI 和大数据能够让我们更精确地了解用户的消费习惯,更准确预测经济趋势,所以前不久马云提出:AI 和大数据会导致新计划经济。这个观点一出来就引起了巨大的争议,很多著名经济学家如吴敬琏、许小年、许成钢等都对这个观点提出了质疑和批判。那现在我们了解了人工智能的本质和适用范围,我们就来看看马云说的有没有道理。

先说关于计划经济。奥地利经济学家、诺贝尔经济学奖获得者哈耶克,在 70 年前,就用默知识证明了计划经济不可行。他的证明很简单。首先因为市场上的供需知识都是默知识。用户说不明白自己到底想要什么,商家也不知道会提供什么样的产品,所以这些知识无法记录,因而无法集中。计划经济的前提就是把全国的供需集中起来最后由国家分配到每一个工厂。所以哈耶克证明了计划经济从理论上就不可行。不是说理论上很好,实际上不可行,是理论上就不可行,就像永动机违反能量守恒定律,永远不可能造出来。

当然,这是 70 年前,现在有 AI 和大数据了,比如你是一个剁手党,淘宝比你自己还了解你的消费习惯,而且这些消费者行为数据都集中在阿里云里。那从计划经济的层面讲,需求数据不就是可以被集中了吗?所以马云不是没有道理。

但 AI 和大数据能预测供给吗?现在假设淘宝有全国所有的矿泉水的需求信息,甚至可以精确到每个村庄,每个人,什么时候消费多少瓶矿泉水。但我作为一个企业家,仍然可以不断改进矿泉水瓶的的设计、改变水的味道,和降低成本,这些改进需要企业家的想象力,试验各种各样的想法,最重要的是大部分尝试会失败,要这些企业家自己承担责任。所以这些供给的信息还是无法集中。

更何况,还会存在那些目前不存在的需求,人们不知道自己未知的需求,比如在没有 iPhone 时,你问用户需要什么样的智能手机,他根本说不出来。乔布斯从来不做市场调查,他说我的市场调查就是出门的时候对着镜子看自己。所以供给方也是试错,只能是发明家、企业家做出来以后,看是不是有人用,是不是卖得动,也就是由供给方的创新在推动。在 iPhone 成功之前,硅谷至少尝试了 20 年的手持终端,不知失败了多少公司,大家只看到 iPhone 的「一将成」,不知道前面的「万骨枯」。

所以大数据都是历史数据,人工智能也无法预测未来,更无法取代企业家的创新和试错。

所以就像文稿中的图,AI 和大数据对现存的需求有用,但对未知的需求和供给一点用都没有,完全不可能预测企业家的想象和试错。所以,AI 和大数据不可能导致计划经济,它们无法取代市场上的企业家和他们的冒险创新精神。

图片

第二个方面,我想谈的是,技术对于社会权力的重新分配,注意我讲的是力量的力。在历史上,我们可以看到,每次重大技术创新都会带来权力的重新分配。

当年大型计算机让 IBM 不可一世,美国很多人担心,计算机代表着未来,而未来似乎要被 IBM 一家公司所控制,那就太可怕了。所以当英特尔的第一个 CPU 4004 出来后,一批年轻人激动得要死,发誓要打破 IBM 垄断,这批年轻人就包括乔布斯和比尔盖茨。他们要让每个人都拥有一台电脑。手机的出现也是如此,今天一个五线城市小镇青年,只要有好的段子,一篇 10 万+就名扬天下。

互联网的出现更是如此。大家知道互联网诞生在美国,但可能不知道为什么诞生在美国,你会说,美国技术先进,其实互联网没什么技术,几个路由器一连,就出来了。大家猜猜世界上第一个全国联网的国家是哪一个?法国。从 1968 年开始法国邮电部就开始给老百姓家装台显示终端,用电话线连到邮电部的中心计算机上,老百姓可以查天气、股票、定火车票等等。

今天这种封闭的中心化的网络早就被开放的扁平化互联网冲的无影无踪了。互联网的头三个节点分别在斯坦福大学、斯坦福研究所和加州洛杉矶大学。然后一个一个节点增加,在成长过程中没有政府和任何大公司的管理,完全是网络上的志愿者们自己组织起来制定规则和协议。这个成长过程和美国这个国家的成长过程完全一样,自下而上。所以向互联网这样的非中心化的技术一出现,就得到了热烈拥抱。互联网不可能在法国成长起来,因为欧洲的皇权传统,习惯从上到下管理。来个非中心化的东西,对他们就是个怪物,不知道该怎么对付。

但大数据、云计算出来后,天平似乎又回到大公司和政府一边。从各地政府对云计算的热情就能看出来,因为云计算大数据容易集中控制。那么 AI 给谁赋能?其实从前几讲的产业、创业分析中,我们似乎看到 AI 技术更偏向大公司和政府。

大家可能听过「社会积分系统」。每天你的一举一动都在摄像头下面,根据你的行为,算法自动给每个人打分。你的升学、就业、升职、贷款可能都要参考这个分数。这样带来的第一个问题是隐私权问题,哪些个人数据是绝对不可以收集的?我和女朋友在马路上浪漫一下也要记录下来吗?第二个问题就是结果的不可解释性,你觉得自己表现很好,打分这么低,去投诉,有关部门回答你说:机器给打的分,我们也不知道。

图片

现在你可能会担心:如果我们从生下来就被各种传感器监控,24 小时的行为都被统计、打分,那还有个人自由吗?这不是一个非常恐怖吗?但幸好,上帝总会给我们留一扇窗。

目前全世界的 AI 技术权力总体来说是分散的,比如在美国谷歌的 AI 技术很牛,亚马逊、微软、脸谱、IBM 也不弱。只要市场上有超过三个竞争主体,他们合谋欺负消费者的可能性就会大大降低。

除此之外,还有一些公益组织要打破大公司的垄断。其中最著名的就是 Open AI,它是由「钢铁侠」伊隆·马斯克(Elon Musk)和迄今世界上最成功孵化器 Y Combinator 创始人山姆·艾特曼(Sam Atman)共同创建的。创办 Open AI 的动机有两个:一是不能让大公司们控制人类未来最重要的技术之一。这一点和当年乔布斯、盖茨发起个人电脑革命时的驱动力相同:不能让 IBM 这样的大公司垄断计算机技术。第二是为 AI 未来对人类社会的潜在威胁未雨绸缪。Open AI 的使命是「AI 民主化」。意思是要让更多的人掌握 AI 技术,让更多人受惠于 AI。

总结一下这一讲的内容。机器发现暗知识这件事不仅会颠覆商业,也会深刻影响社会。虽然大数据可以方便地收集消费者信息,虽然机器能预测他们的一部分消费行为,但机器永远无法预测未知的需求和供给方的想象力,永远无法代替企业家的试错、创新、冒险。每次重大技术创新都会重新分配权力,这次 AI 大潮是偏政府和大公司,但技术权力在全球分布总体是分散的,有制约的。


九、人与机器的未来

大家好,我是王维嘉。欢迎来到人工智能课的最后一课。前面几讲介绍了神经网络和暗知识,以及对商业和社会的重大影响。现在我们探讨一下大家关心的未来。除了我们现在看到的这些颠覆性的影响,未来还会有什么不可思议的东东?这样发展下去,机器有一天会把我们人类变成它们的宠物吗?

要看懂未来,我们首先要解答一个悖论。这个悖论就是神经网络是模仿人脑,但居然能在许多方面远远超过人脑,这是为什么?

首先是电子神经元比人脑神经元要快很多。

人脑神经元每秒钟能激活 200 次,电子神经元能上亿次,快 500 万倍。人脑神经元的信号传输速度是每秒 100 米,电子神经元是光速,每秒 30 万公里。快 300 万倍。所以下围棋,人想了一步,机器想了 100 万步。第二个原因是人脑非常不靠谱,总出错,每个神经元传给下个神经元的成功率只有 30%,而电子神经元几乎 100% 成功。第三是人脑会遗忘,机器过目不忘。所以这三条加起来,机器又快又准又牢靠。我们前面讲过,人脑在进化中只需要识别几个最重要的特征,细节都可以忽略。但机器像福尔摩斯,眼尖心细,蛛丝马迹都逃不过它的法眼,可以发现人类忽略或者根本无法发现的特征,也就是暗知识。更重要的是机器的「大脑」可以复制,而人不行。

现在我们来看看未来机器有可能做哪些不可思议的事情。

第一件事我叫做「群体学习,瞬间复制」。谷歌做了这么一个实验,像下面这张图,让一个机器手从一个盘子里往外抓东西。盘子里有各种形状的小东西,笔、手电筒、插座什么的。机器手一开始在空中乱抓,偶尔碰到一个物体,机器就知道要在某个高度去找东西。东西的形状很多,机器学了很长时间终于学会能把盘子中物体都拿出来了。这个实验没什么特别。有意思的是下一个实验,谷歌把 15 个相同的机器用网络连起来一起学习,大家猜猜机器用了多长时间学会了?原来的 15 分之一。因为只要其中一台机器第一次找对了盘子的高度,所有其他机器立马都学会了。

图片

这种「群体学习」我们人类是做不到的。因为人类的技能无法拷贝给别人,我学会了骑自行车,跟你说也白说,你还得自己学。机器这种群体学习相当于一万个小孩子学骑自行车,开始大家都摔跤,突然一个小孩子学会了,与此同时所有的孩子都会骑了。机器的知识就是神经网络的参数,只要把这些参数用网络传给其他机器就可以了,机器知识的传播速度是光速。这意味着什么?这意味着人类要花很长时间掌握的技能,机器很快就会学会。比如一个战斗机飞行员要飞很多小时,打过很多空战才能成为王牌飞行员,但只要有足够的飞行和战斗数据,用几千台、上万台机器一起学习,可能机器几分钟就成为一个王牌飞行员。事实上,下一场空战,可能就没有人类飞行员了。美国一个王牌飞行员和机器打了 100 场模拟空战,猜猜他输了几场?你猜对了,他输了 100 场。

在农业文明时人类的知识传播以千年记,伊拉克人一万年前就会种小麦了,传到中国用了 8000 年,车轮也是这样。工业文明时代,知识传播以百年记,牛顿力学 17 世纪发明,到中国 19 世纪。现在信息时代,美国有个谷歌,中国几个月就有了百度。在机器学习时代,机器发现的任何知识都是瞬间传遍全世界。这件事的影响,在今天还很难看出来。就像当初汽车刚发明,大家觉得只不过是一个比马车快一点的代步工具。根本无法想象高速公路、郊区的购物中心、居住的分散化、尾气排放和堵车。

机器知识为什么能这么容易传播,因为机器知识就是神经网络的权重系数。人类知识是大脑中的神经元的连接状态,这些状态是拷贝不出来的。所以钢铁侠马斯克提出要搞脑机接口,直接把大脑中神经元状态读出来。这个建议靠不靠谱?其实他不是第一个提出这个建议的,以前不仅有很多人提过,而且还有很多人做过。但目前的技术最多插几个电极,取出少数几个神经元的信号,或者戴个电极罩在头上,听几百亿个神经元交汇在一起的大合唱。我们第一讲讲过,神经元突触只有几十纳米大小,比头发丝还细一千倍,今天的外科手术根本无法把这么细的电极植入人脑还不损伤人脑。所以只能是植入几个电极让瘫痪病人可以重新控制部分肌肉,或者戴个电极罩接受脑袋的简单命令,开灯关灯啥的。因此,在我看来,脑机接口在现阶段根本不靠谱。

现在我们终于可以讨论大家最关心的一个问题:机器会不会统治人类?这个耽心不是空穴来风。随着计算能力的增加,随着机器学习的数据越来越多,自主性越来越强,会不会有一天机器觉得人类是个累赘?这是很多科幻小说和电影的题材。

但在机器变成我们的主人之前,机器必须有自我意识。关于人的自我意识是如何产生的,被列为科学界 100 个重大问题的第二位,第一位是宇宙如何产生的。尽管有很多研究和假说,至今我们并不清楚人类的自我意识是如何产生的。所以现在谈机器是否能有自我意识的基础还不牢固。

但既然这么多人都担心,从马斯克到霍金,还是有讨论的必要。我们第一个可以说的是,永远无法下结论说:机器永远不会产生自我意识。我们目前能讨论的边界是,今天基于神经网络的机器是否会产生自我意识?简单的回答是:不会。

主要理由有三个:

第一个是人脑神经元的连接方式和传导机制都非常复杂,电子神经元只是一个最简单的模仿。

第二是人脑中充满了随机性,而电子神经网络中没有随机性。你会问,能不能在电子神经网络中引入随机性啊,可以,但在哪里引入?引入多少?你根本不知道。

第三个理由是最重要的理由:我们虽然不清楚自我意识具体是怎么产生的,但我们知道它是演化的产物,就像语言的产生目前科学界认为是由于一个叫 FOXP2 的基因突变产生的,自我意识的产生很可能和语言的产生有紧密关系。

基因突变,而且是个非常有用的突变,是一个极小概率的事件,所以机器即使引入随机性,要想突变出自我意识也是一件概率几乎为零的事件。今天在已知的宇宙中,人类是唯一的智慧生物,原因就是这是个极小概率事件,小到几乎不可能。所以机器能演化出自我意识的概率和我们发现外星人的概率相同。

因为机器的神奇,我们发现了暗知识。但暗知识一直都在我们身边。大家在海关都见过闻毒品的警犬。我们人类无法闻到毒品的味道,更无法表达毒品气味的特征,这个警犬发现毒品对人类就是暗知识。

今天的机器无非是我们人类的一个个警犬,它们不仅能发现毒品,还能识人,看病、制药、驾驶飞机。不管它们有多强的能力,终归还是我们人类的工具。但这个工具太强大了,也许是人类有史以来发明的最强大工具,会超过蒸汽机,超过电力,也许会超过互联网。

所以,我们将迎来一个机器认知的时代。这个时代有哪些特点?

第一、就是海量的的传感器无处不在,不断记录着所有的物理量、化学量。

第二、机器通过海量的数据,高速的计算,能发现出人永远无法发现的万事万物的隐蔽关系,这才是物联网的本质!

第三、是机器能用暗知识做出无数不可思议的神迹,改进生产,改善生活,甚至发动战争。

机器带领着人类,将进入一个知识大航海时代,我们将每天发现新的大陆和无数金银财宝。我们今天面对的许多问题都像围棋一样有巨大的变量,解决这些问题和 围棋一样,是在组合爆炸中寻求最优方案。例如全球变暖的预测和预防,癌症的治愈,重要经济社会政策的实施效果等等。

系统越复杂,变量越多,人类越无法把握,机器学习就越得心应手。无数的机器将不知疲倦地昼夜工作,很快我们就会发现机器新发掘出来的暗知识会迅速积累。和下围棋一样,暗知识的数量和质量都将快速超过我们在某个领域积累了几百年甚至几千年的知识。明知识就像今天的大陆,暗知识就像大海,海平面会迅速升高,明知识很快就会被海水包围成一个个孤岛,最后连珠穆朗玛峰也将被淹没在海水之下。

这就是我出这本书,开设这门课程的原因。在我看来,这场人类认知革命的意义也许会超过印刷术的发明,也许会超过文字的发明,甚至只有人类产生语言可与之相比。请系好安全带,欢迎来到一个全新的世界。

 

原文:https://www.zhihu.com/market/albums/1159461003254173696/manuscript/1159466520353726464

- Posted in: AI

- Tags: , ,

0 条评论 ,14 次阅读

发表评论

  1. 既然来了,说些什么?

Top