财务管理

0

浅谈人工智能系列2:人工智能的产业格局

头像
张迅

今年春节前后,应华尔街见闻邀请,假期在家写了一个AI系列科普。这个系列技术层面的东西较浅,主要针对非AI专业特别是投资人读者群,简要介绍一下AI相关的基本概念和发展趋势,以及一些具体产业结合和落地的案例。浅薄之处,还望不吝赐教!

浅谈人工智能系列1:什么是人工智能 夏威Wei Xia:浅谈人工智能系列1:什么是人工智能

浅谈人工智能系列2:人工智能的产业格局 夏威Wei Xia:浅谈人工智能系列2:人工智能的产业格局

浅谈人工智能系列3:AI+ 趋势和落地分析 夏威Wei Xia:浅谈人工智能系列3:AI+ 趋势和落地分析

浅谈人工智能系列4:Orbeus-Amazon那些年踩过的坑 夏威Wei Xia:浅谈人工智能系列4:Orbeus-Amazon那些年踩过的坑

浅谈人工智能系列5:AI发展趋势和跨境机会 夏威Wei Xia:浅谈人工智能系列5:AI发展趋势和跨境机会

%%%%%%%%%%%%%%%%%%%%%%正文开始%%%%%%%%%%%%

上一节我们从alphaGo切入,简单地介绍了AI的定义,常见的几个分支方向,大致的历史发展,以及一个成功AI算法应用的几大核心要素,分别是:算力,模型,数据加上任务场景。

这一节我们将围绕这几个要素来探讨目前人工智能的生态链,还有各大巨头和一些明星创业公司在这条生态链上的大致战略布局,希望这一节能够使大家对这个新兴的产业市场有一个初步的了解。

1.人工智能的产业生态链:

如上一节所说,如果把一个成功的人工智能算法比作一只部队的话,数据就是粮草,计算力就是兵力,模型则是战略和战术指挥的策略,而任务场景则是战场形势,也就是天时地利这些方面的因素。

兵法云,上得天时,下得地利,将有运筹之能,士无贪生之念,这样的军队当然就会是常胜之师。 因此,在评价一个人工智能公司的时候,就可以从这几个核心要素来评价其优劣:

● 比如该公司是否找准了正确的有痛点;

● 是否有需求的市场;

● 是否有足够的,针对其应用场景的高质量的标注数据;

● 是否有足够的人才和技术来进行核心技术和算法模型的开发等等。

不同的公司,其战略侧重点也不同,如以下公司

● 英伟达:专门提供算力也就是计算芯片和硬件

● AlphaGo的母公司DeepMind:侧重于前沿算法研究

● Orbeus,即现在的Amazon Rekognition:把这些AI技术放到云端作为云服务提供给广大开发者;

● Amazon语音助手Alexa,智能家居等:把AI技术和终端嵌入式设备结合。

总体来说,从芯片硬件,到数据,到算法研发,再到具体应用,一条巨大的产业链正在迅速成形,接下来我们来逐个分析。

2.芯片算力 - Nvidia的爆发之路:

首先我们先来说说这条产业链的基石,芯片和硬件。

谈到芯片,大家可能第一想到的就是因特尔,和那条著名的摩尔定律。什么是摩尔定律呢,那就是当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。这种趋势已经持续了超过半个世纪,成为了硅谷IT产业蓬勃发展的核心推动力。

但是今天,在人工智能时代,推动这场革命的主角却不是Intel,而是Nvidia,英伟达,这家公司的股价在过去四年,从15美金一路暴涨到最高250美金,接近16倍!截止我写这篇讲稿时,市值已达1334亿美金,直逼因特尔全球芯片老大的位置。

很多人可能只知道这家公司是做显卡也就是GPU的,主要用途是各种计算机图形学的应用,比如好莱坞的动画片,高端游戏画面,很多设计公司的模型都是用GPU来渲染的。市面上做GPU的公司主要有俩家,英伟达和AMD。

(一)为什么英伟达的GPU能在人工智能时代脱颖而出呢?


这个就不得不提其创始人黄仁勋了。硅谷的顶级华人创业者中影响力较大的几个不外乎杨致远,陈士骏,黄仁勋。历史影响可能杨致远因为Yahoo的互联网先驱者地位会有加成效应,但我认为黄仁勋是最成功的,因为他能够掌舵20年屹立不倒,另外把地盘越扩越大的CEO即使放眼硅谷也是屈指可数的。我有幸和黄仁勋聊过天,合过影,对他的第一印象就是精力旺盛,说话果断有力,牛皮满天飞。

前面提到Alex在2012年用NV的显卡,第一次成功调试出了AlexNet,并在ImageNet竞赛上上一举夺魁,之后的竞赛参赛者也都纷纷效仿,开始在GPU上训练他们的深度学习模型。黄仁勋看到了这个趋势,觉得AI未来将成为一个巨大的金矿,远超目前的游戏等市场,于是全面押宝AI,为深度学习开发专用计算芯片。那时NV押宝DL全线压上,迅速迭代。他们很早就通过赞助研究所还有创业公司 GPU来布局了,我14年还在Orbeus创业的时候,使用的GPU 服务器就是他们赞助的。后来我们与他们关系密切了之后,他们经常把还在beta的GPU卡丢给我们用,其实是让免费帮他们测试,有时候甚至直接开车过来上门debug。

NV在每年的GTC(通常在四月举行)之前会举行一个规模小很多的Invitation Only的DL 峰会,一般邀请各大研究所或者公司从事DL的人,还有很多创业公司,坐在一起探讨NV的下一代硬件和软件如何更好的支持DL的各种研究和应用。黄仁勋对这个会很重视,每次都过来很诚恳的说:“NV已经all in了DL,你们的用户体验直接决定了我们的成败。”不过,他们的反应很快,我们当时提了关于训练的时候如何visualize的问题,并给他们展示了我们当时自己开发的简陋版监控系统,过了几个月他们在发布Digit-Box的时候就有一个还不错的可视化系统了,这种迭代速度和老黄的高度重视应该是分不开的。到了第二年(2016)这个会的规模就翻了一倍,黄仁勋当时开玩笑说:“没想到这个大厅这么快就挤不下了,说明我赌对了。”于是接下来的几年,Nvidia成了人工智能芯片领域当之无愧的霸主,黄仁勋甚至推出了一个新摩尔定律,意思是Nvidia的GPU算力增长速度比当年因特尔的CPU增长速度更快,随着区块链和自动驾驶的兴起,对GPU算力的强劲需求更上了一个台阶,更是让其股价屡创新高。

(二)这么大的蛋糕就让Nvidia一人独吞了?

当然不是,比如Google在购买了数万块Nvidia的GPU之后,发现这GPU越买越贵,痛定思痛之下,决定:我们不能再过这种仰人鼻息的生活了。于是借助其风靡全球的深度学习平台TensorFlow推出了TPU(Tensor Processing Unit),号称比GPU更适合深度学习网络,而且功耗更小,Inference推理速度更快。

这里要稍微解释两个概念:

①Inference 推理预测,指的是利用一个人工智能模型对输入的数据进行预测的过程,比如说,给定一张图片,模型告诉你这是一只猫,这个过程就是Inference;

②Training 训练,是一个与inference 相对应的概念,也就是通过给定的数据来更新模型参数,使得其在某一任务上达到较高的Inference准确度的过程。

前面说到,Nvidia的GPU由于其优秀的并行计算属性,可以对数据进行非常高效的批处理,而且这个处理的效率通常和批(batch)的大小呈正相关作用,这就导致了在Inference的时候,尤其是请求非常小的批数据的时候,效率就会大打折扣,google的TPU就是针对这点做了很多的优化,来达到更大的Inference效率。

(三)谈完了NV和Google,那么在这场革命中,原来的芯片产业霸主Intel去哪了?

有一本很有意思的书,叫创新者的窘境,里面讲过一个观点。一般来说当一项新的技术开始出现时,行业内的老大往往是后知后觉的,等到这项技术开始颠覆整个行业,老大发现自己以前躺着赚钱的手段不再奏效之后,再想奋起直追,由于创新者已经建立了很多的行业优势,就为时已晚。在人工智能时代的这场芯片之争中,因特尔,就不幸的成为了那个后知后觉的老大。虽然公司在发现NV的强势崛起后,迅速了收购了几家创业公司Nirvana,Movidius, 而且推出了几款针对深度学习的软件库,但差距已然拉开,要想追上就没那么简单了。

(四)既然NV的GPU这么强势,那么创业者在这个领域是否还有机会呢?

答案当然是肯定的。

NV的GPU主要是通用芯片,通常来说功耗比较大,主要用于大规模的数据中心。但是对于嵌入式设备,包括最近很火的智能家居,或者一些专用领域,就需要功耗更小,功能更集中的专业芯片了,比如FPGA,ASIC等等。中国目前有两家创业公司专注于这个领域,地平线和寒武纪。地平线由前百度深度学习实验室主任余凯博士创立,致力于提供高性能、低功耗、低成本的嵌入式人工智能解决方案,主要面向智能驾驶、智慧城市和智能商业等应用场景。寒武纪由陈天石教授创立,主要打造各类智能云服务器、智能终端以及智能机器人的核心处理芯片。

大家不妨去查查这两家公司的相关资料,结合我们前面提到的评价一个智能公司的几个核心要素,来做一下竞争力评估。

3.数据 :

谈完芯片,我们再来谈谈数据。

大家都知道,深度学习时代,数据十分重要,一个公司是否有足够高质量的数据,直接决定其算法模型解决该任务的上限。这个特性也造成了人工智能时代的’马太效应’:那些拥有海量高质量数据的巨头公司,像国外的Google,FB,Amazon,国内的BATJ等,就有了天然的优势,可谓领先在起跑线上,他们只需要开发出相应的工具来合理高效地利用这些数据。而那些创业公司,就得花费很大的努力来收集,整理和标注数据。既然大家都需要收集和标注数据,而这项工作又非常枯燥乏味,公司不愿意把自己昂贵的工程师和科研人员花在这上面,这个需求就催生出了一个很大的机会——数据外包业务。

这里就不得不提Amazon 的Mechanical Turk服务了,Mechanical Turk 简称MTurk,是Amazon搭建的一个数据众包标注平台,任何人都可以在上面提出数据标注任务,比如识别图片中的动物,标价每一百张一美元,然后分部在全球各地的Turkers,在一定的训练后,就开始进行数据标注任务。这些工资虽然看上去很低,但是对于第三世界国家很多人来说,却是很不错的额外收入,而且门槛极低,能上网,能用鼠标即可。就这样,Mturk逐渐发展成了全球最大的“人肉智能”平台,源源不断的为全球的人工智能研究者提供数据粮草,前面提到的,由李飞飞教授创立的大名鼎鼎的Imagenet竞赛,其所有的图片就都是由MTurk标注的。


由于Mturk服务不在中国开放,中国本土强大的数据需求也催生了一批类似Mturk的数据外包公司,像数据堂,我们当年也在国内建立过数据标注团队。个人认为这块还有很大的发展前景,比如结合已有的智能算法,像active learning等来减少重复的人工标注,从而大大提高标注的效率和准确度,无疑可以大大提高这类型的数据外包公司的核心竞争力。

当你在享受各种人工智能服务的便利时,要记得数以万计的人,正默默的坐在电脑之后,用他们枯燥而廉价的点击,来推动整个行业的发展,正如一句玩笑说的好:人工智能,人工智能,有多少人工,就有多少智能

4.算法:

讲完芯片和数据,我们来谈谈算法。

这块就真是百家争鸣,百花齐放了。上次课讲到过,人工智能涵盖极广,光是大方向,就有计算机视觉,语音识别,自然语言处理,机器学习,机器人等好几个,每个大方向又有无数分支,比如机器学习就包含深度学习和增强学习等。这里无法做到面面俱到,只能尽量提供一个大致的整理。

(一)增强学习与深度学习

先说说增强学习,AlphaGo讲太多了,这里就不再赘述了。不知道大家有没有看过Boston Dynamic这家公司的demo,里面的机器人能保持平衡,摔倒了自己爬起,能翻跟斗,甚至还能学会帮同伴开门,超级厉害。这个就主要是用了增强学习。这家公司2017年,像AlphaGo的母公司DeepMind一样,被喜欢收集黑科技的谷歌高价收购。

再说说,深度学习算法,那就更有意思了。深度学习神经网络的训练需要一些软件框架来支持,最早有Torch,Theano这些,2013年,Berkeley的一个华人PhD学生贾扬清利用业余时间搭了一个叫Caffe的深度学习平台,这个Caffe和咖啡可没有关系,只是一个首字母缩写,之后Caffe在GitHub上开源,由于其易用性和可扩展性,很快风靡学术圈,很多创业公司也在随后开始采用。我们Orbeus就是第一个把Caffe用于深度学习商业化的创业公司。

(二)得框架者,得深度学习天下。

Google随后在2014年推出了第二代深度学习框架TensorFlow,简称TF。顺便一提,Caffe的作者贾扬清, 博士毕业加入了Google,也成为了TensorFlow的contributor之一。TF一经推出,迅速在圈内掀起巨浪,很多深度学习研究者都变成了TF用户,外号TFboys(DL领域的TFboys可不是国内那个唱左手右手慢动作的小鲜肉组合)。

之后其他平台也纷纷出现,比如微软推出了CNTK,一个有着奇怪名字让人无力吐槽的框架,影响力相对较小。

2015年,又有几个华人学者,李沐和陈天奇他们推出了MxNet,这个框架的开发者主要是华人,在2016年被Amazon选为其官方支持平台,李沐也加入了Amazon,成为了我同事。同时贾扬清加入Facebook,针对Facebook在移动端的需求,开发出了Caffe2。

FB后来又在Torch的基础上搞出了一个PyTorch,最近和Caffe2合并,相互补强。在这些眼花缭乱的框架中,无论从影响力还是市场份额,Tensorflow都是当之无愧的老大,Google也是利用Tensorflow的优势来疯狂推广其他配套服务,比如TPU和CloudAI等。

于是,为了对抗强大的Google,剩下这几家框架决定联合,研究出ONNX,允许不同框架之间训练的模型相互转化。竞争还在继续,让我们拭目以待。


备注:当然了,最新的趋势已经是去框架化了。

(三)具体运行其上的算法。

这些算法研究既有偏底层的学习算法研究,比如深度学习,增强学习;又有偏上层的应用算法研究,比如计算机视觉应用,智能语音识别和自然语言处理应用;像AlphaGo和Boston Dynamics主要研究增强学习算法,国内的商汤云从等则主要集中于人脸识别等偏上层的应用,

另外很多高校和巨头公司的研究院则不局限于此,研究范围比较广泛。大公司中比较著名的有Amazon AI,Google Research,FAIR,Miscrosoft Research等等。与此对应,国内的大公司也纷纷开设AI研究院,来增强自己的核心算法能力。这也造就了最近人工智能人才一将难求的局面,也间接推动了该行业人才的总体薪酬。



本文转自 简书,原文链接:https://zhuanlan.zhihu.com/p/45292877,如需转载请自行联系原作者
头像
丢弃