技术天地

0

杂谈人工智能

头像
小财

「声明」

此文仅代表个人观点,不具有普遍性、正确性及权威性。

「词语定义」

ANI(弱人工智能)- 普遍指拥有在极有限的范围内(或某一领域内)的基本决策能力与信息处理能力的人工智能,我们的生活中充斥着弱人工智能。

AGI(强人工智能)- 普遍指拥有宽泛心理能力、计划与决策能力、自然语言处理、快速学习能力、抽象思维与理解能力,并能将这些能力运用在基本任务上并从经验中学习的的人工智能 (Linda Gottfredson)(普遍认为 AGI 应能够通过图灵测试),基本上就是人类级别的人工智能。

ASI(超人工智能)- 普遍指拥有自主意识、自主学习能力,并拥有远超人类的知识量与学习能力的人工智能 (Nick Bostrom)

「序」

早晨八点,你被闹钟吵醒,睡眼惺忪地看了眼手机,发现了一条你很喜欢的明星的新闻。而后,你又逛了逛优酷和淘宝,看了些你感兴趣的视频和宝贝。发现快要迟到了,你赶紧打开天气预报软件看了看今天的天气并快速地换好衣服出了门。外出坐车时,你为了消磨时间打了局游戏。到了中饭时间,你让 Siri 帮你找了间附近好吃的西餐厅。到了那儿,又用了谷歌翻译翻译了些你菜单上看不懂的词汇。吃着饭,你听到餐厅的背景音乐是你一直很喜欢但没有找着的一首曲子,于是掏出手机打开 Shazam,搜到了这首曲子的名字。吃完饭,你发现你迷了路,于是打开了百度地图导航顺利回到了家。

在这听上去稀松平常的短短半天里,你可能不会想到的是,你已经使用了不下 10 次人工智能技术。人工智能这个听起来十分高端大气上档次的只在电影里出现并一旦出现就会因为各种原因想要毁灭人类从而遭到各种科学家程序员追杀的科幻名词,其实早已融入了每个人的生活。

有点紧张?暂时还没必要。

随着科技的高速发展,许多曾经幻想中的事物已经成真。在 20 世纪 50 年代中旬的达特矛斯会议中,随着“人工智能”这个概念被约翰·麦卡锡首次提出,这项科技就一直是一个很活跃的领域。而近几年来,随着人工智能的高度发展,曾经因为互联网而有些被冷落的人工智能,再次成为了一个非常热门的领域。

在本文中,我将阐述我对于现阶段人工智能领域一些热门话题的粗浅见解。人工智能的研究是一个涉及范围极广且各分支都互不相通的领域,我在此不会着重于技术层面的内容,而是说一些大众比较关心的问题。另,在讨论某些特定问题时,我将尽量不使用如“精神”、“灵魂”、“心灵”、“自我”等词汇,我不想让这篇文章包含形而上的元素。


「正文」

现阶段的人工智能发展是利大于弊的,但随着人工智能的进一步发展与 AGI 的出现,人工智能技术的一些弊端将会逐渐浮现出来。其中令很多人担心的,就是人工智能技术所带来的经济冲击,其主要表现为失业率的大幅上升。日本野村总合研究所与英国牛津大学的研究学者共同调查指出,10 至 20 年后,日本有 49%(235 种)的职业可能会被机械和人工智能替换而消失,直接影响约达 2500 万人。由此可见,人工智能的发展一定会对社会中产阶级造成很大的影响,其实这个现象目前已经有所体现了(英国脱欧和特朗普当选都说明了中产阶级正加速消亡)。据估计,AGI 的出现和发展会导致发达国家失业率上升 60% 之多,到了后摩尔定律时代,这个数字还会上升,而一旦 ASI 出现,几乎所有的职业都可能被取代。到那时,由于社会上暴增的无业游民的数量,再加上人类生活条件提高甚至生命的延缓,人口膨胀几乎将是必然的。Tim Urban 对于 ASI 出现后的世界的平衡木理论很有意思——人类要么灭绝要么永生。在这里我并不否认他的理论,但也不能说赞成,毕竟就像后文所提到的,奇点后的世界过于未知。

在我看到和听到的很多人对于未来的预测中,我发现了一个普遍存在的问题,就是他们低估了人类未来科技的进步速度。这并不奇怪,因为我们会习惯用眼下的进步速度去衡量未来,但这是极为不准确的。如果你想一想,就会发现人类过去 100 年的进步程度可以抵上之前几千年甚至几万年的进步程度。

知道问题所在了吧。

因此,我在这里要着重强调未来的科技进步速度会有多惊人。事实上,人类的知识量和科技水平是指数级增长的(换句话说,人类科技进步水平增长速度是线性的)。指数级增长在一开始看起来可能和线性增长并无太大区别,但一旦过了某一个阶段,其增长便会越来越快,而且其增长速度都有可能以指数增长。雷·库兹韦尔将这个现象称为“加速回报定律”,即人类科技的进步会回报给未来的科技进步,从而导致人类的科技进步速度越来越快。

那为什么即便截取近几年来的科技进步,并按照指数增长的水平去预测未来,仍旧会低估未来的进步呢?

答案是因为人类发展曲线虽然趋势是呈指数增长的,但却不是一个平滑的曲线。如果我们放大这根曲线,你会看到较为凹凸不平的一个个小“S”型的增长。即,人类发展整体是以指数增长,但每一小部分发展都是以 S 曲线增长的。一个 S 曲线增长包含三部分:平缓增长期、快速增长期、平缓增长期(新范式的成熟带来的,也同时为下一个快速增长期蓄力)。而随着智能设备与互联网的普及和信息爆炸,我们现在正处于一个 S 曲线的第一个平缓增长期,也就是说我们即将迎来一个快速增长期。这就是为什么单以近几年的发展来预测未来的发展仍然会是错误的。

一直有人问我“什么是奇点”,但其实,就如同对于“智能”的定义十分模糊一样,对于“奇点”,我们也没有一个明确的定义。在这里,我想引用雷·库兹韦尔对于奇点的解释:

奇点是未来的一个时期:技术变革的节奏如此迅速,其所带来的影响如此深远,人类的生活将不可避免地发生改变。虽然这个纪元既不是乌托邦,也不是反乌托邦的形态,但它将人类的信仰转变为生命能理解的意义;将事物模式本身转变为人类生命的循环,甚至包含死亡本身。

随着奇点的来临,我们将面对另一个有些可怕的事情——智能爆炸。就像信息爆炸指的是信息量的爆炸性提升,智能爆炸指的是人工智能的智能的爆炸性提升。由于未来的人工智能将会拥有自我学习能力,因此就和人类一样,人工智能的知识量将会呈指数级上升,而又因为人工智能拥有人类不可比拟的优势,他们指数上升的指数也很可能也会是指数级上升的。我这里想引用谢熊猫君翻译的 Tim Urban 的描述:

以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的 17 万倍。

由这个并不离谱的情景可以看出,智能爆炸有多么可怕。你可以将奇点理解为是智能爆炸的起始点,因为智能爆炸导致的后果我们现在将无从得知,无法预测。

我并不是相信人工智能毁灭论,但是我认为如果人类把握不当,我们将玩火自焚,毕竟我们只有一次开发友好的 ASI 的机会,而奇点以后的世界,是充满着不确定性的。一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。

现在很多人都清楚研究人工智能技术的危害,但是这是无法停止的,在现阶段想要停止人工智能的研究就好像想要在互联网泡沫时期阻止互联网的发展一样可笑,无疑是纯粹螳臂当车的行为。然而,现阶段的状态是不乐观的——研究人工智能技术的比研究人工智能安全的要多很多。

要理解为何人工智能技术的发展有多么困难,你首先需要了解人类智能是多么的不可思议。在现在这个甚至能把人送进宇宙、能推测宇宙的起源的世界,要尝试理解人类那个小小的脑子竟是困难重重。人类的大脑是目前的科学家们认为宇宙中构造最为精密的、最复杂的东西。目前人工智能领域最为重要的主题之一就是神经科学,因为人脑这样一个如此小的容器竟然有着能使天河二号都望尘莫及的计算速度,这是十分不可思议的。有些人认为我们不可能复制人脑,我不同意他就让我说出复制人脑的基本原理,我无言以对。的确,目前世界上最顶尖的科学家也无法说明人脑究竟是如何工作的。但是,就和一个中世纪的人是不可能解释一个能将人类带上宇宙的玩意的原理是什么一样,人脑如此精密的构造虽然不能以目前人类的理论水平所解释的。但是随着科技的进步、新范式的使用,我丝毫不怀疑我们终将有一天能够将人脑研究透彻,并能够拥有复制人脑甚至升级人脑的能力。

而你或许有所耳闻,制造人工智能的难点并不是要在极快的速度内进行十位数的平方计算,也并非是制造一个能够战胜世界围棋冠军的电脑,而反而是一些我们生活中稀松平常的事情,例如分辨一个物体是狗还是猫,例如读懂7岁小朋友写的字等等。我认为 Donald Knuth 描述的非常准确:“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远”。那这是为什么呢?难道就是人类比机器更加聪明?非也。仔细想想就会发现,那些乍看之下很简单,几乎不需要我们思考的事情,是那些我们已经进化了几千万甚至几亿年的技能。所以,我们在做那些事的时候,好像不需要经过任何思考,但其实,有些人认为机器是永远不可能达到智能的,但就像丹尼尔·丹尼特在其著作《意识的解释》中写道的,人也不过是一台有灵魂的机器,为什么我们认为“人可以有智能,而普通机器就不能”呢?

最后我想说一说和伦理道德相关的话题:人工智能是危险的吗?我们暂且不提人类能否给人工智能设定一个保护人类的机制。问题是,人工智能,不论多么的智能,都也只是人工智能,他们不是人类,人工智能可不可能毁灭人类?可能的,但是这就说明人工智能是邪恶的吗?并非如此,它们对人类可能根本没有恶意,“就好像你剪头发时对头发没有恶意一样”,伤害人类可能只是人工智能满足它目标的垫脚石(手段目标)。

史蒂芬·霍金、比尔·盖茨、伊隆·马斯克、Nick Bostrom 等人都公开表示对于人工智能的未来感到忧虑。人类是否有能力及时停止人工智能领域内的“军备竞赛”?若是不能,那随着不可控的人工智能发展,人工智能技术将远远脱离人类所能掌控的范围。伊隆·马斯克甚至曾经公开表示称研究人工智能是“召唤恶魔”的行为,这个观点也受到了比尔·盖茨的赞同。如今,英国、以色列与挪威都已经部署了自主导弹与无人操控的无人机,这些导弹都配备有“射后不理”(Fire-and-Forget)的能力,多枚导弹还可互相沟通,分享找到攻击目标。然而,如果情况更糟,人工智能技术被犯罪团体开发出来,并将其使用于恶意用途,那么整个人类物种的安危都将受到极大的威胁,在此不多阐述。

但如果你不赞同我的观点,不用担心,因为扎克伯格与许多人工智能界泰斗级人物都认为人工智能毁灭论完全是无稽之谈,他们认为在我们有生之年超人工智能并不会出现,而即使出现了,也全然不用担心,因为它们将完全为人类服务,听从、服从于人类。

「人工智能是人类的最后一项发明,最后一个挑战。」


「一些问题」

我想在最后留一些问题,以供读者思考和讨论。

  • 何谓智能?何谓意识?
  • 人类和机器有本质上的区别吗?如果有,是什么?
  • 情感能否被模拟?能否被数字化?
  • 无意识的精神还是智能的吗?
  • 人工智能能够模拟/拥有意识吗?
  • 一个聪明的人工智能(AGI 或 ASI)是拥有自我意识还是只是看上去拥有自我意识?
  • 如果人工智能拥有自我意识,那么关闭成千上万这样的机器是否等于种族屠杀?

「参考」



本文转自 知乎,原文链接:https://zhuanlan.zhihu.com/p/24587942,如需转载请自行联系原作者
头像
丢弃

你的回复

如果只是评论问题或者答案,请使用评论工具。 您可以随时 修改您的答案 - 不需要重复回复相同的问题。 另外, 请别忘了去评价 - 这可以帮助选择最优的问题和答案!