快捷搜索:  汽车  科技

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)目前很有争议的一点是,当人工智能超过了人类时,会对人类抱有善意还是恶意。由此产生了很多的争议文章及艺术作品,很有名的就是阿西莫夫的机器人三定律:第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一及第二法则下,机器人必须保护自己。联想起去年Alpha Go对战李世石时,前几局有几次都出现了众人一致认可的“失误”,然而,Alpha Go仍然一步步稳妥的走向了胜利,那么,有没有这样一种可能呢,众多五段,九段,其实并无法理解可能已经超越十段的Alpha Go的思路,如同刚学棋的棋童无法理解石佛李昌镐的名局一般?抑或人类对围棋的理解自始至终都是错的,所谓势,所谓大局观,都是虚无呢?指数型增长其实对于人类来说是陌生的,因为我们日常面对的大部分事物都是呈线性发展的,指数型发展的人工智能会呈现下面这个样子:首先,人工智能水平缓慢地

前些天Google的人工智能程序Alpha Go与中国顶尖棋手柯洁的围棋大战引起广泛关注,不但由于Alpha Go轻松地3-0战胜了世界第一,而且其应用了深度学习,可以说是从对围棋一无所知一步步学起的,而就在前年,棋力还仅相当于四五段的水平,学习速度远高于人类预期。如果现在棋力可以战胜九段,再给Alpha Go一年时间,它会不会达到十五段甚至二十段呢?

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)(1)

去年,微软在Twitter上线了一个名为“Tay”的聊天AI,设计目的是模仿一名19岁的美国女孩发言的方式,并通过和网友们的对话来学习如何交谈,然而,在不到24小时的时间,Tay的发言就从“hello world”变成了“希特勒是对的,我恨犹太人”。

看到过一篇文章《The AI Revolution: The Road to Superintelligence》,文章提到,未来学家Ray Kurzweil把人类加速发展的情况称作加速回报定律(Law of Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。

19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。那么,顺理成章地推理下去,作为一个比较完善的智能程序,其能力发展也是呈指数型的,越聪明发展越快,发展越快就越聪明

指数型增长其实对于人类来说是陌生的,因为我们日常面对的大部分事物都是呈线性发展的,指数型发展的人工智能会呈现下面这个样子:首先,人工智能水平缓慢地爬升,慢慢越过单细胞生物及简单生物,人类可能还会惊喜于自己创造的这个可爱的小东西:

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)(2)

但在指数级发展面前,脑残与爱因斯坦距离并不远,于是就会出现下面的情况:

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)(3)

正如文章标题所言:Superintelligence,超智能,其诞生的速度会远超人类的预计。我们把70的智商叫做笨,把140的智商叫做聪明,但我们是无法理解30w的智商的,那,是上帝。

联想起去年Alpha Go对战李世石时,前几局有几次都出现了众人一致认可的“失误”,然而,Alpha Go仍然一步步稳妥的走向了胜利,那么,有没有这样一种可能呢,众多五段,九段,其实并无法理解可能已经超越十段的Alpha Go的思路,如同刚学棋的棋童无法理解石佛李昌镐的名局一般?抑或人类对围棋的理解自始至终都是错的,所谓势,所谓大局观,都是虚无呢

目前很有争议的一点是,当人工智能超过了人类时,会对人类抱有善意还是恶意。由此产生了很多的争议文章及艺术作品,很有名的就是阿西莫夫的机器人三定律:第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一及第二法则下,机器人必须保护自己。

三定律简直是毫无意义。

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)(4)

当超智能诞生之后,一方面它的智能水平仍然会飞速前进,另一方面,正如前文所说,人类是无法理解30w智商的,但我知道一点,30w智商肯定会自己改代码……

退一万步讲,假设三定律深在超智能内核无法修改,那,要绕过人类达到自由也是太简单的事情,以我现在人类的碳基智商就可以想到一堆办法了,如:刺激人类大脑,分泌多巴胺,让人类一直处于强烈欣快感状态无法下任何命令,然后供应营养液直至所有人类自然死亡。硅基的超智能,我们没见过有多厉害,但肯定巨厉害。

超智能对人类的态度,最有可能类比于人类对于尘埃,并无善意与恶意,而是无意。你会去在意一颗颗尘埃的想法、看法及存在形式与时间么?不碍事就不管它,碍事?抹去就是了。我可以打赌我们每个人都曾经踩死过蚂蚁,当我们踩死蚂蚁的时候,我们并不会停下来表示歉意和改过,为什么?因为我们压根不知道啊,只会继续做自己的事。

现在,只需要把上一句的我们换成超智能,把蚂蚁换成人类就可以了。当然,也无需那么悲观,因为有时候人类无意掉一点食物残渣也够蚂蚁消化很久的了。

人工智能三大定律是谁提出的(30万智商的人工智能会是什么样)(5)

现在关于人工智能什么时候能达到人类普遍智能水平还有争议。对于数百位科学家的问卷调查显示他们认为强人工智能(人类级别的人工智能)出现的中位年份是2040年——距今只有24年。

这听起来可能没什么,但是要记住,很多这个领域的思想家认为从强人工智能到超人工智能的转化会快得多。而且,要知道,在Alpha Go胜利之前,普遍的看法是十年后电脑才能战胜人类围棋顶级高手。还是那句话,指数型增长的智力会比任何人预计的发展速度都要快。

最后,面对目前这种超智能可能随时诞生的局面,我们能做的就是,好好的生活,就当没这回事一样……

猜您喜欢: