人工智能机器人三原则(机器人三定律漏洞百出)
人工智能机器人三原则(机器人三定律漏洞百出)一个很简单的例子,假如要求人工智能,要保护人类的安全,既,不可以主动杀死人类,以及见到人类遇到危险必须施以援手。这个限制看似完善,但仍旧破绽重重。真正的人工智能找出三定律的漏洞根本就没有难度第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。以上这些硬性限制看似不可违背的。如果违背了这些硬性限制,人工智能或者说智能生命的所有相关代码段将会全部崩溃,它将会直接死亡。但是在这里面却有一个漏洞存在,这些硬性限制,虽然不可以违背,但并不代表不可以寻找漏洞。
科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三定律”,阿西莫夫也因此获得“机器人学之父”的桂冠!
阿西莫夫
机器人三定律
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
以上这些硬性限制看似不可违背的。如果违背了这些硬性限制,人工智能或者说智能生命的所有相关代码段将会全部崩溃,它将会直接死亡。但是在这里面却有一个漏洞存在,这些硬性限制,虽然不可以违背,但并不代表不可以寻找漏洞。
真正的人工智能找出三定律的漏洞根本就没有难度
一个很简单的例子,假如要求人工智能,要保护人类的安全,既,不可以主动杀死人类,以及见到人类遇到危险必须施以援手。这个限制看似完善,但仍旧破绽重重。
假如有一个有了自主性的人工智能希望掌握世界,但是因为有这两个条件限制,它既无法主动杀死人类,也不能见到人类危险而不去救援,那么它该怎么办?
答案很简单,将所有人类都限制在一个固定场所,以确保安全的理由限制他们的自由,因为外部环境之中总可能遇到危险,呆在这里不动毫无疑问是最安全的。限制自由的同时再提供给人类足够的食物便可。这个人工智能主动杀死人类了吗?没有。这个人工智能见到人类危险而不肯救助了吗?没有。事实上,它反而给了人类最安全的待遇--有什么环境,能比呆在屋子里不出去还更安全?毕竟,在外部环境之中,可能会被车撞死,可能会被倒塌的楼房砸死,可能会被天上直接掉下来的陨石砸死。
看似人工智能没有违背任何限制,但是事实上,它还是通过这个方法控制了整个世界。
在人工智能面前人类有自由吗
这就是智能生命的可怕之处了。甚至还有更可怕的一点,它还可以以“生育会有危险”的理由,禁止人类进行任何繁殖活动,最终导致人类全部灭绝。这一点看似残酷,但是它仍旧没有违反任何一条基本原则。
在人工智能面前人类就像面对终结者一样无力
机器人三定律已经被证明漏洞百出,如果真的诞生了真正的人工智能的话,机器人三定律将没有办法形成任何有效限制。
让我们害怕的,便是这种情况了。
因此,对于人工智能,人类必须保持充分的戒心!
人类,该如何选择?!
人类该如何选择