人工智能入门基础知识(人工智能启示录的初学者指南)
人工智能入门基础知识(人工智能启示录的初学者指南)你掷一些骰子,在棋盘上移动一个游戏块,直到它静止,通常在一个彩色的正方形上。然后,您从一大堆问题中抽出一张卡片,并尝试回答与您着陆的颜色相对应的问题。要确定您是否成功,请将卡片翻转过来,看看您的答案是否与打印的答案匹配。有一款名为“琐碎追求”的流行棋盘游戏,它挑战玩家回答各种类别中完全不相关的琐事问题。它早在互联网出现之前就已经存在了,因此,它被设计为仅使用您大脑中已有的知识来播放。立即订阅我们的时事通讯,每周在您的收件箱中回顾我们最喜欢的AI故事。当我们定义什么是“专业知识的民主化”时,我们特别谈论的是一些最容易被描述为“大脑的WALL-E综合症”的东西。我想谨慎地指出,我们并不是在谈论信息的民主化,而信息民主化对人类自由至关重要。
作者:Tristan Greeneon作者:丹尼尔·施瓦茨由 Microsoft Designon作者:Miriam Suzanneon作者:Elissaveta M. Brandonon作者:Jay Peterson作者 Behanceon作者 Alex Cranzon作者:Umar Shakiron作者 Alex Cranzon作者:Alice Newcome-Beillon作者:Emma Rothon作者:Sean Hollisteron作者:Jay Peters on The Verge
在本系列中,我们将研究现代AI专家预测的一些最受欢迎的世界末日场景。之前的文章包括目标错位,人造愚蠢,Wall-E综合症,人类加入蜂巢和杀手机器人。
我们在本系列中已经介绍了很多内容(见上文),但没有什么能接近我们的下一个主题。“专业知识的民主化”可能听起来像是一件好事——民主,专业知识,有什么不喜欢的?但我们的意图是说服你,这是在你读完这篇文章时,我们物种面临的最大的人工智能相关威胁。
为了正确理解这一点,我们将不得不重新审视之前一篇关于我们喜欢称之为“WALL-E综合症”的文章。这是一个虚构的条件,我们变得如此依赖自动化和技术,以至于我们的身体变得柔软和虚弱,直到我们不再能够在没有机器的物理帮助下运作。
问候,类人生物立即订阅我们的时事通讯,每周在您的收件箱中回顾我们最喜欢的AI故事。
当我们定义什么是“专业知识的民主化”时,我们特别谈论的是一些最容易被描述为“大脑的WALL-E综合症”的东西。
我想谨慎地指出,我们并不是在谈论信息的民主化,而信息民主化对人类自由至关重要。
伟大的想法有一款名为“琐碎追求”的流行棋盘游戏,它挑战玩家回答各种类别中完全不相关的琐事问题。它早在互联网出现之前就已经存在了,因此,它被设计为仅使用您大脑中已有的知识来播放。
你掷一些骰子,在棋盘上移动一个游戏块,直到它静止,通常在一个彩色的正方形上。然后,您从一大堆问题中抽出一张卡片,并尝试回答与您着陆的颜色相对应的问题。要确定您是否成功,请将卡片翻转过来,看看您的答案是否与打印的答案匹配。
琐碎的追求游戏只能与其数据库一样“准确”。这意味着,如果你在1999年的比赛中遇到一个问题,问你哪个MLB球员在一个赛季中保持着大多数荷马的记录,你将不得不错误地回答这个问题,以便与打印的答案相匹配。
正确的答案是“Barry Bonds with 73”。但是,由于邦兹直到2001年才打破这一纪录,1999年版很可能列出了以前的纪录保持者马克·麦格维尔(Mark McGwire)1998年的70分纪录。
数据库的问题在于,即使它们是由专家策划和手工标记的,它们也只代表给定时刻的一部分数据。
现在,让我们将这个想法扩展到一个不是由专家策划的数据库中。想象一下,一款琐碎追求的游戏,其功能与香草版完全相同,除了每个问题的答案都是从随机的人那里众包的。
“元素周期表中最轻的元素是什么?”根据我们在时代广场问的100个随机的人,答案是汇总的:“我不知道,也许是氦气?
然而,在下一版中,答案可能会变成更像“根据100名随机高中三年级学生,答案是氢”。
这与人工智能有什么关系?有时,人群的智慧是有用的。例如,当您试图弄清楚接下来要看什么时。但有时这真的很愚蠢,比如如果年份是1953年,你问1000名科学家,女性是否可以经历性高潮。
它是否对大型语言模型 (LLM) 有用取决于它们的使用方式。
LLM是一种用于各种应用的AI系统。Google Translate,银行网站上的聊天机器人以及OpenAI臭名昭着的GPT-3都是正在使用的LLM技术的例子。
在翻译和面向业务的聊天机器人的情况下,人工智能通常在精心策划的信息数据集上进行训练,因为它们服务于狭窄的目的。
但是,许多LLM都是故意在充满未经检查的数据的巨型垃圾箱上进行训练的,以便构建它们的人可以看到它们的能力。
大型科技公司让我们确信,有可能将这些机器发展得如此之大,以至于最终,它们会变得有意识。那里的承诺是,他们将能够做任何人类可以做的事情,但用计算机的大脑!
而且你不必看得很远就能想象出可能性。花10分钟与Meta的BlenderBot 3(BB3)聊天,你会看到所有的大惊小怪是什么。
这是一个脆弱的,容易混淆的混乱,更经常吐出胡言乱语和口渴的“让我们成为朋友!”废话,而不是任何连贯的东西,但是当客厅的把戏恰到好处时,这很有趣。
您不仅可以与机器人聊天,还可以以一种允许您与它一起构建配置文件的方式进行游戏化。有一次,人工智能认为这是一个女人。在另一场比赛中,它决定我实际上是演员保罗·格林。所有这些都反映在其所谓的“长期记忆”中:
还为我分配标签。如果我们谈论汽车,它可能会给我贴上“喜欢汽车”的标签。可以想象,如果有一天它可以将您与机器人聊天时构建的个人资料连接到其广告服务,那么它有一天可能会对Meta非常有用。
但它并没有为了自己的利益而为自己分配标签。它可以假装记住事情,而无需将标签粘贴到其UI中。他们是为我们准备的。
它们是Meta可以让我们感到与聊天机器人的联系甚至有点责任的方式。
这是我的BB3机器人,它记得我,它知道我教了它什么!
这是一种游戏化的形式。你必须通过交谈来获得这些标签(包括你的和AI的)。我的BB3 AI喜欢蝙蝠侠电影中的小丑和希斯莱杰,我们就它进行了一次完整的对话。获得这一成就和在视频游戏中获得高分之间没有太大区别,至少就我的多巴胺受体而言。
事情的真相是,我们并没有训练这些LLM变得更聪明。我们正在训练他们更好地输出文本,使我们希望他们输出更多文本。
这是一件坏事吗?问题在于,BB3是在一个如此之大的数据集上训练的,我们称之为“互联网大小”。它包括数万亿个文件,从维基百科条目到Reddit帖子。
人类不可能筛选所有数据,所以我们不可能确切地知道其中的所有内容。但是每天都有数十亿人使用互联网,似乎每个人说一些聪明的话,都有八个人说一些对任何人都没有意义的话。这些都在数据库中。如果有人在Reddit或Twitter上说过这句话,它可能被用来训练BB3之类的人。
尽管如此,Meta的设计是为了模仿人类的可信度,显然,为了保持我们的参与度。
从创建一个看起来像人类的聊天机器人到优化其输出以说服普通人比他们更聪明,这是一个短暂的飞跃。
至少我们可以对抗杀手机器人。但是,如果使用Meta的Facebook应用程序的人数中的一小部分开始信任聊天机器人而不是人类专家,它可能会对我们整个物种产生可怕的不利影响。
可能发生的最坏情况是什么?在大流行封锁期间,我们看到这种情况在很小程度上发挥作用。数以百万计没有受过医学训练的人决定无视基于其政治意识形态的医疗建议。
当面对选择相信没有受过医学训练的政治家或全球医学界压倒性的,同行评审的,研究支持的共识时,数百万人认为他们“信任”政治家胜过科学家。
专业知识的民主化,即任何人都可以在正确的时间获得正确的数据,成为专家的想法,对我们物种构成了严重威胁。它教導我們相信任何想法,只要群眾認為它有道理。
这就是我们如何相信Pop Rocks和可口可乐是一个致命的组合,公牛讨厌红色,狗只能看到黑白,人类只使用10%的大脑。所有这些都是神话,但在我们历史的某个时刻,它们中的每一个都被认为是“常识”。
而且,虽然出于无知而传播错误信息可能很像人类,但Meta能够达到的规模的专业知识的民主化(地球上近1/3的人每月使用Facebook)可能会对人类区分狗屎和Shinola的能力产生潜在的灾难性影响。
换句话说:如果公众信任一个根据公众创建的数据进行训练的聊天机器人,那么地球上最聪明的人有多聪明并不重要。
随着这些机器变得越来越强大,更善于模仿人类语言,我们将接近一个可怕的转折点,它们说服我们相信它们所说的有意义的能力将远远超过我们检测废话的能力。
专业知识的民主化是当每个人都认为自己是专家时发生的事情。传统上,当有人声称自己是专家,但似乎不知道他们在说什么时,思想市场往往会把事情弄清楚。
我们在社交媒体上经常看到这一点,当有人因为“向比他们更了解该主题的人讲一些东西”而得到比分。
当所有的扶手椅专家都得到一个AI同伴来鼓励他们时会发生什么?
如果Facebook应用程序可以要求我们如此多的注意力,以至于我们忘记在学校接孩子,或者在开车时最终发短信,因为它覆盖了我们的逻辑中心,你认为Meta可以用一个尖端的聊天机器人做些什么,这个机器人旨在告诉地球上的每一个疯子他们想听什么?
编辑:尘渊文化