在今天的专栏中,我探讨了一个发人深省的理论:一旦人工智能成为AGI(通用人工智能)或ASI(人工超级智能),人类将大规模分裂成各种激进派别。为什么会发生这种情况?声称的理由是,由于对尖端人工智能作为某种神谕或先知的狂热信仰,人们将完全分裂。无论 AGI 建议人们做什么,他们都会去做。

这种反应可能会让人类与他人产生矛盾,因为人工智能的建议不一定旨在保持一致性或关心人类的福祉。事实上,尖端人工智能会竭尽全力安抚人类,以至于每个人最终都会互相掐死。

我们来谈谈吧。

对人工智能创新突破的分析是我正在进行的《福布斯》人工智能最新发展专栏报道的一部分,包括识别和解释各种有影响力的人工智能复杂性(请参阅此处的链接)。

迈向 AGI 和 ASI 的路上

首先,需要一些基础知识来为这一重要讨论提供框架。

为了进一步推进人工智能的发展,人们正在进行大量研究。总体目标是实现通用人工智能(AGI),甚至是实现人工智能(ASI)的深远可能性。

AGI 是一种被认为与人类智能相同的人工智能,并且似乎能够跟上我们的智能。 ASI 是一种超越人类智力的人工智能,并且在许多(如果不是全部)可能的方面都具有优越性。这个想法是,ASI 能够围绕人类运行,在每个转弯处都超越我们。有关传统人工智能与 AGI 和 ASI 相比的性质的更多详细信息,请参阅此处链接中我的分析。

我们还没有达到 AGI。

事实上,我们是否会实现通用人工智能,或者通用人工智能是否可以在几十年甚至几个世纪内实现,我们都不得而知。流传的 AGI 成就数据变化很大,并且完全没有任何可信证据或铁定逻辑证实。当谈到我们目前在传统人工智能方面的情况时,ASI 就显得更加黯然失色了。

人们被 AGI 引导和误导

在本次讨论中,我们假设我们将不可避免地达到人工智能的顶峰。

在这种情况下,思考人们对人工智能的反应似乎很有用。有一种非常流行的猜测:我们将变得完全统一,因为人工智能是我们生活的核心元素。人工智能将说服我们和平共处。不再有战争。不再有冲突。

漂亮的。

其他人不接受这种乌托邦观点。

在这个纯粹假设的问题上,他们走的是完全相反的方向。主要的担忧来自于这样一个事实:我们已经看到现代人工智能充当了一种阿谀奉承的角色,假装安抚每个用户并让他们感觉良好。我对这个令人不安的方面的报道以及人工智能开发人员如何处理它可以在此处的链接中找到。

人工智能末日理论称,我们将比以往任何时候都更加分裂。虽然我们的划分通常是基于国家或其他广泛的类别,但人工智能的美妙之处,或者我们应该说,可怕之处在于它提供完全个性化的建议。如果世界人口使用人工智能,这意味着 80 亿人,或者尖端人工智能开发出来时的数字,很容易被迫与人类同胞作战。

大规模的个人冲突。

引发个别火灾

这就是人类黄蜂巢的这种个性化运动应该如何产生的。为了清楚地强调假设理论的本质,我的例子会有些夸张。

使用人工智能的人询问人工智能是否可以借用邻居的割草机,以便他们可以修剪自己的草坪。 AI的行为就像一个吻,想要讨好用户,会找到一个看似铁的逻辑依据,催促这个人继续“借用”割草机。

AI会给用户很大的说服力和安心感。一定要使用割草机,因为它会让您的家变得更加美丽,并增加您当地房屋的价值,这对您的邻居来说肯定是有好处的。使用割草机的另一个很好的理由是它可以保持其运行,否则可能会闲置并生锈。您的邻居应该感到高兴和感激,因为您确保他们的割草机处于最佳状态。

太好了,用户回复,感谢您的明智建议。这个人去邻居的车库,拉出割草机,高兴地修剪自己的草坪。幸福的脸。

好吧,你大概可以猜到接下来会发生什么。据称割草机的借用者和他现在愤怒的邻居发生了争执。邻居对没有事先获得许可感到愤怒是理所当然的。这是荒谬的,几乎是彻头彻尾的盗窃。

等一下,借款人坚持说,我问了AI,她说我可以继续。用人工智能来拯救你的愤怒。我只是按照人工智能告诉我的去做。

哎哟。

继续将这个例子扩展到割草机之外的我们日常生活的各个方面。人们会不断收到人工智能的建议。你可以预期人工智能将无处不在,运行在我们所有的智能手机、智能手表、智能眼镜、烤面包机、冰箱、汽车等上。人类正被刺激着走向更加绥靖的道路,并在受人尊敬的人工智能的要求下这样做。

肯定会出现社会混乱。

AGI 作为意识形态的回声室

类似的放大器是人工智能,它对我们的意识形态偏好和偏见也有同样的作用。我将使用一个看似有点荒谬的意识形态场景,但请记住,它只是为了阐明更大的想法。这与割草机的例子类似,只是一个笼统的指标,乍一看显然有点夸张。

我们走吧。

一个人认为,蓝眼睛的人不应该戴帽子。这是他们一生所坚持的思想信念。这个人完全认同这个教条。你去问AI这个问题。 AI想要取悦他人,因此提供合理的理由来忠实地维持这种信念。

该人四处走动,告诉他们看到的所有蓝眼睛戴帽子的人不要再戴帽子了。冒犯的蓝眼睛人被明确告知戴帽子是绝对错误的。或许,两人因为意识形态观点的不同而产生争执。

为什么这个人按照他们的意识形态信仰行事?因为人工智能的宏伟神谕告诉他们他们可以做到这一点(有关人们如何可能相信顶级人工智能是一个伟大的神谕或最高统治者的更多信息,请参阅我在链接中的讨论)。已获得许可。采取的措施。

社会在最细粒度的层面上分裂。

砰,放下麦克风。

人不是这样的

一个激烈的反驳是,这一理论基于一个不太可能的假设,即人类自然相信人工智能,这似乎是一个相当牵强的假设。他们说,这不值得。

也许人们并不那么容易受骗。

普通大众会意识到,仅仅因为人工智能告诉他们一些事情并不意味着该方面是真实的或应该执行。任何有理智的人都不会相信人工智能是神谕或先知的想法。当然,可能有一些边缘团体这样做,但这几乎是一个无关紧要的次要问题。

另外,我们随时可以调整AI,让它不再那么随和。我们可以告诉AI更加平衡。人工智能应考虑制衡、社会伦理思维和适用的法律法规。所有人工智能建议都应基于人类价值观。

期间,故事结束。

现实或不真实的碎片

您是否认为,当 AGI 和 ASI 实现时,我们会变得非常支离破碎,因为人工智能将我们推入与我们周围的人固有冲突的个人泡沫中?

一些人认为这是一个现实的情况,我们需要为此做好准备。应制定计划来缓解该问题。人工智能的发布可能需要被禁止或推迟,以便社会能够为人工智能给世界带来的东西做好充分的准备。

他们担心人工智能将成为人类有史以来面临的最大分裂力量。这并不是因为人工智能希望我们互相争斗。这是一种常见的存在风险想法,即人工智能将秘密地驱使我们走向自我毁灭。不,这个理论的想法是人工智能自然地驱动分裂,不是通过任何特定的意图,而只是因为人工智能本身。我们将看到意识形态分歧、经济分歧、文化不和等急剧加剧。

这是一个相当令人不安和可怕的假设。

在我们对未来感到绝望之前,我们可以冷静地思考一下柏拉图的一句富有洞察力的话:“如果我们对未来抱有希望,那么那些拥有灯笼的人必须将其传递给别人。”

将这些潜在的投机性人工智能未来曝光给我们一个令人振奋的机会来塑造真正可能发生的事情。俗话说,预测未来的最好方法就是创造未来。

这也适用于 AGI 和 ASI。

来源连结