AGI逐渐接近,是该加速还是刹车?(逐渐接近的英文)

AGI逐渐接近,是该加速还是刹车?_图1

特斯拉首席执行官马斯克在今年早些时候预测,人工通用智能(AGI)可能会在2026年开始投入使用。DeepMind联合创始人兼首席AGI科学家Shane Legg在一次访谈中表示,人类有50%的概率在2028年之前开发出第一个AGI。然而,百度首席执行官李彦宏的观点则更加谨慎,他认为AGI的出现还需要超过10年的时间。

自1956年达特茅斯会议提出“人工智能”这一概念以来,实现人类水平的智能一直是人工智能领域的最高追求。去年上半年,一些主流研究者提出,大语言模型已经展现出了“通用人工智能的火花”(sparks of AGI)。

这似乎表明,人工通用智能(AGI)已经从哲学猜想变成了将来的现实。然而,关于AGI的观点众说纷纭,大语言模型也常有不合理的行为出现,这些都引发了对AGI的质疑。

在当前的背景下,我们离实现真正的人工通用智能(AGI)还有很长的路要走。目前,我们的技术还远远无法达到完全模拟人类智能的水平。要实现AGI,我们需要解决许多复杂的问题,包括对人类思维和意识的深入理解,以及如何使机器能够自主学习和适应各种情境。

然而,随着技术的不断进步,我们可以采取一些预防措施来应对AGI带来的潜在风险。首先,我们需要确保AGI的设计和开发过程具有透明度和可控性,以便我们能够理解和预测其行为。其次,我们需要建立一套有效的监管和监督机制,以确保AGI的运行不会对人类社会和个体造成伤害。此外,我们还需要进行广泛的伦理和道德讨论,以制定相关的政策和法规,以保护人类的利益和价值观。

AGI逐渐接近,是该加速还是刹车?_图2

AGI,未到的黎明

从性能强度和通用性两个维度来看,我们可以将人类和人工智能的关系划分为六个阶段:无人工智能、智能涌现、胜任、专家、大师和超人类。而目前大语言模型的出现,正处于第一个人工通用智能(AGI)的阶段:AGI雏形。

AGI(Artificial General Intelligence),即通用人工智能,其目标是实现人类般的通用智能,这意味着人工智能可以像人类一样理解各种通用任务,并以与人类相当的智力水平来完成。基本上,除了生成“自我意识”,AGI就是人类对人工智能的最终梦想了。

人工通用智能(AGI)的目标是使智能体具备类似人类的能力,包括独立感知环境、思考、决策、学习新技能和执行任务,同时能够与人类或其他智能体有效地合作。此外,智能体还应该能够理解人类的情感,并遵守社会伦理和道德规范。

一个完整的人工智能通用接口(AGI)需要具备三个基本特征:首先,它必须具备无限的任务执行能力,而不仅仅局限于人类定义的有限任务。其次,它需要能够在不同场景中自主地发现任务,也就是说它能够主动地察觉到需要处理的工作。最后,它必须具备自主的价值观来驱动其行为,而不仅仅是被 passively driven by data(被动地被数据所驱动)。

同时,人工通用智能(AGI)还需要解决一些关键的技术问题,比如构建智能体的认知架构,让智能体由内在价值驱动,在现实世界中进行有效的行动,能够与社会环境进行互动,使智能体的决策过程透明可解释,以及建立和人类之间的信任关系等。

以OpenAI的ChatGPT、谷歌Bard、Meta的Llama为代表的大模型,已经在通用性上展示出了人工通用智能(AGI)的潜力。因为这些大型语言模型已经能够成功完成各种广泛的任务,甚至展现出了像学习新技能这样的“元认知”能力。

相比大模型的“鹦鹉范式”,AGI是以“小数据,大任务”为架构的“乌鸦范式”,智能体表现为具有自主的智能,能够自主感知、认知、推理、学习和执行,不依赖于大数据,基于无标注数据进行无监督学习,并且智能系统具有低功耗的特点。就像乌鸦喝水这一行为,看似简单,却属于自主推理行为,是由价值与因果驱动的高级智能,也是人工智能的未来发展趋势。

如果单从人工智能(AI)的性能维度上看,”窄AI(Narrow AI)”类型的AI已经达到了完全超越人类认知的水平。以AlphaFold、AlphaZero为代表的专业领域AI,在特定领域已经能够发现人类智力无法发现的新事物了,这类被称为”超人类窄AI”。而在某些领域,AI能够达到90%的人类水平,比如文书纠正AI Grammarly,DALL·E 2,Imagen等生图AI,这被称为”专家级窄AI”。在特定领域,能够达到普通人的平均水平,比如Siri,谷助手这类普通智能助理,它们被称为”普通窄AI”。

所谓“窄人工智能(AI)”,是指那些特别擅长处理单一任务或者特定范围内工作的系统。在大多数情况下,它们在特定领域中的表现远优于人类。不过一旦它们遇到的问题超过了适用空间,效果则急转直下。换言之,它们无法将自己掌握的知识从一个领域转移到另一个领域。

尽管窄人工智能(AI)无法完全执行需要人类智能的任务,但在特定场景中仍然非常实用,而且已经在诸多应用之内发挥着自己的作用。例如,谷歌搜索查询现在可以利用窄AI算法回答问题,窄AI系统会在YouTube及Netflix中推荐用户可能感兴趣的视频,并在Spotify中按喜好整理出周推音乐列表。

而在窄人工智能已经覆盖的能力范围上,通用人工智能都还没有出现对应的实例,因为目前还没有出现真正意义上的通用人工智能,对于通用人工智能的定义,人类也还没有达到统一的认知。

AGI逐渐接近,是该加速还是刹车?_图4

谁会是人工通用智能(AGI)的起点?

从信息时代走向智能时代,“语言”成为那把开启全新时代的钥匙。著名的作家兼哲学家路德维希·维特根斯坦在其《逻辑哲学论》一书中提到:“我的语言的界限,意味着我的世界的界限。”

对人类而言,承载世界的知识、思考、沟通和文化靠的是语言。语言本身的发明代表着每多一个词汇就让世界多了一个认知维度,词汇之间建立的逻辑关系和表达代表了人类对世界完整的建模。这个模型不是在图像里面,而是通过语言进行承载,所以语言边界就是世界边界。人工智能的核心就是将现实世界的现象转化为数学模型,通过语言让机器充分理解现实世界和数据的关系。

如今,人们已经摆脱了过去仅依靠一个公式来解释世界的物理学方法,而更多地依靠海量数据在不同层次上进行单独建模。在上层建模中,大量的数据驱动着模型的构建。语言模型和生命建模都是如此。2021年最伟大的成就之一是DeepMind的AlphaFold系统,该系统针对基因到蛋白质的三维结构进行建模。通过这个模型,我们可以预测基因转录或表达为蛋白质后所具有的形态。这一突破在生命科学领域引起了全球轰动,而其实现依靠的正是数据和人工智能的驱动。

虽然大模型已经取得了一些惊人的进展,但如果比较人工通用智能(AGI)的三个特征,就会发现大模型还不符合AGI的要求。

首先,大型模型在处理任务方面的能力受到限制,它们仅限于处理文本领域的任务,无法与物理和社会环境进行互动。这意味着像ChatGPT这样的模型无法真正“理解”语言的含义,因为它们没有身体来体验物理空间。

其次,大模型也不是自主的,它们需要人类来具体定义好每一个任务,就像一只“鹦鹉”,只能模仿被训练过的话语。真正自主的智能应该类似于“乌鸦智能”,能够自主完成比现如今AI更加智能的任务,当下的AI系统还不具备这种潜能。

其次,大模型也不是自主的,它们需要人类来具体定义好每一个任务,就像一只“鹦鹉”,只能模仿被训练过的话语。真正自主的智能应该类似于“乌鸦智能”,能够自主完成比现如今AI更加智能的任务,当下的AI系统还不具备这种潜能。

第三,虽然ChatGPT已经在不同的文本数据语料库上进行了大规模训练,包括隐含人类价值观的文本,但它并不具备理解人类价值或与人类价值保持一致的能力,即缺乏所谓的道德指南针。

但这并不妨碍科技巨头对于大模型的推崇。OpenAI、谷歌在内的科技巨头,都将大模型视为迈向人工通用智能(AGI)的关键一步。OpenAI首席执行官Sam Altman就曾多次表示,GPT模型是朝着实现AGI的重要突破。

不过,Meta人工智能首席科学家杨立昆(Yann LeCun)认为,目前的大规模模型发展方向无法实现人工通用智能(AGI),且存在极大的风险。

他指出,现有的大模型尽管在自然语言处理、对话交互、文本创作等领域表现出色,但其仍只是一种“统计建模”技术,通过学习数据中的统计规律来完成相关任务,本质上并非具备真正的“理解”和“推理”能力。

他指出,目前的大型模型虽然在自然语言处理、对话交互、文本创作等领域表现出色,但它们仍然只是一种基于统计建模的技术。这些模型通过学习数据中的统计规律来完成任务,但它们并没有真正的理解和推理能力。

他认为,“世界模型”更接近真正的智能,而非只学习数据的统计特征。以人类的学习过程为例,孩童在成长过程中,更多是通过观察、交互和实践来认知这个世界,而非被单纯“注入”知识。而LeCun的“世界模型”路线,则是试图通过对视频、音频等媒体的模拟与补全,让人工智能也经历这样一个自主学习的过程。

他也承认,实现“世界模型”并非易事,这一雄心勃勃的目标可能需要耗时10年甚至更长时间才能实现。

AGI逐渐接近,是该加速还是刹车?_图5

将风险控制在可控范围内

对于人工智能(AGI)所带来的风险,图灵是最早提出警告的人之一。他在1951年指出:“一旦机器开始思考,很快就能超越我们。因此,在某个时候,我们应该期望机器能够被掌控。”因为当一个比人类更强大的智能体出现时,人类很难维持权力,特别是当这些智能体具有错误的或不完全的目标时。

如果还有人认为现在考虑这些风险是危言耸听,那么如何回答这样一个问题:你如何在比人类更强大的智能体面前永远保持权力?此外,在人工智能领域,还有一些人试图回避这个问题,否认超级智能的可实现性,却没有提供任何证据。

OpenAI首席执行官Sam Altman在他的文章《规划AGI及其影响》中,深入探讨了人工通用智能(AGI)对社会、技术和伦理的潜在影响,并强调了对其发展进行慎重规划和负责任的必要性。

文章指出,通过增加资源的多样性和充实度、推动全球经济的持续增长,以及助力新科学知识的不断发现,人工智能(AGI)有潜力极大地提升人类生活质量。这不仅是智力能力的巨大增强,更是对人类创造力和想象力的极大拓展。

然而,人工通用智能(AGI)的出现也可能带来严重的滥用风险、意外极端事件的可能以及对社会结构的剧烈动荡。因此,OpenAI提倡在发展AGI时,AGI开发者以及全社会都必须找到正确的方法来实现和利用这一技术,确保其与人类核心价值观保持一致,并公平地分享其带来的好处。

此外,OpenAI认为,从长远来看,人工通用智能(AGI)的出现仅仅是智力发展的一个重要里程碑,而人工智能(AI)的进步可能会在未来相当长一段时间内持续不断。OpenAI提出了一个安全的AGI发展愿景,即在较短时间内以较慢的速度过渡到AGI,以便社会有时间适应和调整。

尽管未来不可预知,但OpenAI表达了他们最关心的几个原则:希望人工智能通用智能(AGI)能够最大限度地促进人类在宇宙中的繁荣;希望人工智能通用智能带来的好处、访问权和治理能够被广泛且公平地分享,并成功应对巨大风险。

为此,OpenAI提倡在短期内逐步过渡,不断创造更符合目标的模型,并在长期内进行全球范围的对话,讨论如何治理这些系统、如何公平分配它们产生的好处,以及如何公平分享访问权。在面临极高风险和回报的情况下,人类需要团结起来,让AGI在未来世界以一种对人类最有益的方式发展。

对于如何预防人工通用智能(AGI)给人类带来威胁,可以逐步扩大AGI的能力范围和应用领域,一开始限制其行动范围,逐渐放宽权限。

对于人工通用智能(AGI),可以先限制其适用场合和行动范围在特定区域内,随着人们对机器的信任逐渐增加,确认AGI的安全性和可控性后,再逐步扩大其应用范围。另外,应该进一步提高算法决策过程的透明度。如果能够清晰了解AGI的认知架构,从而知道其是如何工作的,就能更好地控制和管理它。

人类对于人工智能通用智能(AGI)的探索和思考才刚刚开始,我们还有很长的路要走。AGI的进步不仅代表了技术创新,更是对未来人机交互方式的重新想象。随着我们逐步走向AGI未知领域,稳健和有序的发展显得更加重要,我们必须高度警醒AGI所带来的问题,并充分重视AGI所创造的机会。两千多年前,苏格拉底说“认识你自己”,今天在AGI技术发展的倒逼下,人类需要“重新认识你自己”。

0
分享到:
没有账号? 忘记密码?