新闻  |   论坛  |   博客  |   在线研讨会
肖仰华|生成式语言模型与通用人工智能:内涵、路径与启示
数据派THU | 2023-08-21 21:00:35    阅读:744   发布文章

前言

自2022年12月ChatGPT发布以来,大规模生成式预训练语言模型(Generative Language Model)在学术界与工业界引起轩然大波,带动了一系列通用人工智能技术(AGI: Artificial General Intelligence)的快速发展,包括图文生成模型,如Midjourney的高精度、高度仿真的图文生成;具身多模态语言模型,比如谷歌(Google)公司连续推出PaLM-E(D. Driess et al., 2023)以及PaLM 2(A. Rohan et al., 2023)等。AGI已经从模拟人类大脑的思维能力(以语言模型为代表),快速演进至“操控身体”的具身模型(以具身大模型为代表)。AGI全面侵袭从艺术创作到代码生成、从问题求解到科学发现、从问答聊天到辅助决策等人类智能的各个领地,人类智能所能涉及的领域几乎都有AGI的踪迹。一场由AGI带动的新一轮信息技术革命已然席卷而至。人类迎来一场有关“智能”本身的技术革命。作为一种先进的生产力,AGI既给全社会带来令人兴奋的机遇,也来带来令人担忧的挑战。兴奋与担忧归根结底是源于我们对AGI的理解还远远跟不上其发展速度。具体而言,人类对于AGI技术原理、智能形态、能力上限的思考,对其对社会与个人影响的评估,明显滞后于AGI的发展速度。可以说,快速发展的AGI与人类对其认知的显著滞后构成了一对鲜明的矛盾,把握这一矛盾是理解当前AGI发展规律与其产生的社会影响的关键。也正是基于对上述矛盾的认识,不少科学家与AI企业领袖发出了暂停巨型大模型实验的呼声,呼吁加快安全可证明的AI系统的研制。诚然,理解AGI十分困难。AGI这个术语中的三个单词,分别从不同角度表达了理解AGI面临的挑战。从其核心词“智能(Intelligence)”来看,一直以来关于什么是智能,就存在不同的观点,比如传统计算机科学认为,“获取以及应用知识与技能”的能力是智能,但需思考这个定义是否仍然适用于今天以大规模生成式语言模型为代表的AGI。“通用(General)”一词加剧了理解AGI的困难。相对于传统的面向特定(specific)功能的AI,AGI旨在模拟人类的心智能力,人类智能的独特之处鲜明地体现在其能够针对不同环境作出适应性调整,能够胜任不同类型甚至从未见过的任务。专用AI与通用AI存在怎样的联系与区别,是先实现通用AI还是先实现专用AI?General一词将会引发很多诸如此类的思考。“人工的(Artificial)”一词则道出了AGI人工创造物的本质,而非自发从自然环境中进化而成的智能。这自然就提出了工具智能与自然智能的异同等一系列问题。尽管挑战重重,本文仍然尝试针对AGI的某些方面展开分析。本文聚焦于生成式人工智能,特别是大规模生成式语言模型为代表的通用人工智能技术。本文所谈及的“智能”,不局限于人类智能,也包括机器智能,将以机器智能与人类智能作为彼此的参照,进行对比分析。本文将对由生成式语言模型发展而引发的“智能”的内涵、“智能”的演进路径等问题进行详细分析,并在这一基础上反思人类智能的诸多方面,包括创造性、世界建模、知识获取、自我认知等。笔者相信本文的思考一方面可以消除人们对于机器智能快速进步的担忧,另一方面也能为机器智能的进一步发展扫除障碍,有助于建立新型的人机和谐关系。在此需要说明的是,本文的部分思考与结论超出了当前的工程实践所能检验的范围,仍需要付诸严格论证与实践检验。什么是智能?ChatGPT何以成功?生成式VS判别式。ChatGPT是生成式人工智能的代表。生成式AI在文本生成、文图生成、图像生成等领域取得了较好的效果。传统的人工智能多属于判别式人工智能。为何是生成式AI而非判别式AI成为AGI的主要形态?这是一个值得深思的问题。判别式AI,通过标注数据的训练,引导模型习得正确给出问题答案的能力。生成式AI,往往针对无标注数据设计基于遮蔽内容还原的自监督学习任务进行训练,引导模型生成符合上下文语境的内容。生成式模型不仅具备生成结果的能力,也能够生成过程与解释。所以生成任务可以视作比判别任务更具智力挑战性的任务,能够有效引导模型习得高水平智能。具体而言,对于判断题,判别式AI只需给出对或错的答案,即便随机猜测,仍然有百分之五十蒙对的概率。但是,生成式AI不仅需要生成答案,还可能需要同时生成解题过程,这就很难蒙混过关。所以相对于判别而言,生成可以说是更加接近智能本质的一类任务。智能与情景化生成能力。智能的本质是什么?大模型的发展给人类对这一问题的思考带来了很多新的启发。大模型的智能本质上是情景化生成(Contextualized Generation)能力,也就是根据上下文提示(Prompt)生成相关文本的能力。所以大模型的应用效果在一定程度上取决于提示有效与否。如果我们能够给出一个有效且合理的提示,那么ChatGPT这类大模型往往能够生成令人满意的答案。这种情景化生成能力(“提示+生成”的能力)不仅适用于文本,也广泛适用于图像、语音、蛋白质序列等各种不同类型的复杂数据。不同的数据上下文不同,例如对于图片而言,其上下文是周边图像。大模型的情景化生成能力是通过训练阶段的上下文学习(In-context learning)而形成的(Q. Dong et al., 2022)。从数学本质来讲,大模型在训练阶段习得了Token或者语料基本单元之间的联合概率分布。情景化生成可以视作条件概率估算,即给定上下文或提示(也就是给出证据),根据联合分布推断出现剩余文本的概率。传统对于智能的理解多少都与“知识”有关(如把智能定义为“知识的发现和应用能力”),或与人有关(如把智能定义为“像人一样思考和行为的能力”),其本质还是以人类为中心,从认识论视角理解智能。大模型所呈现出的这种情景化生成能力,则无关乎“知识”,“知识”说到底是人类为了理解世界所做出的人为发明。世界的存在不依赖“知识”,不依赖人类,情景化生成摆脱了人类所定义的“知识”,回归世界本身——只要能合理生成这个世界就是智能。智能被还原为一种生成能力,这种智能可以不以人类为中心,也可以不依赖人类的文明,这是AGI给我们带来的重要启示。智能的分析与还原。大模型训练与优化过程能够为我们更好地理解智能的形成过程提供有益启发。通用大模型的“出炉”基本上要经历三个阶段(W. X. Zhao et al., 2023):第一个阶段是底座大模型的训练;第二个阶段是面向任务的指令学习,也就是所谓的指令微调;第三个阶段是价值对齐。第一个阶段底座大模型的训练本质上是让大模型习得语料或者数据所蕴含的知识。但是这里的知识是一种参数化、概率化的知识(本质上建模了语料中词汇之间的一种联合分布),使得情境化生成成为可能。因此,第一阶段的本质是知识获取(或者说知识习得),第二阶段指令学习旨在让大模型习得完成任务的能力,最后一个阶段则是价值观念的习得。大模型的智能被分解为知识、能力与价值三个阶段,这是个值得关注的特性。知识是能力与价值的基础,所以底座模型的“炼制”尤为关键。ChatGPT经历了2018年初版GPT-1到2022年GPT-3.5近四年的训练与优化。大模型的知识底座越深厚、越广博,后续能够习得的技能就越复杂、越多样,价值判断就越准确、价值对齐就越敏捷。大模型将智能的三个核心要素相互剥离,而人类的知识、能力与价值习得,往往是杂揉在一起的。我们很难界定小学课本中的某篇文章是在传授知识、训练技能亦或是在塑造价值。大模型的这种分离式的智能发展,可以类比于人类社会的高等教育。人类社会的本科教育旨在培养学习能力以获取知识,硕士教育旨在培养解题能力以解决问题,博士教育则旨在培养价值判断能力以发现问题。知识、能力和价值相剥离对于未来智能系统架构、建立新型的人机协作关系、设计人机混合的智能系统架构均有着积极的启发意义。随着机器智能的逐步发展,人类相对于机器而言所擅长的事物将会逐渐减少。但是,在某些特定场景仍存在一些人类介入的空间。未来人机混合系统发展的关键仍是回答什么工作最值得由人来完成。看似完整的任务只有经过分解,才能拆解出人机各自擅长与适合的子任务。例如,将知识和能力剥离对于保护私域知识极具价值:大模型负责语言理解等核心任务,而机密的数据与知识仍然交由传统的数据库或者知识库来管理。这样的系统架构,既充分利用了大模型的核心能力,又充分兼顾了知识私密性。智能测试与人机区分。通用人工智能技术的发展显著提升了机器的智能水平,特别是语言理解水平,机器在文本处理、语言理解等相关任务中已达到普通人类甚至语言专家的水平。而随之而来的一个十分关键的问题是:人机边界日益模糊。我们已经很难仅仅通过几轮对话去判断窗口背后与你交流的是人还是机器。换言之,传统的图灵测试已经难以胜任人机区分的使命。使用过ChatGPT的人都深有体会,ChatGPT最擅长的就是聊天,即便与其长时间聊天,我们可能都不会觉得无趣。人机边界的模糊会带来很多社会问题。首先,普通民众,尤其是青少年,可能出于对技术的信任而沉溺于ChatGPT类的对话模型中。当ChatGPT日益智能,我们习惯了向其提问,习惯了接受它的答案,久而久之,人类赖以发展的质疑精神就会逐步丧失。在日益强大的AGI面前,如何避免人的精神本质的退化?这些问题需要我们严肃思考并回答。其次,当人机真假难辨,虚假信息泛滥,欺诈将会层出不穷。最近越来越多犯罪分子已经通过AI换脸、AI视频生成,成功实施了多起欺诈案件。如何治理由人机边界模糊带来的社会性欺骗将成为一个十分重要的AI治理问题。最后,还值得注意的是验证码,这一我们在日常生活中广泛使用,却很快会变成问题的应用。验证码是我们进行人机区分的利器,但是随着AGI的发展,尤其是在其对于各类工具的操控能力日益增强之后,验证码所具备的人机区分功能将会面临日益严峻的挑战。随着人形机器人技术的日益成熟,未来如何证明你是人而非机器,或者反之,如何证明机器是机器而不是人将会成为越来越困难的问题。人机边界的模糊本质上归结于人机智能测试问题。我们需要刻画出人类智能独有的、不能或者至少是难以被机器智能所侵犯的领地。从机器智能的发展历史来看,这个领地的范围将会越来越窄。我们曾经认为在下围棋这样的高度智力密集活动中机器难以超越人类,也曾认为在进行高质量对话中机器难以超越人类,更曾认为蛋白质结构预测这样的科学发现是机器难以超越人类的……这些机器难以超越人类的任务列表曾经很长,如今已经越来越短。图灵测试已然失效,但是人类还来不及提出新的有效的代替性测试方案。有人提出,唯有人类会犯错及其行为的不确定性是人类独具的。这样的观点不值一驳,因为机器很容易植入一些错误与不确定性以掩饰自己的智能。未来我们如何证明机器试图越狱,以及机器是否正在掩饰自己的能力,这些都是AI安全需要高度关注的问题。智能的演进路线,通用人工智能如何发展与进步?“反馈进化”与“填鸭灌输”。人类的智能是一种典型的生物智能,是经过漫长的进化发展而形成的。人类在自然与社会环境中不断地实践、接收反馈、持续尝试,形成了高度的智能。各类动物的智能都可以归类到进化智能。进化智能的演进需要漫长的时间,换言之,只要给予足够的时间,自然环境或将就能塑造任何水平的智能。低等动物经过漫长时间的洗礼也有可能发展出先进智能。但是当前机器智能走的是一条“填鸭灌输”式的路径,是一条实现先进智能的捷径。将人类社会已经积累的所有语料、书籍、文献“灌输”给大模型,经过精心“炼制”,大模型就能习得人类积累数千年的文明成果。虽然大模型“炼制”也需要耗费数天、数月的时间,但相对于人类智能的漫长进化历程,几乎就是转瞬之间。机器能够在如此短暂的时间内习得人类数千年积累的知识,这本身已是奇迹。人类社会多将“填鸭灌输”视作一种机械、低效的知识传授方式,而这却恰恰成为人类向机器传授知识的高效方式。如果单纯以考分评价学生,粗暴的填鸭式、灌输式的教育十分高效。但这种教育培养出的学生往往高分低能,难以灵活应用知识解决实际问题。所以我们的学生还需要接受大量的实践教育,从反馈中学习,最终成为行家里手,将知识融会贯通。人类专家的养成过程对于理解大模型的发展过程极具启发。当前,大模型的填鸭式学习阶段已经基本完成,很快大模型将操控各类工具、开展实践式学习,从而进入从实践习得知识的新阶段。“先通再专”还是“先专再通”。通用人工智能的发展带给我们的另一个启示在于机器智能走出了一条“先通再专”的发展路径。从大规模语言模型的应用方式来看,首先要“炼制”通用的大语言模型,一般来讲训练语料越是广泛而多样,通用大模型的能力越强。但是这样的通用大模型在完成任务时,效果仍然差强人意。因而,一般还要经过领域数据微调与任务指令学习,使其理解领域文本并胜任特定任务,可见大模型的智能是先通用,再专业。通用智能阶段侧重于进行通识学习,习得包括语言理解与推理能力及广泛的通用知识;专业智能阶段则让大模型理解各种任务指令,胜任各类具体任务。这样一种智能演进路径与人类的学习过程相似。人类的基础教育聚焦通识学习,而高等教育侧重专识学习;武侠小说中的功夫高手往往先练内力再习招式。这些都与大模型“先通再专”的发展路径相似。大模型“先通再专”的发展路径颠覆了以往人工智能的主流发展路径。ChatGPT诞生之前,AI研究的主阵地是专用AI或者功能性AI,其主旨在于让机器具备胜任特定场景与任务的能力,比如下棋、计算、语音识别、图像识别等等。传统观念认为,若干专用智能堆积在一起,才能接近通用智能;或者说如果专业智能都不能实现,则更不可能实现通用智能。由此可以看出,“先专再通”是传统人工智能发展的基本共识。但是,以ChatGPT为代表的大规模生成式语言模型,基本颠覆了这一传统认识,并说明机器智能与人类智能一样,需要先具备通识能力才能发展专业认知。在新认识下,我们需要重新理解领域人工智能(Domain-Specific AI)。领域是与通用相对而言的。事实上,没有通用认知能力,就没有领域认知能力。举个例子,医疗是个典型的垂直领域,传统观念认为可以以较低代价搭建诊断某类疾病的智能系统。比如,针对耳鸣疾病,传统方法一般将与之相关的专业知识、文本、数据灌输给机器,以期实现耳鸣这个极为细分病种的智能诊断。但在实践过程中,这一想法从未真正成功。究其根源,医生要理解疾病,就需要先理解健康,而健康不属于疾病的范畴。一个耳科医生接诊的大部分时间是在排查无需治疗的健康情况。也就是说,要真正理解某个领域,恰恰需要认知领域之外的概念。由此可见,领域认知是建立在通识能力基础之上的。这些新认识为我们重新发展领域认知智能带来新的启发,可以说在ChatGPT类的通用大模型支撑下,各领域认知智能将迎来全新的发展机遇。先符号再体验,先形式再内容。大规模语言模型通过使用文本或符号表达的语料训练而成。人类的自然语言是一种符号化的表达方式,语言模型表达了语言符号之间的统计关联。然而,符号只是形式,单纯基于符号的统计学习不足以让机器理解符号所指或者语言的内涵。纯形式符号的智能系统势必会遭遇类似约翰·塞尔“中文屋”思想的责难。所以,AGI不是停留在单纯的语言模型阶段,而是积极融合多模态数据进行混合训练。各类多模态数据,比如图像、语音、视频,能够表达人类丰富的世界体验(X. Zhu et al., 2022)。举个例子,人们对于“马”这个符号的理解,一定程度上取决于人们对马这一动物的经验和认识,比如高亢的嘶鸣(语音)、健壮的形象(图像)、奔腾的动作(视频)。人的体验支撑了人对于“马”这个概念的理解,正如人们对于万马齐喑的悲凉体会是建立在对于马的健康、积极形象的体验基础之上。所以AGI走出了一条先符号再体验、从形式到内容的发展路径。这和人类智能的发展过程恰好相反,人类是先有了丰富经验或体验,才抽象成符号、文字与概念。“先大脑再身体”与“先身体再大脑”。目前AGI的发展趋势是先发展语言模型,以模拟人脑的认知能力,再基于机器大脑的认知能力驱动各类工具与身体部件。大脑的复杂规划与推理能力对于身体与工具在现实世界中的交互与动作是不可或缺的。AGI走出了一条“先实现大脑的认知能力,后实现身体与物理世界交互能力”的发展路线。很显然,AGI的这条发展路线与人类智能的进化有着显著的不同。人类在一定程度上是先具备身体能力,并在身体与世界的持续交互过程中,塑造和发展大脑的认知能力。传统的人工智能技术路线也倾向于先实现身体各器官或部件的基本功能,再实现大脑的复杂认知能力,倾向于接受机械身体与现实世界的交互能力比大脑的复杂认知能力更易实现的观点。然而,目前的人工智能发展路径在一定程度上颠覆了我们对机器智能实现路径的传统认识。由通用人工智能引发的人类自我审视及启示组合泛化是一种创造,但可能是低级的创造形式。AGI之所以吸引了业界的高度关注,一个很重要的原因在于它呈现出了一定的创造能力。我们发现ChatGPT或者GPT-4,已经拥有了比较强大的组合泛化能力:大模型经过足量常见任务的指令学习,能够胜任一些新的组合任务。具体来说,大模型学会了完成a、b两类任务,它就一定程度上可以完成a+b这类新任务。比如GPT-4能够使用莎士比亚诗词风格来书写数学定理证明。实际上这是由于GPT-4分别习得了数学证明与写莎士比亚诗词两种能力,进而组合泛化出的新能力。第一,我们必须认可大模型的这种组合创新能力。反观人类社会的很多创新,本质上也属于组合创新,这种创新形式甚至占据了绝大多数。比如,在工科领域的技术创新中,很多研究生擅长把针对A场景所提出的B方法应用到X场景并取得了不错的效果;爆米花式电影中平庸的剧情创作,大都通过借用a故事的框架、b故事的人物,套用c故事的情节,使用d故事的桥段,等等。第二,AGI的组合创新能力远超人类认知水平。AGI可以将任意两个学科的能力进行组合,这里的很多组合可能是人类从未想象过的,比如利用李清照诗词的风格写代码注释。这种新颖的组合创新能力有可能是AGI给我们带来的宝贵财富,将极大地激发人类的想象力。第三,AGI的这种组合创新能力,基本上宣告了人类社会的拼贴式内容创新将失去意义。因为,AGI能够组合创新的素材,以及其生成的效率都远超人类。我们曾经引以为傲的集成创新也将失去其光环,而原始创新在AGI面前显得更加难能可贵。第四,AGI的组合创新将迫使人类重新思考创新的本质。人类所能做出的而AGI无法实现的创新将更加凸显其价值。AGI将促使人类不再沉迷于随机拼接或简单组装式的创造,而是更加注重富有内涵、视角独特、观点新颖的内容创造。自监督学习是世界建模的有效方式。自监督学习可以视为一种填空游戏,即根据上下文填补空白。例如,我们事先遮盖住一个完整句子中的某个单词,然后让机器根据这个句子的上下文还原被遮盖的词语。同样地,就图像而言,我们可以遮挡部分图像区域,让大模型根据周边的背景图像还原出被遮挡图像的内容。这样一种自监督学习范式为什么能够成就ChatGPT这类大规模预训练语言模型,是个值得深思的问题。“遮蔽+还原”式样的自监督学习任务旨在习得世界模型。比如,人们都知道高空抛重物,物体一定会下落,而不会向上飘也不可能悬在空中。最近很多学者,包括图灵奖获得者Yann LeCun都指出了世界模型(Y. Lecun, 2022)对于AGI的重要性。人类社会业已积累的数据体现了人类对于现实世界的认识,通过对这些数据的学习,机器将有机会建立世界模型。当数据足够多、足够精、足够丰富时,就能在一定程度上表达人类对复杂现实世界的完整认知,基于“遮蔽+还原”的自监督学习机制,机器能够逼真地建立起关于世界的模型。反观人类的世界模型,很大程度上来自于经验与文明传承。一方面,我们在身体与世界交互过程中形成经验从而建立世界模型;另一方面,文化传播和教育传承塑造着我们对世界的认知。所以人类对世界建模的方式与机器建模世界的方式有着本质的不同。大模型所习得的隐性知识。大规模预训练语言模型借助了Transformer(A. Vaswani et al., 2017)这样的深度神经网络架构,习得了语言元素之间的统计关联,并具备了情境化生成能力。而大模型之大,主要就体现在其参数量巨大。这样一个复杂的深度网络空间编码了语料中所蕴含的各种知识,这种知识具有参数化表达与分布式组织两个鲜明特点。所谓分布式组织,是指某一个知识并不能具体对应到某个具体神经元,而是分散表达为不同神经元的权重参数及其之间的互联结构。在特定输入下,通过激活某些神经元、以神经网络计算方式获取知识。因此,大模型可以视作隐性知识的容器。大模型所编码的隐性知识显著超出人类业已表达的显性知识的范围。从某种意义上说,人类能用自然语言表达的知识是可以穷尽的,是有限的。而人类在潜意识下用到的常识、文本中的言下之意、领域专家难以表达的经验等等,都是以隐性知识的形式存在的。大模型为我们认识这些隐性知识提供了更多可能性。大模型是通才,它是利用全人类、全学科的语料训练生成的,它所习得的某些隐性关联或者统计模式,有可能对应到人类难以言说的隐性知识。比如外交场景下的遣词造句多有言下之意、往往被赋予了特殊内涵,大模型的出现给解读这种言下之意与独特内涵带来新的机会。大模型所编码的知识,很多是人类从未解读过的,特别是跨学科知识点之间的隐性关联。这也是大模型给我们整个人类文明发展带来的一次重大机遇。随着大模型对隐性知识解读的日益深入,人类的知识将呈现爆炸性增长。我们不得不思考一个深刻的问题:过量的知识会否成为人类文明发展不可承受之重。事实上,当知识积累到一定的程度,单纯的知识获取已经偏离了人类文明发展的主航道。在知识急剧增长的未来,发现“智慧”比获取“知识”更加重要。很多时候,我们并不需要太多知识,只要具备从大模型获取知识的能力即可。理论上人类每个个体(即便人类最杰出的精英)所能知晓的知识量也一定远远低于智能机器。我们每个人的价值不是体现在拥有多少知识,而是知道如何使用知识,使用知识的智慧将是人类个体核心价值所在。AGI的发展倒逼人类社会的发展从追求知识进入追求智慧的新阶段。大模型倒逼人类重新认识自我。AGI技术将与人类社会发展进程深度结合,为人类社会带来前所未有的重大机遇和严峻挑战。随着人工智能技术的迅速发展,AGI所带来的风险也逐渐凸显。首先,AGI给AI技术治理和社会治理带来挑战。与目前的人工智能相比,AGI失控将会带来更加灾难性的后果。当前,AGI技术“失控”的风险日益增加,必须及时干预。比如,AGI降低了内容生成门槛,导致虚假信息泛滥,已经成为一个严峻的问题。再比如,AGI作为先进生产力,如果不能被大多数人掌握而是掌握在少数人或机构手中,技术霸权主义将会对社会发展带来消极影响。其次,AGI技术将会对人类个体的发展带来挑战。未来的社会生产似乎经由少数精英加上智能机器就可以完成,工业时代的2∕8法则到了AGI时代可能会变成2∕98法则。换言之,越来越多的工作与任务在强大的AGI面前可能失去意义,个体存在的价值与意义需要重新定义。我们的寿命或将大幅度延长,但是生命的质感却逐渐消弱。如何帮助我们中的绝大多数人寻找生命的意义?如何优雅地打发休闲时光?这些都是需要深度思考的问题。最后,AGI的进步可能会带来人类整体倒退的风险。当人类发展了家禽技术,打猎技术就明显倒退;当纺织机器日益成熟,绣花技艺就显得没有必要。我们的各种非物质文化遗产、各类体育运动,本质上都是在防止人类的倒退。不能因为机器擅长完成人类的某项工作或任务,就放任人类的此项能力逐步退化。如果说以往各种技术的进步只是让人类逐步远离了大自然的原始状态,人类在与恶劣的自然环境的搏斗中所发展出的四肢能力的倒退是人类文明发展必须作出的牺牲;那么,此次旨在代替人类脑力的AGI会否引起人类智能的倒退?智能的倒退必然引起人类主体性的丧失与文明的崩塌。如何防止我们的脑力或者说智能的倒退,是个必须严肃思考的问题。尽管面临重重挑战,但AGI毫无疑问是一种先进生产力,其发展的势头是不可阻挡的。除了前文提到的种种具体的技术赋能之外,这里要从人类文明发展的高度再次强调AGI所带来的全新机遇。首先,AGI对于加速人类知识发现进程具有重大意义。前文已经讨论过对大语言模型已编码的隐性知识的解读将会加速人类的知识发现,但同时也会带来知识的贬值。未来我们会见证知识的爆炸所带来的“知识无用”。其次,AGI发展的最大意义可能在于倒逼人类进步。平庸的创作失去意义、组合创新失去意义、穷举式探索失去意义……这个列表注定会越来越长。但是人的存在不能失去意义,我们要重新找寻自身价值所在,重新思考人之所以为人的哲学命题。结语对于AGI的探索和思考才刚刚开始,我们还有很长的路要走。我们必须高度警醒AGI所带来的问题,并充分重视AGI所创造的机会。两千多年前,苏格拉底说“认识你自己”,今天在AGI技术发展的倒逼下,人类需要“重新认识你自己”。

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客