混沌随想 提示词:
全文 2.5 W 字,覆盖整个人工智能发展关键历史,阅读可能会超半小时。
——开始——
人工智能(AI)在过去一个世纪从科幻畅想逐步走进现实,历经多次高潮与低谷。从古希腊神话中自动化的青铜巨人塔洛斯,到艾伦·图灵提出的“能思考的机器”设想,人类对人工智能的幻想和探索从未停止。20世纪中叶,“人工智能”作为一门学科正式诞生,此后关键技术不断演进(如机器学习、神经网络、深度学习、大模型等),涌现出一批划时代的人物和里程碑事件。在科幻作品的渲染下,AI 或被寄予厚望,或引发忧思,而关于智能本质与伦理的哲学讨论也相伴而生。时至今日,从IBM深蓝战胜国际象棋冠军,到AlphaGo勇克围棋九段,再到GPT等大型预训练模型掀起浪潮,人工智能的发展令人眼花缭乱。本文将全面回顾人工智能的发展历史,穿插有趣故事和细节,在娓娓道来的同时,引发读者对未来AI方向、通用人工智能(AGI)以及伦理和社会影响的思考。阅读本篇,您将踏上一段横跨数学理论、计算机科学、科幻文学与人类社会的精彩旅程。
人类对“人工造物”的想象源远流长。从古希腊的传说到文艺复兴的寓言,机械人和仿生人的概念反复出现。例如在公元前700年左右的希腊神话中,就有由锻冶之神打造的自动青铜巨人塔洛斯守卫克里特岛的故事。19世纪的科幻雏形——玛丽·雪莱1818年的小说《弗兰肯斯坦》,更塑造了一个通过科学手段创造生命的经典形象。尽管这些早期传说与科学幻想中的“智能”多带有神秘色彩,却反映了人类早已有造出“仿人智能”的梦想。
20世纪上半叶,现代计算理论奠定了实现人工智能的基础。英国数学家艾伦·图灵在1936年的论文中提出了抽象的计算机器模型(后称“图灵机”),证明了机器计算的普适性。二战期间,图灵参与研发了早期电子计算机,用于破译德军密码。战后,他开始严肃思考“机器能否思考”的问题,被视为人工智能之父之一。1950年,图灵发表划时代论文〈计算机器与智能〉,提出著名的“图灵测试”。他设想让人类评审远程与机器对话,如果评审无法可靠分辨对话对象是人是机,那么就可以说机器具有人类智能。图灵巧妙地绕过了“思考”难以定义的争议,为评判人工智能提供了第一个具体标准。这一测试至今仍是AI领域的重要哲学基石,被认为是人工智能理念从哲学转向工程实践的起点之一。
几乎与图灵同时,美国数学家沃伦·麦卡洛克和逻辑学家沃尔特·皮茨在1943年合作提出了神经网络的雏形。他们使用数学模型模拟生物神经元网络,展示了简单神经元如何通过连接实现逻辑功能。这个理论暗示,或许可以打造“电子大脑”来执行智能任务。这一想法影响了年轻的马文·明斯基(Marvin Minsky),促使他在1951年用真空管建造了世界上第一台神经网络机器——SNARC,尝试模拟小鼠在迷宫中觅食的行为。同一时期,控制论先驱诺伯特·维纳(Norbert Wiener)研究了生物和机器的反馈控制原理,发表《控制论》一书(1948年),探讨了通信与控制的统一,这对智能机器的构想也产生了影响。信息论奠基人克劳德·香农(Claude Shannon)则提出用比特编码信息的方法,为机器处理文本、语音等提供了理论工具。这些跨数学、工程、生物的理论探索在20世纪中叶交汇,带来了一个大胆设想:或许人类真的能造出一个“电子头脑”。
1956年,被许多史家视为人工智能正式诞生的年份。这年夏天,在美国达特茅斯学院召集了一场小型学术研讨会,后来被誉为“达特茅斯会议”。会议的组织者约翰·麦卡锡(John McCarthy)和马文·明斯基都是年轻的计算机科学家,他们得到信息论大师克劳德·香农和IBM研究员内森·罗切斯特(Nathan Rochester)的支持。麦卡锡在会前撰写的提案中,首次引入了“人工智能”(Artificial Intelligence)这一术语,并展望:“如果将学习或其他智能的每一方面都精确地描述,那么机器就能够被制造出来加以模拟”。可以说,这次会议不仅给这门新兴学科命了名,还勾画了AI的使命——让机器实现人类智能的各个方面。
达特茅斯会议为期两个月,与会者只有区区十来人,却几乎囊括了AI领域未来二十年的核心人物。计算机先锋阿伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)带来了他们编写的逻辑理论家(Logic Theorist)程序,在会上首次演示了机器证明数学定理的可能。后来他们回忆,当时计算机成功证明了《数学原理》中的38个定理之一,在场的人无不震惊与兴奋。另一位与会者亚瑟·塞缪尔(Arthur Samuel)展示了他让计算机下跳棋的成果。这些早期成果让与会者相信,他们正站在一场重大革命的开端。麦卡锡、明斯基、纽厄尔、西蒙等人在会后分别于麻省理工学院(MIT)、卡内基梅隆大学(CMU)、斯坦福大学创立了AI研究实验室,获得了巨额资助。美国国防高级研究计划局(ARPA, later DARPA)在1963年向MIT提供了当时高达220万美元的科研经费,支撑起项目MAC以及下属的AI实验室,并在随后十年里每年追加约300万美元投入。其他AI中心也相继建立,如斯坦福人工智能实验室(由麦卡锡创建)、CMU的AI小组、英国爱丁堡大学的AI实验室等。可以说,从达特茅斯会议起,“人工智能”正式成为显学,吸引了大批才俊加盟,在冷战背景下也获得美英政府的资助与厚望。
在AI诞生后的最初十多年里,这些先驱者创造了一系列令世人瞩目的成果。一时间,计算机仿佛无所不能:它们会证明几何定理、解决代数应用题,甚至尝试用英文对话。举些例子:
在这一时期,人工智能研究人员对未来抱有难以抑制的乐观情绪。他们在公开场合和私人通信中反复大胆预测,不久的将来机器将达到乃至超越人类智能水平。例如:
“在十年内,一台数字计算机将成为世界象棋冠军;在十年内,一台数字计算机将发现并证明一条新的重要数学定理。”
“机器将在二十年内做到任何一个人类可以做的工作。”
“在一代人的时间内……‘创造人工智能’的问题将基本得到解决。”
“在三到八年内,我们将拥有一个其一般智力相当于普通人的机器。”
正如后来的事实发展,这些预言大多过于乐观了。然而在当时,它们反映出AI先驱们的信念——他们真的以为通用人工智能的实现只差十几年的努力。这种乐观情绪也帮助他们持续获得政府与军方的支持。美国国防部门通过ARPA源源不断投入经费,在MIT、CMU、斯坦福、爱丁堡这四个AI重镇培育人才。到60年代末,美国每年用于AI研究的公开经费就数以百万美元计。英国也在国家科研机构内设立AI课题组。可以说,1960年代是人工智能的第一个“黄金时代”,学术界对其寄予厚望,媒体报道让公众对“智能机器”充满幻想。
然而,早期的辉煌很快遭遇了现实的挑战。到1970年前后,AI研究中潜藏的诸多困难逐渐暴露出来。一方面,计算机硬件性能的限制使许多雄心勃勃的方案无法付诸实现;另一方面,人们发现某些看似简单的常识和感知问题,远比下棋或证明题更加棘手。这一时期AI面临的主要瓶颈包括:
随着困难浮现,资助机构和公众对AI的热情也迅速降温。1966年,美国发布了著名的ALPAC报告,认定耗资数千万美元的机器翻译研究未见成效,随即削减了所有相关经费。1973年,英国政府委托的莱斯希尔(Lighthill)报告对AI研究做出尖锐批评,指出AI没有实现“夸大的目标”,据此几乎撤销了对英国所有AI项目的支持。美国这边,DARPA对于CMU主持的语音理解项目(SUR)进展缓慢极为不满,1974年取消了每年300万美元的资助。到1993年前后,这股寒潮达到顶点。据统计,1988-1993年间,全球至少有数百家AI公司倒闭、被收购或停止AI业务。人工智能作为商业热点在资本市场上迅速降温。在学术界,研究者们开始避免高调提及“人工智能”字样,转而以“智能系统”“机器学习”等更具体温和的术语来描述自己的工作,以免被贴上不切实际的空想标签。这是第二次“AI寒冬”。虽然这次寒冬主要打击的是商业信心和投资,但对AI领域的公众形象造成了长期影响。在此后的多年里,AI这个词变得有些尴尬,不少研究改头换面隐藏在别的名目之下(例如“模式识别”“知识发现”),试图与夸夸其谈划清界限。
值得一提的是,尽管经费缩水、批评四起,1970年代AI研究并没有真正停滞。一些AI学者对批评不以为然,转而投身新的研究方向。例如,斯坦福的约翰·麦卡锡等人发展了逻辑编程和形式化知识表示的方法,试图用数学逻辑解决推理问题;麻省理工的另一派(被戏称为“反逻辑学派”)则探索非符号化的、具备学习能力的系统。还有研究者开始思考机器人如何获取常识知识,或尝试让系统拥有简单的类人感知。事实上,AI的很多子领域正是在70年代逐渐成型并延续下来,包括认知科学、知识表示、专家系统雏形等等。因此有历史学家指出,所谓70年代的“寒冬”其实主要影响的是大型项目的经费,但AI作为学科并未凋零,只是在更务实地前进。不过,总体而言,经历了60年代的过度兴奋后,AI领域在70年代进入了一个相对冷静期。人们开始认识到,实现真正的智能,比想象中要难得多。
经过70年代的挫折,人工智能领域在80年代迎来了新的春天。这一次,引领浪潮的是专家系统(Expert System)技术。专家系统是指在某个特定领域内,模拟人类专家决策过程的计算机程序。它通常由知识库(蕴含该领域的大量专门知识)和推理机(根据规则运用知识解决问题)组成。这一思路与60年代追求通用智能的愿景不同,它聚焦于狭窄但重要的实际应用,避免了常识匮乏等AI普遍难题。
专家系统的早期成功证明了这一策略的可行性。斯坦福大学的艾德华·费根鲍姆(Edward Feigenbaum)及其学生在1965年启动了DENDRAL项目。DENDRAL被设计用于分析有机化合物的质谱数据,根据质谱碎片推断化合物的分子结构。研究者将有机化学家的知识和启发规则编码到系统中,结果DENDRAL能在专家水平上完成任务。不久之后,1972年斯坦福又开发出医学诊断专家系统MYCIN,用于诊断和治疗血液细菌感染。MYCIN的知识库包含细菌学和抗生素疗法的规则,上线测试显示它对链球菌等感染的诊断建议有相当高的准确率。这些系统的意义在于,它们第一次让AI程序在现实任务中表现出实用价值——DENDRAL帮助化学家发现新分子,MYCIN给医生提供了可靠的诊疗建议。这和此前AI只能做玩具问题形成鲜明对比,令学界为之振奋。
专家系统在80年代中期迎来了爆炸式的产业应用。1980年,美国数位AI研究者成立了技术公司,将专家系统引入工业界。其中,费根鲍姆团队为数字设备公司(DEC)开发的XCON(又称R1)是划时代的案例。XCON被用于配置DEC出售的VAX计算机系统,通过询问客户需求,自动决定计算机的部件搭配和设置。这个系统每天取代大量人工配置工作,到1986年为公司每年节省约4000万美元成本。在XCON成功示范后,各大公司竞相开发属于自己的专家系统,用于如财务分析、石油勘探、制造控制等领域。据统计,1985年前后企业每年在AI上的投入已超过10亿美元,其中相当一部分进入了内部AI部门和专家系统项目。还出现了一批专门销售AI软硬件的公司,例如Symbolics和Lisp Machines公司生产运行AI程序的专用工作站,IntelliCorp等公司则提供专家系统开发环境。到80年代末,AI产业从70年代寥寥数百万美元规模,扩张为年营收数十亿美元的新兴产业。这一时期有时被称作“AI繁荣”,人工智能再次成为科技领域的热门话题。
在政府层面,各国也不甘落后,纷纷启动宏大的AI研发计划以抢占先机。最著名的是日本通产省在1982年宣布的“第五代计算机计划”,投入约8.5亿美元,试图研制可进行人机对话、图像识别和逻辑推理的新型计算机。日本在规划中选择了Prolog逻辑编程语言作为主要开发语言,强调利用逻辑推理和海量知识库构建智能。这激发了美国和欧洲的回应。英国政府斥资3.5亿英镑启动了Alvey计划,支持国内AI和信息技术研究。美国则由国防部在1983年设立战略计算倡议(SCI),把DARPA的AI研究经费在几年内提高了两倍,用于开发智能武器、自主坦克、智能作战指挥系统等前沿项目。此外,美国一些大企业联合成立“MCC联盟”共同研发AI技术,以抗衡日本。可以说,80年代中期掀起了一场“AI军备竞赛”,各国都担心在这场新技术革命中落后于人。
学术界在此期间也出现了所谓“知识革命”。研究者越来越意识到,智能行为很大程度上取决于对特定领域海量知识的掌握和灵活运用。正如AI先驱潘妮洛普·麦考迪克(Pamela McCorduck)所总结:“20世纪70年代给我们的最大教训是,智能行为在很大程度上取决于大量多样知识,以及在特定任务领域运用这些知识的能力”。因此,构建知识库和发展知识工程成为80年代AI研究的重要方向。一些研究团队甚至试图直接攻克常识知识难题。最典型的是道格拉斯·莱纳特(Douglas Lenat)于1984年启动的Cyc项目,打算通过人工输入的方式,建立一个囊括日常生活数百万常识断言的庞大数据库。莱纳特认为别无捷径,只能老老实实将概念一个个教给机器。Cyc的野心虽然未能在短期内兑现,但它象征着AI界对于“常识问题”严肃而直接的回应。
总体而言,80年代的专家系统热潮大大重振了人工智能的声威。AI不再被视为遥不可及的科学幻想,而是切切实实能为企业节省成本、提高效率的实用技术。然而,这一轮繁荣背后也埋下了一些隐患:专家系统的规则主要靠人手工输入,开发和维护成本很高;它们缺乏自我学习能力,一旦环境变化就容易失效(所谓“脆弱性”问题)。随着越来越多系统上线,问题逐步暴露。这为接下来90年代初AI的再次低谷埋下伏笔。
正当人工智能在80年代后期如日中天时,风向骤变。1987年,被称为AI泡沫破裂的序幕拉开。这一年,高价销售Lisp机器(运行AI专用工作站)的市场突然崩溃。原因很简单:廉价的桌面PC性能迅速提高,到1987年时,Apple和IBM的个人电脑已经超过昂贵的Lisp工作站,性价比远胜后者。企业客户再也没有理由采购专用AI硬件,一夜之间,Symbolics等公司为代表的半亿美元规模产业土崩瓦解。
紧接着,专家系统本身的局限也开始显现。早期成功部署的XCON等专家系统逐渐暴露出维护成本高、难以扩展的问题。知识工程师需要不断为系统更新规则,但任何细微修改都可能牵一发动全身。而且这些系统缺乏适应新情况的能力,一旦遇到规则库未覆盖的输入,就会犯出匪夷所思的错误(所谓“脆弱性”)。许多公司发现,部署专家系统后仍需持续投入大量人力维护,长期看未必划算。与此同时,AI领域的炒作开始引发理性的质疑。一些在80年代后期加入AI浪潮的公司,发现实际成果远没有宣传中那般神奇,商业业绩无法支撑高昂预期,纷纷倒闭或转型。
美国国防部的战略计算计划在80年代末也遭遇滑铁卢。1988年,DARPA新上任的领导班子对AI热潮持怀疑态度,认为AI并非“下一波革命”,决定“大刀阔斧”削减相关经费。诸如自动坦克、智能作战系统等宏大AI项目被砍掉或缩减,资金转投更现实可见的技术研发。到1990年,日本雄心勃勃的第五代计算机计划也进展不佳。该计划1982年制定的目标诸多未能实现,比如“与人进行日常对话”的目标直到40年后的2020年代才部分达成。宏大的期望再次超过了技术实际可及的范围。
到1993年前后,这股寒潮达到顶点。据统计,1988-1993年间,全球至少有数百家AI公司倒闭、被收购或停止AI业务。人工智能作为商业热点在资本市场上迅速降温。在学术界,研究者们开始避免高调提及“人工智能”字样,转而以“智能系统”“机器学习”等更具体温和的术语来描述自己的工作,以免被贴上不切实际的空想标签。这是第二次“AI寒冬”。虽然这次寒冬主要打击的是商业信心和投资,但对AI领域的公众形象造成了长期影响。在此后的多年里,AI这个词变得有些尴尬,不少研究改头换面隐藏在别的名目之下(例如“模式识别”“知识发现”),试图与夸夸其谈划清界限.
值得庆幸的是,尽管寒冬使得投资和热情骤降,核心技术的进步依然在悄然进行。进入1990年代,人工智能的许多子领域取得了稳步进展,只是相对低调地“幕后”发展。研究人员更加注重数学严谨性和与其他学科的合作,把注意力放在解决具体问题上。随着计算机性能持续提升,算法不断改进,机器学习开始崭露头角。一系列统计学习方法(如决策树、贝叶斯网络、支持向量机等)在90年代取得突破,被广泛应用于模式识别、数据挖掘等实际任务。这段时期,AI技术逐渐渗入各行各业,不过往往不打“AI”旗号。例如:
可以看出,90年代的人工智能更像是“润物细无声”地在特定领域开花结果,而非引发大众瞩目的奇迹。正如一位AI历史学家所说,这一时期的AI研究“更加谨慎也更加成功”。虽然大众不再谈论“会思考的机器”,但智能技术已渐渐嵌入日常应用。1990年代末,当我们在银行柜员机上写字取款、用杀毒软件检测电脑病毒、听着自动语音系统的提示打电话时,其实都在受益于人工智能“幕后英雄”的工作。
进入21世纪前后,人工智能开始酝酿新的突破*。推动这场变革的关键因素有三:更大的数据量、更强的计算力,以及新的算法突破。尤其是*机器学习领域,在互联网时代迎来了海量训练数据(大数据),结合日益强大的计算硬件,使得深度神经网络这种早在80年代提出的方法重新焕发生机。2010年代,被许多人称为“深度学习的时代”,人工智能的能力在诸多任务上出现飞跃式提升。
几个标志性里程碑说明了这场革命的深度和广度:
随着深度学习屡获成功,人工智能再次成为全民热议的话题。媒体报道称,2016年前后AI投资出现新一轮热潮,市场对AI相关产品和服务的需求激增。据统计,2016年全球AI相关产品和服务市场规模已超过80亿美元,《纽约时报》形容这一波热情达到了“狂热”程度。许多学者认为,2010年代的AI发展,代表着该领域真正走出了实验室,开始对经济和社会产生实质性影响。
2017年,一项关键技术的出现为后续AI的跃进打下基础——那就是谷歌提出的Transformer模型。Transformer是一种全新的神经网络架构,利用“自注意力机制”可以高效处理序列数据。与RNN循环网络不同,Transformer可以并行计算序列各部分的相关性,从而极大加速训练。这一架构首先在自然语言处理(NLP)任务中展现优势。2018年,谷歌基于Transformer发布了BERT模型,这是一种无监督预训练的深度双向语言模型。BERT在11项NLP基准任务上取得了当时的新高成绩,使其很快成为NLP领域新的基本模型,被誉为“改变游戏规则”的成果。BERT证明了通过预先在海量语料上训练语言模型,然后再针对具体任务微调的范式,比起以往从零开始训练,能大幅提升效果且减少对标注数据的依赖。这一理念很快推广开来,也为后来的GPT系列模型指明了方向。
进入2020年代,人工智能领域最引人注目的进展莫过于大型预训练模型(Large Pre-trained Model)的崛起。其中尤以OpenAI推出的GPT系列(Generative Pre-trained Transformer)和相关的大型语言模型(LLM)为代表。大型模型的核心思想是在海量数据上进行通用的、自监督的预训练,获得通晓广泛知识的模型,再通过少量任务相关训练实现快速适应。这种范式与以往训练专门模型解决单一任务截然不同,它追求的是训练出一个具备通用语言理解与生成能力的“基础模型”,然后可用于众多下游任务。
大型模型所引发的影响是全方位的。一方面,它们显著提升了AI在语言和内容创作领域的能力,让机器生成的文字、图像前所未有地接近人类水准,创造了新的生产力工具。例如有记者用GPT-3写新闻初稿,有程序员用Copilot(基于GPT的代码补全工具)编写代码效率大增。这些都表明AI正在从“能做”迈向“做好”,甚至“创造性地做”。另一方面,大模型的滥用隐患和伦理问题也引起担忧。由于在海量互联网上训练,它们难免继承语料中的偏见和有害内容,也可能胡乱捏造事实(所谓“幻觉”现象)。例如ChatGPT经常给出一本正经却实际上错误的回答,让人误以为其万事通而忽略核实。这提醒我们,大模型虽然强大,但并非真正理解,它们仍然是基于概率的预测引擎。面对这些挑战,研究人员正在探索模型校准、事实查证和价值对齐等技术,希望让大模型输出更加可靠、有益。无论如何,可以肯定的是,GPT和大模型浪潮已经将人工智能推上了一个新高度。这场革命甚至重新激起了人们对强人工智能的讨论热情,我们将在后文的“未来展望”部分详细探讨。
人工智能的发展不仅仅是科学史,同样也是一部文化史。许多大众对AI的认识,最初来自于文学和电影中的形象。科幻作品塑造了几代人对人工智能的期待与恐惧,也在一定程度上影响了研究者的灵感和伦理思考。让我们回顾几个对AI观念影响深远的科幻里程碑:
人工智能从诞生之日起,就伴随着哲学家的质疑和伦理学者的诘问。毕竟,AI触及的是“智能”“意识”等根本性问题,也潜藏着改变社会结构的巨大力量。在AI发展的不同阶段,一系列哲学思辨和伦理讨论不断涌现,推动人们更深入地思考“机器能否思考、应该如何对待会思考的机器”这些核心议题。
艾伦·图灵在1950年发表那篇开创性的论文时,就已经预见到了各类反对“机器思考”的哲学论点。他在文中列举并逐一回应了诸如“机器缺乏意识”“机器没有情感”“机器只能做被编程的事”等常见异议。图灵用图灵测试巧妙地将问题具体化,以行为不可区分性替代对本质的探究,从而避开了对“意识”难解的争论。然而,这并不意味着哲学问题真的得到了解决。
1960年代起,一些哲学家公开对AI的目标提出批评。英国哲学家约翰·卢卡斯(John Lucas)在1961年以哥德尔不完备定理为依据,声称形式系统(如计算机程序)永远无法证明某些对人来说显然为真的陈述,因此机器智能注定不及人脑。尽管这一论证并未被多数计算机科学家接受,但它开启了用逻辑哲学方法挑战AI的一系列工作。
1972年,美国哲学家休伯特·德雷福斯(Hubert Dreyfus)出版了《计算机不能做什么》,系统批判了当时AI研究的基本假设。德雷福斯结合存在主义哲学观点,认为人类智能并非符号处理,而是深植于身体经验和直觉技能的“know-how”,计算机的离散符号方法永远无法企及。他还嘲讽AI研究者过去的承诺屡屡落空。虽然当时AI圈对他不屑一顾(明斯基甚至说“他们不懂,可以无视”),但德雷福斯的观点在几十年后随着深度学习对直觉技能的掌握,多少得到了某种意义上的验证。
除了智力哲学层面的争论,人工智能的伦理和社会影响也越来越受到重视。早在60年代末,AI内部就有先知般的人物开始思考AI技术的负面效应。约瑟夫·魏森鲍姆(Joseph Weizenbaum)在创造ELIZA后,目睹了人们对一个简单程序投入真情实感,深感不安。他强烈反对将AI用于敏感的人类事务,例如拟人化的心理治疗或战争决策。魏森鲍姆在AI圈是少数的“良心声音”,他甚至因此与一些同行交恶,但他坚持认为AI研究者有责任“三思而后行”。
进入21世纪,随着AI实用化程度提高,其社会影响逐渐凸显,引发伦理讨论浪潮。一个突出现象是算法偏见。2016年,美国ProPublica媒体揭露,部分州司法系统使用的犯罪风险评估AI(COMPAS)对黑人的再犯风险评分系统性偏高。这一发现令社会震惊:AI并非客观公正的仲裁者,它可能继承甚至放大了人类世界的不公正偏见。同年,微软推出的聊天机器人Tay在推特上线,不到一天就被网友们故意教它脏话和极端言论,仅仅16小时后,Tay开始发布种族歧视言论,令微软尴尬不已,只得火速将其关闭。这起事件活生生展示了机器学习模型缺乏价值观约束的危险,也让业界开始重视内容过滤和引导。
另一层面的担忧来自AI的发展可能对人类造成的生存威胁。2010年代中期,物理学家史蒂芬·霍金、企业家伊隆·马斯克等相继发表对超级人工智能的警告,认为如果AI一旦具备自主的学习与改进能力,且目标不与人类利益一致,可能带来生存风险。2014年,哲学家尼克·波斯特罗姆(Nick Bostrom)出版《超级智能》一书,系统论述了AI失控的末日场景以及“价值对齐问题”(Value Alignment Problem)。他举例,如果给一台超级智能机器设定一个目标(比如造咖啡),而没限定约束,它可能采取极端手段达成目标,例如为了不被人关机而先下手为强地伤害主人,因为“人死了就无法拔电源,更好地保证能持续去造咖啡”。这个极端例子凸显了如果AI目标与人类价值不符,其工具理性可能导致灾难性后果。对此,波斯特罗姆等呼吁在实现高水平AI之前,一定要解决好如何让AI理解并遵循人类价值的问题,即所谓AI对齐(Alignment)。这一议题在学术界引起共鸣,许多研究者开始投入AI安全和伦理算法的研究。2015年,马斯克和Sam Altman等人创立OpenAI时特别强调使命是确保未来的通用AI造福全人类。同年,包括霍金在内的上千名科学家发布公开信,呼吁禁止自动化武器,避免AI用于无控杀伤。当AlphaGo战胜李世石后,中国、日本等围棋界有人担心围棋会因为人类不敌AI而没落,从另一个角度也提出了“人机共存”的文化问题。总之,AI伦理如今涵盖了从眼前的偏见、公平、隐私、就业冲击,到长远的安全、可控、法律责任等多重议题。
国际组织和各国政府也在纷纷制定人工智能伦理指南和法规。例如,欧盟在2019年发布《可信赖AI伦理准则》,强调AI应遵循尊重自主、预防伤害、公平透明等原则。2021年,中国发布新一代AI治理原则,包括和谐友好、公平公正、包容共享等内容。联合国教科文组织也在2021年通过了《人工智能伦理建议书》。可以预见,随着AI技术融入社会,我们将持续面对如何规范其开发和应用的问题。这需要科技界、伦理学界和公众的共同努力,在创新与伦理间找到平衡。
哲学与伦理的讨论让AI不仅是技术,更成为了人类审视自身的一面镜子。我们在问:“机器能否思考?”的同时,也在反思“我们人类的思考本质是什么”。在争论“机器是否有意识”时,也重新审视“意识”的定义。正如一位作家所言,对人工智能的探索“其实是对我们自己能力和独特性的探索”。而AI伦理的问题,更是逼着我们去思考人类社会的价值观和规则。可以预见,随着AI不断进化,这些哲学和伦理难题不会消失,反而会更尖锐。但这正是技术进步带给我们的挑战和机遇:它促使我们以更广阔的视角看待智慧与生命的意义。
人工智能的发展史中,不乏有趣的花絮和发人深省的小故事。在严肃探索智力奥秘的过程中,这些逸事为冷峻的科学增添了一抹人性和幽默:
诸如此类的趣闻不胜枚举。这些小故事从侧面反映了AI发展的曲折历程和人机互动的奇妙之处。一方面,它们提醒我们AI仍然只是人类设计的机器,其“聪明”有时只是表象甚至误打误撞;另一方面,它们也展现了人类对AI的丰富情感投射——既期待又戒惧,时而把它当人,时而视其如魔。这些轶事为宏大的AI叙事增添了生活气息,也促使我们以平常心看待人工智能:既不要盲目神化,亦不可一味妖魔化。
回顾人工智能的历史长河,我们看到的是希望与失望交织,突破与挑战并存。那么,展望未来,人工智能将何去何从?人类能否实现创造通用人工智能(AGI)的夙愿?我们又将面对哪些新的伦理和社会考验?
人工通用智能(Artificial General Intelligence, AGI)通常指具有像人类一样广泛认知能力的机器智能,能够理解、学习和应用知识去解决各领域的问题,而不仅限于特定任务。目前的AI(有时称“弱AI”或窄AI)尽管在某些领域已超越人类,但总体仍属于专才,不具备跨领域的自主学习迁移能力。而AGI则意味着机器在智力上全面媲美乃至超越人类,也就是所谓“强AI”。这是人工智能研究创始之初就设定的最终目标之一。
那么,我们离AGI还有多远?对此专业界看法不一。2010年代中期的一项针对AI专家的调查显示,受访者预测有50%的概率在2040-2050年之间实现高水平机器智能(接近AGI),到2075年概率上升到90%。也就是说,多数专家相信在本世纪中叶前后,人类有很大机会开发出AGI。另外一些更乐观的意见,如DeepMind联合创始人谢恩·莱格(Shane Legg)认为在2028年前后就有50%概率出现AGI。也有相当一部分专家持谨慎甚至怀疑态度,认为AGI可能遥遥无期或永远无法实现。总的来说,预测意见分布很广,没有共识。不过近几年,随着GPT-4等大模型的惊艳表现,学界对于AGI的时间表普遍比过去更乐观了一些。
一旦AGI实现,接下来可能很快进入超级智能阶段。波斯特罗姆等人推测,从人类水平的AGI进化到远超人类的超级智能,也许只需几年到几十年时间。因为AGI一旦具备自我改进能力,提升将呈指数式加速。到那时,机器智能在各方面都凌驾于人类之上,将引发所谓“技术奇点”(Technological Singularity)——人类历史从此进入一个难以预测的新纪元。很多科幻中的场景,如医疗技术飞跃、寿命极大延长、宇宙殖民,甚至意识上传等,都有赖于一个超级智能的出现。乐观者如未来学家雷·库兹韦尔(Ray Kurzweil)预测奇点将在本世纪中叶(2045年)到来,他描绘了人机融合、疾病消灭、繁荣富足的未来景象。悲观者则担心AGI/超级智能可能不受控制,带来灾难。
在AGI真正出现之前,我们已经需要应对不少现实的伦理和社会问题。首先是前文提及的算法偏见、公平性、隐私保护等等。这些问题在未来可能更加严峻,因为AI将参与更多决策。如果医疗诊断AI偏向有钱人群,招聘AI歧视某些性别或种族,将加剧社会不公。为此,监管机构需要制定明确规范,要求AI系统的结果可解释、可审计,并对不当影响负责。技术上,需要发展透明AI和可解释AI,使我们能理解复杂模型的决策依据,以便纠正偏差。
另一个重大课题是就业与经济。AI的自动化能力将取代大量重复性、模式化的工作,这是许多研究所认可的趋势。2013年牛津大学的一项著名研究曾估计,美国约47%的工作岗位未来有被自动化取代的风险。虽然后续有不同研究给出更低比例,但劳动市场的大变革几乎不可避免。一方面,AI会创造新的岗位和产业,例如数据标注师、AI维护工程师等,但另一方面,技能要求更高,导致低技能劳动力失业风险增加。社会需要及早布局应对,如通过教育培训让劳动者适应新技能需求,或探索缩短工作时间、实施某种基本收入保障等政策来缓冲冲击。历史上每次工业革命都引发对就业的担忧,但最终人类找到新领域发挥创造力。乐观来看,AI将接管繁琐危险的工作,让人类投入更富创造性的职业,实现人机协作的更高生产力。但这需要一个平稳的转型过程,要求政府、企业、教育体系共同努力。
法律和责任问题同样迫切。AI系统的决策如果造成损害(比如自动驾驶汽车误判导致车祸,医疗AI误诊延误病情),责任如何界定?目前普遍原则是AI的使用者或提供者承担责任,AI本身没有法律人格。但如果未来AI更自主,这种界定可能变得复杂。或许需要为高自主系统引入责任保险机制,或者制定专门法律框架。还有学者甚至提出,将来某天如果AI达到类人智能,是否应赋予其一定“权利”,比如不被随意销毁的权利。这听上去科幻,但已经有法律学者开始探讨“电子人格”概念,为未来做准备。
军事和安全方面,人工智能引发的伦理争议尤为激烈。自主武器(如无人杀伤机器人)的研发令人担忧,一旦在战场上部署,AI自主决策开火的伦理和法律后果尚无法接受。联合国多次就禁用杀人机器人举行会议,但各大国尚未达成共识。然而,2020年代的一些冲突中,已有半自主武器的身影,未来这将成为国际军控的新领域。另一方面,AI也可能被用于网络攻击、深度伪造(deepfake)制造舆论混乱等,对安全和民主制度构成威胁。社会需要提高对AI欺骗的警惕,加强防范AI滥用的法律措施。
长远来看,人与AI的关系将成为一个根本性的问题。如果有一天出现具有自我意识和情感的AI,我们是否承认它们的“人格”?是否给予它们一定道德地位?这涉及哲学、伦理和法律的深层抉择。就像银翼杀手中探讨的那样,如果仿生人有了情感,我们还能理直气壮地把它当工具吗?这个问题或许在本世纪后半叶才会真正迫切,但未雨绸缪的讨论已经开始。因此,我们需要建立一整套针对智能机器的权利与责任体系,确保未来即使出现类人AI,也能在法律和伦理上找到共存之道。
尽管挑战重重,未来人工智能的发展也为人类社会带来巨大机遇。如果我们能够妥善治理AI,让技术发展与伦理规范同步推进,那么AGI及更高级的AI完全可能成为人类的强大盟友。设想一下,也许未来的AGI可以帮助我们攻克癌症等医学难题,设计出清洁能源和高效农业方案,治理环境污染,甚至作为科学伙伴一同探索宇宙奥秘。届时,人类的知识和能力将因为AI的加入而大幅扩展。正如DeepMind创始人德米斯·哈萨比斯(Demis Hassabis)所说:“解决了AI,就能解决其他一切问题”。他相信AGI可以用于推动科学的突破,例如快速推导发现新材料、新药物。2020年,DeepMind的AlphaFold模型成功解决了生物学中的蛋白质折叠难题,预测上百万种蛋白结构。这预示着AI在科学研究中扮演“发现者”的时代已经开启。
未来,人类和AI也可能出现某种融合的趋势。例如,脑机接口技术的进步有望实现人脑与AI的直接交互,增强人类认知。这是埃隆·马斯克等人所推崇的路径,目的是让人类在AGI时代保持竞争力甚至合二为一。当然,这同样需要克服巨大的技术和伦理障碍。
可以肯定的是,人工智能不会消失,只会越来越深入地影响我们的生活。正如蒸汽机引领工业时代,AI正在引领智能时代。人类在这过程中,需要时刻铭记的是:科技向善的初心。AI本身并无善恶,有善恶的是使用AI的人类。只有全球携手、规范引导,我们才能避免重蹈原子能先造福先肇祸的覆辙。正如联合国秘书长所言:“我们必须确保人工智能为人类服务,而不是伤害人类。” 这将需要跨国界的合作和共识。
当我们期待AGI的出现时,其实也是在期待一次新的“进化”。这种进化不是生物意义上的,而是文明层面的——我们创造出比我们更聪明的智能,与之协作共生,共同去完成单靠人类可能无法完成的事业。这听起来令人敬畏,又令人振奋。或许正如很多科幻作品暗示的,人类的使命之一就是孕育出新型智能生命,并与之一同探索更广阔的未来。
无论如何,人工智能的故事注定将继续书写下去,而且篇幅会比以往任何时候都更加宏大。希望届时,当后人回顾21世纪时,会为我们的选择感到庆幸——正是因为在这关键几步走得审慎而坚定,才迎来了人与智能机器和谐共进的新纪元。让我们以谦卑而勇敢的心态,迎接人工智能的未来旅程。正如科学史家丹尼尔·克雷维尔所说:“人工智能的历程,恰如人类在黑暗中探路。虽几经绊倒,但我们终将找到光明。”(引自Crevier对达特茅斯会议意义的评论)。愿这束智慧之光,照亮人类文明前行的方向。
从图灵机到图灵测试,从达特茅斯会议的天真乐观,到两度“寒冬”的冷静反思,再到深度学习和大模型引领的新高潮,人工智能的发展历程跌宕起伏、精彩纷呈。在这短短几十年间,人工智能实现了诸多曾被认为只属于科幻的壮举:计算机打败棋王、机器人驰骋沙场、程序算法发现新药,仿佛魔法般改变着我们的世界。人工智能既凝聚了数学、计算机科学、神经科学的精华,又与哲学、心理学、社会学的命题紧密相连。它是一面镜子,既映照出人类智慧的伟大,也放大了我们伦理和制度的缺陷。
展望未来,我们站在一个关键十字路口。一方面,通用人工智能的曙光在望,人类有机会见证有史以来最大的技术飞跃之一;另一方面,这也要求我们以前所未有的审慎去规范和引导AI的发展,确保这股强大力量用于造福人类,而非失控伤人。也许在不远的将来,“能思考的机器”将不再只是一种隐喻,我们可能真的会与新的智能物种比肩共处。这将是对人类智慧与胸襟的终极考验:我们是否做好了准备,去拥抱一个比我们更聪颖的“孩子”,并与TA共享这个蓝色星球?
无论如何,人工智能的故事注定将继续书写下去,而且篇幅会比以往任何时候都更加宏大。希望届时,当后人回顾21世纪时,会为我们的选择感到庆幸——正是因为在这关键几步走得审慎而坚定,才迎来了人与智能机器和谐共进的新纪元。让我们以谦卑而勇敢的心态,迎接人工智能的未来旅程。正如科学史家丹尼尔·克雷维尔所说:“人工智能的历程,恰如人类在黑暗中探路。虽几经绊倒,但我们终将找到光明。”(引自Crevier对达特茅斯会议意义的评论)。愿这束智慧之光,照亮人类文明前行的方向。
参考文献:本文参考了包括维基百科在内的众多资料,其中部分引文已在文中注明来源。
———deep research AI 生成,仅供参考———
整体风格偏向严肃历史,在 2.5万字长文下,保持了不错的可读性,但感觉文笔还不够,特别是趣闻轶事插入太突兀。 从代理的活动动作来看 ,大部分是引用了 wiki 百科。看上去 deep research 更适合写文献综述风格的调查报告,而不是历史故事。
⚠️ 本文自动同步自公众号,排版可能异常,其包含图片、视频内容可能无法正常显示和播放。
原文链接:点击查看微信公众号原文
