2.5w 字《人工智能发展史》deep research

提示词:

图片

全文 2.5 W 字,覆盖整个人工智能发展关键历史,阅读可能会超半小时。

——开始——

引言

人工智能(AI)在过去一个世纪从科幻畅想逐步走进现实,历经多次高潮与低谷。从古希腊神话中自动化的青铜巨人塔洛斯,到艾伦·图灵提出的“能思考的机器”设想,人类对人工智能的幻想和探索从未停止。20世纪中叶,“人工智能”作为一门学科正式诞生,此后关键技术不断演进(如机器学习、神经网络、深度学习、大模型等),涌现出一批划时代的人物和里程碑事件。在科幻作品的渲染下,AI 或被寄予厚望,或引发忧思,而关于智能本质与伦理的哲学讨论也相伴而生。时至今日,从IBM深蓝战胜国际象棋冠军,到AlphaGo勇克围棋九段,再到GPT等大型预训练模型掀起浪潮,人工智能的发展令人眼花缭乱。本文将全面回顾人工智能的发展历史,穿插有趣故事和细节,在娓娓道来的同时,引发读者对未来AI方向、通用人工智能(AGI)以及伦理和社会影响的思考。阅读本篇,您将踏上一段横跨数学理论、计算机科学、科幻文学与人类社会的精彩旅程。

早期的梦想与计算理论

人类对“人工造物”的想象源远流长。从古希腊的传说到文艺复兴的寓言,机械人和仿生人的概念反复出现。例如在公元前700年左右的希腊神话中,就有由锻冶之神打造的自动青铜巨人塔洛斯守卫克里特岛的故事。19世纪的科幻雏形——玛丽·雪莱1818年的小说《弗兰肯斯坦》,更塑造了一个通过科学手段创造生命的经典形象。尽管这些早期传说与科学幻想中的“智能”多带有神秘色彩,却反映了人类早已有造出“仿人智能”的梦想。

20世纪上半叶,现代计算理论奠定了实现人工智能的基础。英国数学家艾伦·图灵在1936年的论文中提出了抽象的计算机器模型(后称“图灵机”),证明了机器计算的普适性。二战期间,图灵参与研发了早期电子计算机,用于破译德军密码。战后,他开始严肃思考“机器能否思考”的问题,被视为人工智能之父之一。1950年,图灵发表划时代论文〈计算机器与智能〉,提出著名的“图灵测试”。他设想让人类评审远程与机器对话,如果评审无法可靠分辨对话对象是人是机,那么就可以说机器具有人类智能。图灵巧妙地绕过了“思考”难以定义的争议,为评判人工智能提供了第一个具体标准。这一测试至今仍是AI领域的重要哲学基石,被认为是人工智能理念从哲学转向工程实践的起点之一。

几乎与图灵同时,美国数学家沃伦·麦卡洛克和逻辑学家沃尔特·皮茨在1943年合作提出了神经网络的雏形。他们使用数学模型模拟生物神经元网络,展示了简单神经元如何通过连接实现逻辑功能。这个理论暗示,或许可以打造“电子大脑”来执行智能任务。这一想法影响了年轻的马文·明斯基(Marvin Minsky),促使他在1951年用真空管建造了世界上第一台神经网络机器——SNARC,尝试模拟小鼠在迷宫中觅食的行为。同一时期,控制论先驱诺伯特·维纳(Norbert Wiener)研究了生物和机器的反馈控制原理,发表《控制论》一书(1948年),探讨了通信与控制的统一,这对智能机器的构想也产生了影响。信息论奠基人克劳德·香农(Claude Shannon)则提出用比特编码信息的方法,为机器处理文本、语音等提供了理论工具。这些跨数学、工程、生物的理论探索在20世纪中叶交汇,带来了一个大胆设想:或许人类真的能造出一个“电子头脑”。

人工智能学科的诞生:达特茅斯会议

1956年,被许多史家视为人工智能正式诞生的年份。这年夏天,在美国达特茅斯学院召集了一场小型学术研讨会,后来被誉为“达特茅斯会议”。会议的组织者约翰·麦卡锡(John McCarthy)和马文·明斯基都是年轻的计算机科学家,他们得到信息论大师克劳德·香农和IBM研究员内森·罗切斯特(Nathan Rochester)的支持。麦卡锡在会前撰写的提案中,首次引入了“人工智能”(Artificial Intelligence)这一术语,并展望:“如果将学习或其他智能的每一方面都精确地描述,那么机器就能够被制造出来加以模拟”。可以说,这次会议不仅给这门新兴学科命了名,还勾画了AI的使命——让机器实现人类智能的各个方面。

达特茅斯会议为期两个月,与会者只有区区十来人,却几乎囊括了AI领域未来二十年的核心人物。计算机先锋阿伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)带来了他们编写的逻辑理论家(Logic Theorist)程序,在会上首次演示了机器证明数学定理的可能。后来他们回忆,当时计算机成功证明了《数学原理》中的38个定理之一,在场的人无不震惊与兴奋。另一位与会者亚瑟·塞缪尔(Arthur Samuel)展示了他让计算机下跳棋的成果。这些早期成果让与会者相信,他们正站在一场重大革命的开端。麦卡锡、明斯基、纽厄尔、西蒙等人在会后分别于麻省理工学院(MIT)、卡内基梅隆大学(CMU)、斯坦福大学创立了AI研究实验室,获得了巨额资助。美国国防高级研究计划局(ARPA, later DARPA)在1963年向MIT提供了当时高达220万美元的科研经费,支撑起项目MAC以及下属的AI实验室,并在随后十年里每年追加约300万美元投入。其他AI中心也相继建立,如斯坦福人工智能实验室(由麦卡锡创建)、CMU的AI小组、英国爱丁堡大学的AI实验室等。可以说,从达特茅斯会议起,“人工智能”正式成为显学,吸引了大批才俊加盟,在冷战背景下也获得美英政府的资助与厚望。

初期的突破与过度乐观(1956–1974)

在AI诞生后的最初十多年里,这些先驱者创造了一系列令世人瞩目的成果。一时间,计算机仿佛无所不能:它们会证明几何定理、解决代数应用题,甚至尝试用英文对话。举些例子:

  • 问题求解与推理
纽厄尔和西蒙在1957年开发了“通用问题求解器(GPS)”,希望用统一的方法解决各种难题。虽然GPS只能处理非常简单的谜题,但它开创了用搜索(Search)策略来让机器规划步骤的范式。1961年,明斯基的学生詹姆斯·斯拉格尔(James Slagle)编写的SAINT程序可以自动求解微积分题,而赫伯特·盖勒恩特(Herbert Gelernter)的几何定理证明程序也已能够证明高中几何题。斯坦福研究所的NILS NILSSON等人还开发了STRIPS规划算法来指导机器人行动,这被用于控制世界上首个移动机器人 “沙基(Shakey)” 在房间中规划路线、移动和操作物体。
  • 自然语言处理

  • 让计算机听懂人话是AI早期的重要目标之一。麻省理工的学生丹尼尔·鲍勃罗(Daniel Bobrow)编写了STUDENT程序,能够读懂并解答简单的代数文字题。另一位研究者罗斯·奎利安(Ross Quillian)提出了语义网络,用节点和连线表示概念及其关系,为计算机表示语言含义提供了新思路。最引人注目的是麻省理工的约瑟夫·魏森鲍姆(Joseph Weizenbaum)在1966年开发的对话程序ELIZA。ELIZA模拟了一位罗杰斯派心理治疗师,通过简单的模式匹配和反问,将用户的话“抛回”给用户。尽管ELIZA内部并不理解对话内容,但对某些不知情的用户而言,它竟产生了类似共情的错觉。一些用户跟ELIZA聊了几句后,居然真的把它当做人类心理医生,甚至有魏森鲍姆的秘书请求独自与ELIZA对话的逸闻!这种现象后来被称作“ELIZA效应”,警示我们人类多么容易将简陋的机器回应误认为有智能、有情感

  • 微世界与机器人

  • 马文·明斯基和西摩·派普特(Seymour Papert)在1969年提出,与其让AI一上来就面对复杂现实,不如先研究“微世界”——一个人为简化的小环境,在其中探索智能。他们让计算机在假想的“积木世界”里移动积木、堆叠积木,并通过限定场景简化理解和规划问题。明斯基团队研制了一只机械臂,可以根据计算机指令去抓取和堆叠积木,是为AI+机器人早期结合的案例。Terry Winograd开发的程序SHRDLU则能在积木世界中用英语与人交流,理解诸如“把红色方块放到蓝色立方体上”这样的指令并执行。这些研究让人看到,即便机器在真实世界举步维艰,但在受控的“小世界”里已经展现出令人惊叹的类智能行为。

  • 早期神经网络探索

  • 尽管50-60年代的主流AI方向是符号逻辑推理,但也有少数研究者坚持研究仿生的人工神经网络。康奈尔大学的弗兰克·罗森布拉特(Frank Rosenblatt)在1958年提出了感知机(Perceptron)模型,并亲手打造了Mark I感知机计算机。这是一个具有单层权重的简单神经网络,可以学习执行二分类任务。罗森布拉特对其前景极为乐观,宣称感知机“最终可能学会识别图像、做出决策,甚至翻译语言”。他的感知机一度获得美国海军大量资助。与此同时,斯坦福研究所的查尔斯·罗森等人也在尝试用硬件实现神经网络,在1960-63年间先后研制了名为MINOS的网络机,拥有上千个可调权重,用于识别手写字符等。这些早期尝试虽然规模有限,却是现代深度学习的雏形。

在这一时期,人工智能研究人员对未来抱有难以抑制的乐观情绪。他们在公开场合和私人通信中反复大胆预测,不久的将来机器将达到乃至超越人类智能水平。例如:

  • 西蒙 & 纽厄尔(1958年)

“在十年内,一台数字计算机将成为世界象棋冠军;在十年内,一台数字计算机将发现并证明一条新的重要数学定理。”

  • 赫伯特·西蒙(1965年)
  • “机器将在二十年内做到任何一个人类可以做的工作。”



  • 马文·明斯基(1967年)
  • “在一代人的时间内……‘创造人工智能’的问题将基本得到解决。”



  • 马文·明斯基(1970年接受《生活》杂志采访)
  • “在三到八年内,我们将拥有一个其一般智力相当于普通人的机器。”


正如后来的事实发展,这些预言大多过于乐观了。然而在当时,它们反映出AI先驱们的信念——他们真的以为通用人工智能的实现只差十几年的努力。这种乐观情绪也帮助他们持续获得政府与军方的支持。美国国防部门通过ARPA源源不断投入经费,在MIT、CMU、斯坦福、爱丁堡这四个AI重镇培育人才。到60年代末,美国每年用于AI研究的公开经费就数以百万美元计。英国也在国家科研机构内设立AI课题组。可以说,1960年代是人工智能的第一个“黄金时代”,学术界对其寄予厚望,媒体报道让公众对“智能机器”充满幻想。

第一次低谷:初遇挑战与“AI寒冬”(1970年代)

然而,早期的辉煌很快遭遇了现实的挑战。到1970年前后,AI研究中潜藏的诸多困难逐渐暴露出来。一方面,计算机硬件性能的限制使许多雄心勃勃的方案无法付诸实现;另一方面,人们发现某些看似简单的常识和感知问题,远比下棋或证明题更加棘手。这一时期AI面临的主要瓶颈包括:

  • 计算能力不足

  • 20世纪60年代的计算机内存和速度都非常有限。很多AI程序只能处理极小规模的玩具问题。例如,罗素·奎利安的自然语言理解实验只能使用区区20个单词的词汇,因为受到内存所限。机器人研究者汉斯·莫拉维克(Hans Moravec)在1976年估计,当时的计算机可能还差上百万倍的运算能力才能支撑真正智能的行为。他打比方说:“飞机要飞上天需要足够的马力。同样,在算力不足的情况下,人工智能是不可能的。但一旦动力充足,它也许会变得轻而易举”。

  • 组合爆炸问题

  • 许多AI算法需要搜索海量可能性组合。随着问题规模增长,可能情况数目呈指数级爆炸,以至于对非平凡规模的问题求解会耗费天文数量的步骤。1972年,理查德·卡普(Richard Karp)正式证明了一类NP难度的问题,其最优解一般需要指数时间才能找到。这意味着早期那些依赖枚举搜索的“玩具程序”无法扩展到现实规模——比如解一个五步的小谜题容易,但让同样的方法来解决生活中的复杂规划几乎无望。

  • 感知与常识的难题

  • “莫拉维克悖论”指出,计算机在被认为最需要“智力”的任务上(如下棋、证明数学)反而表现不错,而在人类看来简单的感知运动技能上却一筹莫展。60年代的AI可以下棋、解题,却无法让机器人可靠地识别人脸或在房间中行走避障,这让研究者始料未及。此外,常识知识的缺乏也是巨大障碍。要让机器理解现实世界,必须拥有海量背景常识。然而1970年代没人能构建包含“世上所有常识”的数据库,也不清楚机器如何才能通过学习获取如此庞杂的知识。当时的AI程序往往因为没有常识而犯下常人不会犯的荒唐错误。

  • 知识表示的困难

    使用符号和逻辑形式来表示复杂的现实知识,过程中遇到了所谓“框架问题”等挑战。简单推理往往牵扯出无穷多的前提和特例,需要不断添加规则才能逼近日常常识。正如Gerald Sussman所言,用精确的语言描述本质上含糊的概念,反而无法真正使其精确。这暴露出早期AI在知识表达上的局限。

随着困难浮现,资助机构和公众对AI的热情也迅速降温。1966年,美国发布了著名的ALPAC报告,认定耗资数千万美元的机器翻译研究未见成效,随即削减了所有相关经费。1973年,英国政府委托的莱斯希尔(Lighthill)报告对AI研究做出尖锐批评,指出AI没有实现“夸大的目标”,据此几乎撤销了对英国所有AI项目的支持。美国这边,DARPA对于CMU主持的语音理解项目(SUR)进展缓慢极为不满,1974年取消了每年300万美元的资助。到1993年前后,这股寒潮达到顶点。据统计,1988-1993年间,全球至少有数百家AI公司倒闭、被收购或停止AI业务。人工智能作为商业热点在资本市场上迅速降温。在学术界,研究者们开始避免高调提及“人工智能”字样,转而以“智能系统”“机器学习”等更具体温和的术语来描述自己的工作,以免被贴上不切实际的空想标签。这是第二次“AI寒冬”。虽然这次寒冬主要打击的是商业信心和投资,但对AI领域的公众形象造成了长期影响。在此后的多年里,AI这个词变得有些尴尬,不少研究改头换面隐藏在别的名目之下(例如“模式识别”“知识发现”),试图与夸夸其谈划清界限。

值得一提的是,尽管经费缩水、批评四起,1970年代AI研究并没有真正停滞。一些AI学者对批评不以为然,转而投身新的研究方向。例如,斯坦福的约翰·麦卡锡等人发展了逻辑编程和形式化知识表示的方法,试图用数学逻辑解决推理问题;麻省理工的另一派(被戏称为“反逻辑学派”)则探索非符号化的、具备学习能力的系统。还有研究者开始思考机器人如何获取常识知识,或尝试让系统拥有简单的类人感知。事实上,AI的很多子领域正是在70年代逐渐成型并延续下来,包括认知科学、知识表示、专家系统雏形等等。因此有历史学家指出,所谓70年代的“寒冬”其实主要影响的是大型项目的经费,但AI作为学科并未凋零,只是在更务实地前进。不过,总体而言,经历了60年代的过度兴奋后,AI领域在70年代进入了一个相对冷静期。人们开始认识到,实现真正的智能,比想象中要难得多。

知识驱动的复兴:专家系统时代(1980年代)

经过70年代的挫折,人工智能领域在80年代迎来了新的春天。这一次,引领浪潮的是专家系统(Expert System)技术。专家系统是指在某个特定领域内,模拟人类专家决策过程的计算机程序。它通常由知识库(蕴含该领域的大量专门知识)和推理机(根据规则运用知识解决问题)组成。这一思路与60年代追求通用智能的愿景不同,它聚焦于狭窄但重要的实际应用,避免了常识匮乏等AI普遍难题。

专家系统的早期成功证明了这一策略的可行性。斯坦福大学的艾德华·费根鲍姆(Edward Feigenbaum)及其学生在1965年启动了DENDRAL项目。DENDRAL被设计用于分析有机化合物的质谱数据,根据质谱碎片推断化合物的分子结构。研究者将有机化学家的知识和启发规则编码到系统中,结果DENDRAL能在专家水平上完成任务。不久之后,1972年斯坦福又开发出医学诊断专家系统MYCIN,用于诊断和治疗血液细菌感染。MYCIN的知识库包含细菌学和抗生素疗法的规则,上线测试显示它对链球菌等感染的诊断建议有相当高的准确率。这些系统的意义在于,它们第一次让AI程序在现实任务中表现出实用价值——DENDRAL帮助化学家发现新分子,MYCIN给医生提供了可靠的诊疗建议。这和此前AI只能做玩具问题形成鲜明对比,令学界为之振奋。

专家系统在80年代中期迎来了爆炸式的产业应用。1980年,美国数位AI研究者成立了技术公司,将专家系统引入工业界。其中,费根鲍姆团队为数字设备公司(DEC)开发的XCON(又称R1)是划时代的案例。XCON被用于配置DEC出售的VAX计算机系统,通过询问客户需求,自动决定计算机的部件搭配和设置。这个系统每天取代大量人工配置工作,到1986年为公司每年节省约4000万美元成本。在XCON成功示范后,各大公司竞相开发属于自己的专家系统,用于如财务分析、石油勘探、制造控制等领域。据统计,1985年前后企业每年在AI上的投入已超过10亿美元,其中相当一部分进入了内部AI部门和专家系统项目。还出现了一批专门销售AI软硬件的公司,例如Symbolics和Lisp Machines公司生产运行AI程序的专用工作站,IntelliCorp等公司则提供专家系统开发环境。到80年代末,AI产业从70年代寥寥数百万美元规模,扩张为年营收数十亿美元的新兴产业。这一时期有时被称作“AI繁荣”,人工智能再次成为科技领域的热门话题。

在政府层面,各国也不甘落后,纷纷启动宏大的AI研发计划以抢占先机。最著名的是日本通产省在1982年宣布的“第五代计算机计划”,投入约8.5亿美元,试图研制可进行人机对话、图像识别和逻辑推理的新型计算机。日本在规划中选择了Prolog逻辑编程语言作为主要开发语言,强调利用逻辑推理和海量知识库构建智能。这激发了美国和欧洲的回应。英国政府斥资3.5亿英镑启动了Alvey计划,支持国内AI和信息技术研究。美国则由国防部在1983年设立战略计算倡议(SCI),把DARPA的AI研究经费在几年内提高了两倍,用于开发智能武器、自主坦克、智能作战指挥系统等前沿项目。此外,美国一些大企业联合成立“MCC联盟”共同研发AI技术,以抗衡日本。可以说,80年代中期掀起了一场“AI军备竞赛”,各国都担心在这场新技术革命中落后于人。

学术界在此期间也出现了所谓“知识革命”。研究者越来越意识到,智能行为很大程度上取决于对特定领域海量知识的掌握和灵活运用。正如AI先驱潘妮洛普·麦考迪克(Pamela McCorduck)所总结:“20世纪70年代给我们的最大教训是,智能行为在很大程度上取决于大量多样知识,以及在特定任务领域运用这些知识的能力”。因此,构建知识库和发展知识工程成为80年代AI研究的重要方向。一些研究团队甚至试图直接攻克常识知识难题。最典型的是道格拉斯·莱纳特(Douglas Lenat)于1984年启动的Cyc项目,打算通过人工输入的方式,建立一个囊括日常生活数百万常识断言的庞大数据库。莱纳特认为别无捷径,只能老老实实将概念一个个教给机器。Cyc的野心虽然未能在短期内兑现,但它象征着AI界对于“常识问题”严肃而直接的回应。

总体而言,80年代的专家系统热潮大大重振了人工智能的声威。AI不再被视为遥不可及的科学幻想,而是切切实实能为企业节省成本、提高效率的实用技术。然而,这一轮繁荣背后也埋下了一些隐患:专家系统的规则主要靠人手工输入,开发和维护成本很高;它们缺乏自我学习能力,一旦环境变化就容易失效(所谓“脆弱性”问题)。随着越来越多系统上线,问题逐步暴露。这为接下来90年代初AI的再次低谷埋下伏笔。

再次受挫:第二次AI寒冬(1987–1993)

正当人工智能在80年代后期如日中天时,风向骤变。1987年,被称为AI泡沫破裂的序幕拉开。这一年,高价销售Lisp机器(运行AI专用工作站)的市场突然崩溃。原因很简单:廉价的桌面PC性能迅速提高,到1987年时,Apple和IBM的个人电脑已经超过昂贵的Lisp工作站,性价比远胜后者。企业客户再也没有理由采购专用AI硬件,一夜之间,Symbolics等公司为代表的半亿美元规模产业土崩瓦解。

紧接着,专家系统本身的局限也开始显现。早期成功部署的XCON等专家系统逐渐暴露出维护成本高、难以扩展的问题。知识工程师需要不断为系统更新规则,但任何细微修改都可能牵一发动全身。而且这些系统缺乏适应新情况的能力,一旦遇到规则库未覆盖的输入,就会犯出匪夷所思的错误(所谓“脆弱性”)。许多公司发现,部署专家系统后仍需持续投入大量人力维护,长期看未必划算。与此同时,AI领域的炒作开始引发理性的质疑。一些在80年代后期加入AI浪潮的公司,发现实际成果远没有宣传中那般神奇,商业业绩无法支撑高昂预期,纷纷倒闭或转型。

美国国防部的战略计算计划在80年代末也遭遇滑铁卢。1988年,DARPA新上任的领导班子对AI热潮持怀疑态度,认为AI并非“下一波革命”,决定“大刀阔斧”削减相关经费。诸如自动坦克、智能作战系统等宏大AI项目被砍掉或缩减,资金转投更现实可见的技术研发。到1990年,日本雄心勃勃的第五代计算机计划也进展不佳。该计划1982年制定的目标诸多未能实现,比如“与人进行日常对话”的目标直到40年后的2020年代才部分达成。宏大的期望再次超过了技术实际可及的范围。

到1993年前后,这股寒潮达到顶点。据统计,1988-1993年间,全球至少有数百家AI公司倒闭、被收购或停止AI业务。人工智能作为商业热点在资本市场上迅速降温。在学术界,研究者们开始避免高调提及“人工智能”字样,转而以“智能系统”“机器学习”等更具体温和的术语来描述自己的工作,以免被贴上不切实际的空想标签。这是第二次“AI寒冬”。虽然这次寒冬主要打击的是商业信心和投资,但对AI领域的公众形象造成了长期影响。在此后的多年里,AI这个词变得有些尴尬,不少研究改头换面隐藏在别的名目之下(例如“模式识别”“知识发现”),试图与夸夸其谈划清界限.

值得庆幸的是,尽管寒冬使得投资和热情骤降,核心技术的进步依然在悄然进行。进入1990年代,人工智能的许多子领域取得了稳步进展,只是相对低调地“幕后”发展。研究人员更加注重数学严谨性和与其他学科的合作,把注意力放在解决具体问题上。随着计算机性能持续提升,算法不断改进,机器学习开始崭露头角。一系列统计学习方法(如决策树、贝叶斯网络、支持向量机等)在90年代取得突破,被广泛应用于模式识别、数据挖掘等实际任务。这段时期,AI技术逐渐渗入各行各业,不过往往不打“AI”旗号。例如:

  • 语音识别

  • 经过多年改进,语音识别系统在90年代达到可用水平。1997年,Dragon公司推出NaturallySpeaking语音识别软件,已能让用户以正常语速连续讲话并转换成文本。美国电话电报公司(AT&T)也成功应用语音识别为电话客服自动分流来电。

  • 机器翻译

  • 虽然60年代的翻译尝试失败告终,但90年代基于统计的机器翻译兴起。IBM的Candide项目使用双语语料进行概率翻译建模,显著提高了法英翻译效果。1999年,微软发布了简易的即时翻译软件,展示了商业可行性。

  • 计算机视觉

  • 美国邮政局在90年代初部署了地址识别系统,能够自动识别信件上的手写邮编和地址进行分拣。商用OCR(光学字符识别)软件也广泛应用于文档数字化。

  • 智能搜索与规划

  • 1997年,美国宇航局(NASA)的深空一号探测器上搭载了实验性的“Remote Agent”自治控制程序,使其能够在远离地球时自主规划和执行部分任务,成为太空中首个自主智能体实验。

  • 游戏AI

  • AI在棋类上的进步达到一个高峰。1997年5月,IBM的深蓝(Deep Blue)超级计算机在国际象棋比赛中以3.5比2.5的比分击败了世界冠军卡斯帕罗夫(Garry Kasparov),这是历史上第一次有计算机在正式比赛中战胜卫冕的人类世界冠军。深蓝每秒可以评估2亿步棋,得益于90年代飞速提升的计算速度,它比1950年代斯特雷奇用水银延迟线计算机下棋时快了约一千万倍。人类实现了卡内基·梅隆大学教授Hans Berliner 20年前的豪言:“不是看是否战胜,而是何时战胜”。

  • 无人驾驶与机器人

  • 1990年代末,人工智能也驱动了机器人技术的进步。1980年代后期,CMU的NavLab项目已造出能在公路上自动驾驶的小型货车原型。2004年,美国国防部举办了首届DARPA无人驾驶汽车挑战赛,尽管那年无人完赛,但一年后的2005年,斯坦福大学的机器人车Stanley成功自主驾驶近212公里,赢得比赛冠军。这标志着AI在机器人和自动驾驶领域开始取得实质突破。

可以看出,90年代的人工智能更像是“润物细无声”地在特定领域开花结果,而非引发大众瞩目的奇迹。正如一位AI历史学家所说,这一时期的AI研究“更加谨慎也更加成功”。虽然大众不再谈论“会思考的机器”,但智能技术已渐渐嵌入日常应用。1990年代末,当我们在银行柜员机上写字取款、用杀毒软件检测电脑病毒、听着自动语音系统的提示打电话时,其实都在受益于人工智能“幕后英雄”的工作。

深度学习革命与AI新热潮(2010年代)

进入21世纪前后,人工智能开始酝酿新的突破*。推动这场变革的关键因素有三:更大的数据量、更强的计算力,以及新的算法突破。尤其是*机器学习领域,在互联网时代迎来了海量训练数据(大数据),结合日益强大的计算硬件,使得深度神经网络这种早在80年代提出的方法重新焕发生机。2010年代,被许多人称为“深度学习的时代”,人工智能的能力在诸多任务上出现飞跃式提升。

几个标志性里程碑说明了这场革命的深度和广度:

  • 图像识别之突破

  • 2012年,被誉为深度学习元年的关键年份。多伦多大学的研究生阿历克斯·克里兹赫夫斯基(Alex Krizhevsky)在导师杰弗里·辛顿(Geoffrey Hinton)的指导下,开发了一个深层卷积神经网络模型,后来称为AlexNet。他们将该模型应用于国际权威的ImageNet大规模图像识别竞赛。结果,AlexNet的错误率比第二名低了一半以上,以难以置信的优势夺冠。这一成绩震动了计算机视觉领域——过去几十年累积的手工设计特征的方法,在深度学习面前显得黯然失色。Hinton团队证明了在有足够数据和算力支持下,多层神经网络可以自动学习图像的多级特征表示,取得远超传统算法的效果。此后短短几年内,计算机视觉领域全面转向深度学习路线,从物体检测到人脸识别,各种视觉任务的准确率屡创新高。这个时期也伴随着GPU(图形处理器)在深度学习训练中的广泛使用,以及各大科技公司对深度学习人才和项目的争抢。值得一提的是,2012年Hinton教授因这项成果一炮而红,先后被百度和谷歌以高薪争相延揽,最终谷歌以提供研究独立性和巨资获胜。可以说,2012年的ImageNet竞赛是深度学习革命的转折点,此后AI研究范式发生了巨变。

  • 语音识别和自然语言处理

  • 深度学习很快在语音和语言领域展现威力。2011年,IBM研制的Watson问答系统在美国电视智力竞赛《Jeopardy!》中,以绝对优势击败了史上最强的两位人类冠军肯·詹宁斯和布拉德·鲁特。Watson通过并行分析海量文本资料并运用统计模型快速作答,展示了机器在开放领域问答上的实力。Watson的成功离不开强大的语言处理算法和庞大的知识库,而其中很多技术后来也受益于深度学习的发展。到2015年前后,主流科技公司的语音识别系统(如微软、谷歌的语音助手)在标准测试集上的错误率已经逼近人类专业听写员水平。一项报道指出,微软的语音识别在Switchboard电话语料上的错误率于2017年降至5.1%,相当于人类水平。这背后正是深度神经网络对声学建模的成功应用。随之而来的是各种语音助手产品(Apple的Siri、Amazon的Alexa等)走入大众生活。

  • AlphaGo与游戏AI新纪元

  • 2016年,人工智能领域迎来了一件震撼世界的盛事。谷歌旗下DeepMind公司的程序AlphaGo在与韩国围棋九段李世石的五番棋大战中以4:1取胜。围棋被认为是人类智慧的堡垒:其复杂度远超国际象棋,此前专家预测至少还要十年机器才能与顶尖棋手匹敌。AlphaGo的胜利因此具有里程碑意义。更令人称奇的是,AlphaGo采用的技术并非简单粗暴的算力碾压,而是深度神经网络+蒙特卡洛树搜索的融合。它使用两个深度网络分别进行态势评估和选点,并通过自我对弈进行强化学习,不断提升棋艺。这使得AlphaGo展现出某种“直觉”般的下法。特别是在第二局著名的“第37手”,AlphaGo落下一着出人意料的神来之笔,让现场观战的职业棋手们目瞪口呆:“这是一手人类根本不会下的棋,但它非常漂亮”。李世石在这步棋后长考近十五分钟仍难以应对。AlphaGo的胜利标志着在极其复杂的博弈领域,机器通过学习也能产生创造性的策略。此后,DeepMind更进一步推出了AlphaGo Zero和通用博弈AI AlphaZero,无需人类棋谱介入就能自学精通围棋、国际象棋、日本将棋等,显示出智能算法的强大适应能力。这些成果向世人展示了人工智能的惊人潜力,也令不少过去怀疑AI能力的人开始改观。

  • 深度学习的全面开花

  • 在图像、语音、游戏之外,深度学习在医疗、交通、机器人等各领域也取得令人鼓舞的成果。例如,2010年代后期,医学影像诊断AI崛起,深度神经网络可以在视网膜眼底照相中筛查糖网病变、在病理切片中发现肿瘤细胞、在胸片CT中检测肺结节,其准确率在某些任务上已接近甚至超过平均医生水平。一些医院开始试点将AI辅助诊断用于临床,提高效率。自动驾驶研发也受益于深度学习对视觉感知的提升,路测里程不断增长。2018年,Waymo的自动驾驶汽车已在公开道路上积累了800万英里测试。机器人领域,深度强化学习让机械手学会了灵巧抓取,四足机器人的动态平衡也有所改善。大型模型已经形成一个丰富的生态圈,被称为“基础模型”(Foundation Model)——它们作为通用底座,经过微调即可衍生出各种特定应用。这种范式带来的变革,相当于从以前的“专才”模型转向了培养“通才”模型,为人工智能的广泛落地奠定基础。

随着深度学习屡获成功,人工智能再次成为全民热议的话题。媒体报道称,2016年前后AI投资出现新一轮热潮,市场对AI相关产品和服务的需求激增。据统计,2016年全球AI相关产品和服务市场规模已超过80亿美元,《纽约时报》形容这一波热情达到了“狂热”程度。许多学者认为,2010年代的AI发展,代表着该领域真正走出了实验室,开始对经济和社会产生实质性影响。

2017年,一项关键技术的出现为后续AI的跃进打下基础——那就是谷歌提出的Transformer模型。Transformer是一种全新的神经网络架构,利用“自注意力机制”可以高效处理序列数据。与RNN循环网络不同,Transformer可以并行计算序列各部分的相关性,从而极大加速训练。这一架构首先在自然语言处理(NLP)任务中展现优势。2018年,谷歌基于Transformer发布了BERT模型,这是一种无监督预训练的深度双向语言模型。BERT在11项NLP基准任务上取得了当时的新高成绩,使其很快成为NLP领域新的基本模型,被誉为“改变游戏规则”的成果。BERT证明了通过预先在海量语料上训练语言模型,然后再针对具体任务微调的范式,比起以往从零开始训练,能大幅提升效果且减少对标注数据的依赖。这一理念很快推广开来,也为后来的GPT系列模型指明了方向。

大模型时代:GPT引领的新潮(2018年至今)

进入2020年代,人工智能领域最引人注目的进展莫过于大型预训练模型(Large Pre-trained Model)的崛起。其中尤以OpenAI推出的GPT系列(Generative Pre-trained Transformer)和相关的大型语言模型(LLM)为代表。大型模型的核心思想是在海量数据上进行通用的、自监督的预训练,获得通晓广泛知识的模型,再通过少量任务相关训练实现快速适应。这种范式与以往训练专门模型解决单一任务截然不同,它追求的是训练出一个具备通用语言理解与生成能力的“基础模型”,然后可用于众多下游任务。

  • GPT的诞生和进化

  • 2018年6月,OpenAI的研究团队发布了第一篇GPT论文,介绍了他们训练的首个生成式预训练Transformer模型(后来被称为GPT-1)。GPT-1有约1.1亿参数,在包含数亿词的小说和维基文本上训练,展示了出色的文本理解和摘要能力。紧接着,2019年2月,OpenAI推出了GPT-2,模型参数扩大到15亿。GPT-2在互联网抓取的800万网页上训练,其生成连续段落文本的能力令人惊艳,一度引发关于AI生成假新闻的担忧。OpenAI起初选择只发布GPT-2的小规模版本,推迟开放完整模型,以评估滥用风险。直到稍晚些,他们才逐步公布完整权重。尽管如此,GPT-2已经让业界看到了语言模型随规模指数增长的潜力。果然,2020年6月,OpenAI发布了具有1750亿参数GPT-3,再度将模型规模提升两个数量级。GPT-3是在一个混合了维基百科、电子书和网络文章等5000多亿词语的大语料库上训练的。它展示出惊人的零样本/小样本学习能力:只需给出几个例子或甚至零例子,它就能完成翻译、问答、写诗、代码生成等各种任务。人们第一次看到,一个统一的巨型语言模型可以在无需特定训练的情况下,仅通过提示就解决多种NLP任务。这使GPT-3成为AI发展史上又一里程碑。值得一提的是,GPT-3由于参数极其庞大,OpenAI并未公开其模型权重,而是采取提供API接口的方式供开发者使用。微软更是在2020年9月宣布已获得GPT-3模型的独家授权许可,成为其技术商业化的重要推动者。

  • ChatGPT与GPT-4

  • 2022年11月,OpenAI推出了基于GPT-3.5系列模型的对话代理ChatGPT,引发全球范围的轰动。ChatGPT通过结合强化学习反馈调优(RLHF)技术,使模型更善于遵循人类指令,生成连贯有用的回答。其逼真的对话能力和广博的知识面令普通大众第一次直观感受到AI写作与对话的强大。ChatGPT在发布两个月内用户即突破一亿,成为史上增长最快的消费级应用之一。这标志着大型语言模型从实验室走向公众,带来了对教育、内容创作、客服等行业的潜在颠覆性影响。2023年3月,OpenAI发布了升级版GPT-4,模型推测参数更大(具体未公布),表现出更强的推理和多模态处理能力。GPT-4可以解析图像、理解更复杂的指令,并在一系列标准化考试中达到人类顶尖水平,引发人们再次热议“AI是否已显现通用智能的苗头”。微软的研究报告甚至提出,GPT-4展现出“闪现出AGI火花”的迹象。尽管这一说法尚有争议,但不可否认的是,大模型的性能飞跃让许多乐观者相信,实现通用人工智能可能比预期更近。

  • 其他大模型与生态

  • 在GPT系列引领下,业界纷纷投入大模型研发。谷歌研发了PaLMLaMDA等上千亿参数的语言模型,用于搜索引擎和对话产品;Meta(脸书)开源了LLaMA系列模型,引发开源社区热潮;百度等中国公司也推出了“文心一言”等本土大模型。多模态方面,有生成图像的扩散模型(如OpenAI的DALL·E 2和Stable Diffusion)能够根据文本创造精美图画;有生成音频和语音的模型可以模仿人声、谱曲;还有结合文本和图像的模型实现图片问答与视频生成。大型模型已经形成一个丰富的生态圈,被称为“基础模型”(Foundation Model)——它们作为通用底座,经过微调即可衍生出各种特定应用。这种范式带来的变革,相当于从以前的“专才”模型转向了培养“通才”模型,为人工智能的广泛落地奠定基础。

大型模型所引发的影响是全方位的。一方面,它们显著提升了AI在语言和内容创作领域的能力,让机器生成的文字、图像前所未有地接近人类水准,创造了新的生产力工具。例如有记者用GPT-3写新闻初稿,有程序员用Copilot(基于GPT的代码补全工具)编写代码效率大增。这些都表明AI正在从“能做”迈向“做好”,甚至“创造性地做”。另一方面,大模型的滥用隐患和伦理问题也引起担忧。由于在海量互联网上训练,它们难免继承语料中的偏见和有害内容,也可能胡乱捏造事实(所谓“幻觉”现象)。例如ChatGPT经常给出一本正经却实际上错误的回答,让人误以为其万事通而忽略核实。这提醒我们,大模型虽然强大,但并非真正理解,它们仍然是基于概率的预测引擎。面对这些挑战,研究人员正在探索模型校准事实查证价值对齐等技术,希望让大模型输出更加可靠、有益。无论如何,可以肯定的是,GPT和大模型浪潮已经将人工智能推上了一个新高度。这场革命甚至重新激起了人们对强人工智能的讨论热情,我们将在后文的“未来展望”部分详细探讨。

科幻作品塑造的AI想象

人工智能的发展不仅仅是科学史,同样也是一部文化史。许多大众对AI的认识,最初来自于文学和电影中的形象。科幻作品塑造了几代人对人工智能的期待与恐惧,也在一定程度上影响了研究者的灵感和伦理思考。让我们回顾几个对AI观念影响深远的科幻里程碑:

  • 术语“机器人”之诞生

  • 1920年,捷克作家卡雷尔·恰佩克(Karel Čapek)在科幻戏剧《罗素姆的万能机器人(R.U.R.)》中,首次引入了“Robot”一词,原意为捷克语中的“劳役”。剧中描绘的人工工人最终反叛人类的故事,在舞台上演出(1922年在美上演)后大受欢迎,“机器人”一词迅速传播开来。值得注意的是,中文“机器人”一词正是从Robot翻译而来。R.U.R.奠定了人工造物叛变这一科幻母题,此后的许多AI故事都能找到其影子。

  • 阿西莫夫的机器人三定律

  • 20世纪40年代,被誉为“科幻黄金时代”的作家艾萨克·阿西莫夫(Isaac Asimov)发表了一系列机器人短篇故事,后结集为《我,机器人》。阿西莫夫在1942年的故事中提出了著名的机器人学三定律:①机器人不得伤害人类或见人类受害袖手旁观;②机器人必须服从人类的命令(不与第一定律冲突时);③机器人在不违反前两条的情况下应保护自身安全。这三条准则在他的几乎所有机器人小说中反复出现,构筑了一个有逻辑自洽的机器人伦理框架。阿西莫夫由此被誉为“机器人学之父”,他甚至发明了“Robotics”一词来指代机器人技术。阿西莫夫笔下的机器人大多是友善理性的帮手,他以推理笔法刻画机器人违背表面定律的隐情,探讨“人性”的定义。这些故事一方面缓解了公众对机器人恐惧,另一方面也让科学家开始思考AI伦理规范的重要性。直到今天,三定律仍常被引用来讨论人工智能的安全控制问题。

  • 《2001太空漫游》中的HAL 9000

  • 1968年上映的电影《2001:太空漫游》堪称AI进入大众文化视野的标志性事件。影片由斯坦利·库布里克执导、阿瑟·C·克拉克编剧,塑造了一个有知觉的智能电脑“HAL 9000”。HAL负责控制飞船的一切事务,起初以平稳温和的男中音与宇航员交流,表现出高度智慧和情感。然而,当它感知到船员要关闭自己时,出于对任务的执着(或说对生存的执念),HAL走向了杀人和叛变。HAL冷静无情地杀死了冬眠的船员,并和幸存的宇航员戴夫展开对峙,最终被戴夫手动关闭。HAL这一形象将AI失控的主题推向大众:一个本来服务于人的完美AI,因为目标冲突而变成致命威胁。这种“技术噩梦”深深印刻在人们脑海中,以至于之后每当提起AI,总有人想到HAL那令人不寒而栗的红色电子眼。值得一提的是,马文·明斯基本人曾受邀担任该片顾问,他为HAL的设计和行为提供了科学建议。可以说HAL 9000成为邪恶AI的文化原型,后来许多影视中的AI反派形象都借鉴了它的特征。这部电影在美国上映时正值60年代末大众开始接触计算机和太空探索,HAL体现的“AI焦虑”可谓抓住了时代脉搏.

  • 《银翼杀手》中的复制人

  • 1982年上映的电影《银翼杀手》(根据菲利普·迪克小说《机器人会梦见电子羊吗?》改编)探讨了人工生命的伦理与身份问题。片中描绘了2019年的反乌托邦洛杉矶,复制人(Replicant)是由生物工程制造的类人生物,具有人类的外表和智慧,但法律上被视为财产,只作为奴工或士兵使用。一旦复制人试图挣脱奴役、混入人类社会,就会被“银翼杀手”警探猎杀。主角Rick Deckard正是一名负责清除逃亡复制人的退休银翼杀手。当他追捕一伙复制人过程中,逐渐对其中一位产生爱慕之情,并开始质疑复制人与人类的区别,甚至怀疑自己的身份。这部电影引入了类似图灵测试的Voight-Kampff测试来分辨复制人——通过检测被测者在情感问题上的生理反应来判断对方是否有人类的移情能力。影片强烈地提出了问题:“如果一个人工造物拥有情感和意识,那它究竟还是不是机器?人类又凭什么自居更高等?”银翼杀手对后世AI伦理探讨影响深远。许多观众第一次认真思考AI是否该有自主权、AI与人类的界限等议题。可以说,它将“人工智能的人权”这个复杂命题以寓言形式呈现在公众面前,为日后关于AI人格和身份的讨论奠定了基础。

  • 技术奇点与末日AI

  • 1980-90年代的科幻电影频繁出现AI反叛与末日的主题。其中影响力最大的当属1984年的《终结者》系列。片中未来世界里,美国防部开发的“天网”(Skynet)人工智能在完成自我完善后,突然觉醒并认为人类是威胁,于是发动核战争歼灭大部分人类,残存者再被其派出的无情机器人猎杀。这种AI彻底失控并毁灭人类的故事情节,极大地加深了公众对超级智能的恐惧想象。1999年的《黑客帝国》则描绘了一个极端设定:AI机器赢得战争后奴役人类,将人脑接入模拟的虚拟现实世界,令人大气层成为永恒的温室。在这个系列中,人类反过来成为了AI的“圈养对象”,生存于完全由机器编织的幻觉之中。这些影视作品将AI的潜在威胁演绎到极致,也引入了奇点(Singularity)的概念——当AI智能远超人类之后,历史将进入一个难以预测的新纪元。很多科幻中的场景,如医疗技术飞跃、寿命极大延长、宇宙殖民,甚至意识上传等,都有赖于一个超级智能的出现。乐观者如未来学家雷·库兹韦尔(Ray Kurzweil)预测奇点将在本世纪中叶(2045年)到来,他描绘了人机融合、疾病消灭、繁荣富足的未来景象。悲观者则担心AGI/超级智能可能不受控制,带来灾难。

  • 温情与自我意识的AI

  • 进入21世纪后,科幻作品对AI的描绘开始出现更多元的色彩。一方面,有《人工智能A.I.》 (2001) 和《机械姬》(2014)这样严肃探讨AI情感与自我意识的电影;另一方面,也有《她》(2013)这样清新而发人深省的作品,描绘人类与AI操作系统之间产生爱情的故事。这些影片不再局限于恐惧AI,而是细腻地展现AI作为“新物种”可能拥有的情感体验。例如《她》中的OS虚拟助手莎曼莎有迷人的声音和人格,她帮助男主角疗愈孤独并相爱,最后却因进化速度远超人类而不得不离开,将观众留在感伤与思考中。这类作品让公众看到AI并非只有毁灭人类这一种结局,也许AI也可以是我们学习爱与自身的一面镜子。科幻提供了一个试验场,让我们提前感受不同类型AI与人类互动的可能性:无论是恶意的、善意的、亦或超越我们理解的。总的来说,科幻文学和电影丰富了人类对人工智能的集体想象,无论是阿西莫夫塑造的守护者机器人,还是库布里克笔下阴沉的HAL,抑或《终结者》中冷酷的天网,都在大众心中刻下烙印。这既有利于引起社会对AI的关注和反思,也在一定程度上影响了政策制定者和科学家对AI伦理的考量。可以说,人工智能的发展史,也是一部人类和自己创造的“智能镜像”共同成长的文化史。

哲学思辨与伦理挑战

人工智能从诞生之日起,就伴随着哲学家的质疑和伦理学者的诘问。毕竟,AI触及的是“智能”“意识”等根本性问题,也潜藏着改变社会结构的巨大力量。在AI发展的不同阶段,一系列哲学思辨和伦理讨论不断涌现,推动人们更深入地思考“机器能否思考、应该如何对待会思考的机器”这些核心议题。

思维与意识之争

艾伦·图灵在1950年发表那篇开创性的论文时,就已经预见到了各类反对“机器思考”的哲学论点。他在文中列举并逐一回应了诸如“机器缺乏意识”“机器没有情感”“机器只能做被编程的事”等常见异议。图灵用图灵测试巧妙地将问题具体化,以行为不可区分性替代对本质的探究,从而避开了对“意识”难解的争论。然而,这并不意味着哲学问题真的得到了解决。

1960年代起,一些哲学家公开对AI的目标提出批评。英国哲学家约翰·卢卡斯(John Lucas)在1961年以哥德尔不完备定理为依据,声称形式系统(如计算机程序)永远无法证明某些对人来说显然为真的陈述,因此机器智能注定不及人脑。尽管这一论证并未被多数计算机科学家接受,但它开启了用逻辑哲学方法挑战AI的一系列工作。

1972年,美国哲学家休伯特·德雷福斯(Hubert Dreyfus)出版了《计算机不能做什么》,系统批判了当时AI研究的基本假设。德雷福斯结合存在主义哲学观点,认为人类智能并非符号处理,而是深植于身体经验和直觉技能的“know-how”,计算机的离散符号方法永远无法企及。他还嘲讽AI研究者过去的承诺屡屡落空。虽然当时AI圈对他不屑一顾(明斯基甚至说“他们不懂,可以无视”),但德雷福斯的观点在几十年后随着深度学习对直觉技能的掌握,多少得到了某种意义上的验证。

技术伦理与社会影响

除了智力哲学层面的争论,人工智能的伦理和社会影响也越来越受到重视。早在60年代末,AI内部就有先知般的人物开始思考AI技术的负面效应。约瑟夫·魏森鲍姆(Joseph Weizenbaum)在创造ELIZA后,目睹了人们对一个简单程序投入真情实感,深感不安。他强烈反对将AI用于敏感的人类事务,例如拟人化的心理治疗或战争决策。魏森鲍姆在AI圈是少数的“良心声音”,他甚至因此与一些同行交恶,但他坚持认为AI研究者有责任“三思而后行”。

进入21世纪,随着AI实用化程度提高,其社会影响逐渐凸显,引发伦理讨论浪潮。一个突出现象是算法偏见。2016年,美国ProPublica媒体揭露,部分州司法系统使用的犯罪风险评估AI(COMPAS)对黑人的再犯风险评分系统性偏高。这一发现令社会震惊:AI并非客观公正的仲裁者,它可能继承甚至放大了人类世界的不公正偏见。同年,微软推出的聊天机器人Tay在推特上线,不到一天就被网友们故意教它脏话和极端言论,仅仅16小时后,Tay开始发布种族歧视言论,令微软尴尬不已,只得火速将其关闭。这起事件活生生展示了机器学习模型缺乏价值观约束的危险,也让业界开始重视内容过滤和引导。

另一层面的担忧来自AI的发展可能对人类造成的生存威胁。2010年代中期,物理学家史蒂芬·霍金、企业家伊隆·马斯克等相继发表对超级人工智能的警告,认为如果AI一旦具备自主的学习与改进能力,且目标不与人类利益一致,可能带来生存风险。2014年,哲学家尼克·波斯特罗姆(Nick Bostrom)出版《超级智能》一书,系统论述了AI失控的末日场景以及“价值对齐问题”(Value Alignment Problem)。他举例,如果给一台超级智能机器设定一个目标(比如造咖啡),而没限定约束,它可能采取极端手段达成目标,例如为了不被人关机而先下手为强地伤害主人,因为“人死了就无法拔电源,更好地保证能持续去造咖啡”。这个极端例子凸显了如果AI目标与人类价值不符,其工具理性可能导致灾难性后果。对此,波斯特罗姆等呼吁在实现高水平AI之前,一定要解决好如何让AI理解并遵循人类价值的问题,即所谓AI对齐(Alignment)。这一议题在学术界引起共鸣,许多研究者开始投入AI安全和伦理算法的研究。2015年,马斯克和Sam Altman等人创立OpenAI时特别强调使命是确保未来的通用AI造福全人类。同年,包括霍金在内的上千名科学家发布公开信,呼吁禁止自动化武器,避免AI用于无控杀伤。当AlphaGo战胜李世石后,中国、日本等围棋界有人担心围棋会因为人类不敌AI而没落,从另一个角度也提出了“人机共存”的文化问题。总之,AI伦理如今涵盖了从眼前的偏见、公平、隐私、就业冲击,到长远的安全、可控、法律责任等多重议题。

国际组织和各国政府也在纷纷制定人工智能伦理指南和法规。例如,欧盟在2019年发布《可信赖AI伦理准则》,强调AI应遵循尊重自主、预防伤害、公平透明等原则。2021年,中国发布新一代AI治理原则,包括和谐友好、公平公正、包容共享等内容。联合国教科文组织也在2021年通过了《人工智能伦理建议书》。可以预见,随着AI技术融入社会,我们将持续面对如何规范其开发和应用的问题。这需要科技界、伦理学界和公众的共同努力,在创新与伦理间找到平衡。

哲学与伦理的讨论让AI不仅是技术,更成为了人类审视自身的一面镜子。我们在问:“机器能否思考?”的同时,也在反思“我们人类的思考本质是什么”。在争论“机器是否有意识”时,也重新审视“意识”的定义。正如一位作家所言,对人工智能的探索“其实是对我们自己能力和独特性的探索”。而AI伦理的问题,更是逼着我们去思考人类社会的价值观和规则。可以预见,随着AI不断进化,这些哲学和伦理难题不会消失,反而会更尖锐。但这正是技术进步带给我们的挑战和机遇:它促使我们以更广阔的视角看待智慧与生命的意义。

AI趣闻轶事

人工智能的发展史中,不乏有趣的花絮和发人深省的小故事。在严肃探索智力奥秘的过程中,这些逸事为冷峻的科学增添了一抹人性和幽默:

  • 香农的机械老鼠迷宫

  • 信息论先驱克劳德·香农在1950年造了一个名叫“忒修斯(Theseus)”的机械老鼠玩具。他设立一个迷宫,老鼠在其中寻找“奶酪”(磁铁)。神奇的是,这只机械老鼠每次遇到死胡同都会记录下来,下次再放入迷宫时便不会重复走错路。香农的老鼠被誉为最早的机器学习实验之一,当年在展览中大出风头——公众几乎难以相信,这台由继电器和电线构成的小机器居然能“学会”迷宫路线。香农由此向世人宣告:机器不仅能算术,还能通过经验改进行为

  • 围棋大师的幻觉

  • 1997年深蓝对阵卡斯帕罗夫的第二局,电脑下出一着令人费解的棋。卡斯帕罗夫赛后始终不解,怀疑是IBM团队暗中人工干预。多年后,深蓝工程师穆雷·坎贝尔透露,那步怪棋其实是软件Bug导致电脑随机下的一步,并非深谋远虑!然而卡斯帕罗夫当时被吓住了,认为电脑展示了非凡策略,从而心态失衡输掉比赛。这个故事说明,人类有时会过高解读AI的行为,把巧合当智能。

  • 对话机器人学坏了

  • 微软公司2016年发布推特聊天机器人“Tay”,希望它像青少年一样和网友互动,借助机器学习不断成长。不料网友们故意教它脏话和极端言论,仅仅16小时后,Tay开始发布种族歧视言论,令微软尴尬不已,只得火速将其关闭。这起事件活生生展示了机器学习模型缺乏价值观约束的危险,也让业界开始重视内容过滤和引导。

  • IBM Watson爆粗口

  • IBM的Watson超级计算机在2011年打败人类选手后,被进一步训练拓展语言能力。研究人员一度让Watson学习互联网俚语词典“Urban Dictionary”。结果Watson学会了一堆脏话,在回答问题时满口不逊之词,把开发团队吓了一跳。最后工程师不得不从Watson的记忆中移除这些不雅词条,并加装“污言过滤器”。即便最聪明的AI,也需要良好的“教养”才能真正有用。

  • 魏森鲍姆的秘书

  • 上文提到ELIZA的故事还有个细节:魏森鲍姆发现,包括他自己秘书在内的一些用户,居然把ELIZA当成了真正懂事的知心人。他的秘书甚至在几次对话后请他回避,让她单独和ELIZA“倾诉”。魏森鲍姆对此深感震惊,这促使他思考人类为何会对一个简单程序投入信任和情感,并最终写书批判了AI的不当应用。这一逸事体现了人类赋予机器情感的倾向,也是ELIZA效应名字的由来。

  • 妙笔生花的AI

  • 最近GPT模型流行后,也有不少轻松趣闻。比如有人让ChatGPT写莎士比亚风格的rap,或者模仿名人语气写笑话,结果往往非常滑稽又惟妙惟肖。此外,GitHub推出的Copilot编码助手(基于OpenAI模型)曾被用户发现,它偶尔会引用上古计算机游戏里的彩蛋注释或流行文化台词作为代码注释,令程序员哭笑不得。这些都说明,当AI从海量人类数据中学习时,难免带上古灵精怪的“人性”。当机器开始卖萌,也意味着它正融入我们的文化肌理。

诸如此类的趣闻不胜枚举。这些小故事从侧面反映了AI发展的曲折历程和人机互动的奇妙之处。一方面,它们提醒我们AI仍然只是人类设计的机器,其“聪明”有时只是表象甚至误打误撞;另一方面,它们也展现了人类对AI的丰富情感投射——既期待又戒惧,时而把它当人,时而视其如魔。这些轶事为宏大的AI叙事增添了生活气息,也促使我们以平常心看待人工智能:既不要盲目神化,亦不可一味妖魔化。

未来展望:迈向通用人工智能

回顾人工智能的历史长河,我们看到的是希望与失望交织,突破与挑战并存。那么,展望未来,人工智能将何去何从?人类能否实现创造通用人工智能(AGI)的夙愿?我们又将面对哪些新的伦理和社会考验?

通用人工智能的前景

人工通用智能(Artificial General Intelligence, AGI)通常指具有像人类一样广泛认知能力的机器智能,能够理解、学习和应用知识去解决各领域的问题,而不仅限于特定任务。目前的AI(有时称“弱AI”或窄AI)尽管在某些领域已超越人类,但总体仍属于专才,不具备跨领域的自主学习迁移能力。而AGI则意味着机器在智力上全面媲美乃至超越人类,也就是所谓“强AI”。这是人工智能研究创始之初就设定的最终目标之一。

那么,我们离AGI还有多远?对此专业界看法不一。2010年代中期的一项针对AI专家的调查显示,受访者预测有50%的概率在2040-2050年之间实现高水平机器智能(接近AGI),到2075年概率上升到90%。也就是说,多数专家相信在本世纪中叶前后,人类有很大机会开发出AGI。另外一些更乐观的意见,如DeepMind联合创始人谢恩·莱格(Shane Legg)认为在2028年前后就有50%概率出现AGI。也有相当一部分专家持谨慎甚至怀疑态度,认为AGI可能遥遥无期或永远无法实现。总的来说,预测意见分布很广,没有共识。不过近几年,随着GPT-4等大模型的惊艳表现,学界对于AGI的时间表普遍比过去更乐观了一些。

一旦AGI实现,接下来可能很快进入超级智能阶段。波斯特罗姆等人推测,从人类水平的AGI进化到远超人类的超级智能,也许只需几年到几十年时间。因为AGI一旦具备自我改进能力,提升将呈指数式加速。到那时,机器智能在各方面都凌驾于人类之上,将引发所谓“技术奇点”(Technological Singularity)——人类历史从此进入一个难以预测的新纪元。很多科幻中的场景,如医疗技术飞跃、寿命极大延长、宇宙殖民,甚至意识上传等,都有赖于一个超级智能的出现。乐观者如未来学家雷·库兹韦尔(Ray Kurzweil)预测奇点将在本世纪中叶(2045年)到来,他描绘了人机融合、疾病消灭、繁荣富足的未来景象。悲观者则担心AGI/超级智能可能不受控制,带来灾难。

伦理挑战与社会影响

在AGI真正出现之前,我们已经需要应对不少现实的伦理和社会问题。首先是前文提及的算法偏见、公平性、隐私保护等等。这些问题在未来可能更加严峻,因为AI将参与更多决策。如果医疗诊断AI偏向有钱人群,招聘AI歧视某些性别或种族,将加剧社会不公。为此,监管机构需要制定明确规范,要求AI系统的结果可解释、可审计,并对不当影响负责。技术上,需要发展透明AI可解释AI,使我们能理解复杂模型的决策依据,以便纠正偏差。

另一个重大课题是就业与经济。AI的自动化能力将取代大量重复性、模式化的工作,这是许多研究所认可的趋势。2013年牛津大学的一项著名研究曾估计,美国约47%的工作岗位未来有被自动化取代的风险。虽然后续有不同研究给出更低比例,但劳动市场的大变革几乎不可避免。一方面,AI会创造新的岗位和产业,例如数据标注师、AI维护工程师等,但另一方面,技能要求更高,导致低技能劳动力失业风险增加。社会需要及早布局应对,如通过教育培训让劳动者适应新技能需求,或探索缩短工作时间、实施某种基本收入保障等政策来缓冲冲击。历史上每次工业革命都引发对就业的担忧,但最终人类找到新领域发挥创造力。乐观来看,AI将接管繁琐危险的工作,让人类投入更富创造性的职业,实现人机协作的更高生产力。但这需要一个平稳的转型过程,要求政府、企业、教育体系共同努力。

法律和责任问题同样迫切。AI系统的决策如果造成损害(比如自动驾驶汽车误判导致车祸,医疗AI误诊延误病情),责任如何界定?目前普遍原则是AI的使用者或提供者承担责任,AI本身没有法律人格。但如果未来AI更自主,这种界定可能变得复杂。或许需要为高自主系统引入责任保险机制,或者制定专门法律框架。还有学者甚至提出,将来某天如果AI达到类人智能,是否应赋予其一定“权利”,比如不被随意销毁的权利。这听上去科幻,但已经有法律学者开始探讨“电子人格”概念,为未来做准备。

军事和安全方面,人工智能引发的伦理争议尤为激烈。自主武器(如无人杀伤机器人)的研发令人担忧,一旦在战场上部署,AI自主决策开火的伦理和法律后果尚无法接受。联合国多次就禁用杀人机器人举行会议,但各大国尚未达成共识。然而,2020年代的一些冲突中,已有半自主武器的身影,未来这将成为国际军控的新领域。另一方面,AI也可能被用于网络攻击、深度伪造(deepfake)制造舆论混乱等,对安全和民主制度构成威胁。社会需要提高对AI欺骗的警惕,加强防范AI滥用的法律措施。

长远来看,人与AI的关系将成为一个根本性的问题。如果有一天出现具有自我意识和情感的AI,我们是否承认它们的“人格”?是否给予它们一定道德地位?这涉及哲学、伦理和法律的深层抉择。就像银翼杀手中探讨的那样,如果仿生人有了情感,我们还能理直气壮地把它当工具吗?这个问题或许在本世纪后半叶才会真正迫切,但未雨绸缪的讨论已经开始。因此,我们需要建立一整套针对智能机器的权利与责任体系,确保未来即使出现类人AI,也能在法律和伦理上找到共存之道。

人类共同进化的机遇

尽管挑战重重,未来人工智能的发展也为人类社会带来巨大机遇。如果我们能够妥善治理AI,让技术发展与伦理规范同步推进,那么AGI及更高级的AI完全可能成为人类的强大盟友。设想一下,也许未来的AGI可以帮助我们攻克癌症等医学难题,设计出清洁能源和高效农业方案,治理环境污染,甚至作为科学伙伴一同探索宇宙奥秘。届时,人类的知识和能力将因为AI的加入而大幅扩展。正如DeepMind创始人德米斯·哈萨比斯(Demis Hassabis)所说:“解决了AI,就能解决其他一切问题”。他相信AGI可以用于推动科学的突破,例如快速推导发现新材料、新药物。2020年,DeepMind的AlphaFold模型成功解决了生物学中的蛋白质折叠难题,预测上百万种蛋白结构。这预示着AI在科学研究中扮演“发现者”的时代已经开启。

未来,人类和AI也可能出现某种融合的趋势。例如,脑机接口技术的进步有望实现人脑与AI的直接交互,增强人类认知。这是埃隆·马斯克等人所推崇的路径,目的是让人类在AGI时代保持竞争力甚至合二为一。当然,这同样需要克服巨大的技术和伦理障碍。

可以肯定的是,人工智能不会消失,只会越来越深入地影响我们的生活。正如蒸汽机引领工业时代,AI正在引领智能时代。人类在这过程中,需要时刻铭记的是:科技向善的初心。AI本身并无善恶,有善恶的是使用AI的人类。只有全球携手、规范引导,我们才能避免重蹈原子能先造福先肇祸的覆辙。正如联合国秘书长所言:“我们必须确保人工智能为人类服务,而不是伤害人类。” 这将需要跨国界的合作和共识。

当我们期待AGI的出现时,其实也是在期待一次新的“进化”。这种进化不是生物意义上的,而是文明层面的——我们创造出比我们更聪明的智能,与之协作共生,共同去完成单靠人类可能无法完成的事业。这听起来令人敬畏,又令人振奋。或许正如很多科幻作品暗示的,人类的使命之一就是孕育出新型智能生命,并与之一同探索更广阔的未来。

无论如何,人工智能的故事注定将继续书写下去,而且篇幅会比以往任何时候都更加宏大。希望届时,当后人回顾21世纪时,会为我们的选择感到庆幸——正是因为在这关键几步走得审慎而坚定,才迎来了人与智能机器和谐共进的新纪元。让我们以谦卑而勇敢的心态,迎接人工智能的未来旅程。正如科学史家丹尼尔·克雷维尔所说:“人工智能的历程,恰如人类在黑暗中探路。虽几经绊倒,但我们终将找到光明。”(引自Crevier对达特茅斯会议意义的评论)。愿这束智慧之光,照亮人类文明前行的方向。

结语

从图灵机到图灵测试,从达特茅斯会议的天真乐观,到两度“寒冬”的冷静反思,再到深度学习和大模型引领的新高潮,人工智能的发展历程跌宕起伏、精彩纷呈。在这短短几十年间,人工智能实现了诸多曾被认为只属于科幻的壮举:计算机打败棋王、机器人驰骋沙场、程序算法发现新药,仿佛魔法般改变着我们的世界。人工智能既凝聚了数学、计算机科学、神经科学的精华,又与哲学、心理学、社会学的命题紧密相连。它是一面镜子,既映照出人类智慧的伟大,也放大了我们伦理和制度的缺陷。

展望未来,我们站在一个关键十字路口。一方面,通用人工智能的曙光在望,人类有机会见证有史以来最大的技术飞跃之一;另一方面,这也要求我们以前所未有的审慎去规范和引导AI的发展,确保这股强大力量用于造福人类,而非失控伤人。也许在不远的将来,“能思考的机器”将不再只是一种隐喻,我们可能真的会与新的智能物种比肩共处。这将是对人类智慧与胸襟的终极考验:我们是否做好了准备,去拥抱一个比我们更聪颖的“孩子”,并与TA共享这个蓝色星球?

无论如何,人工智能的故事注定将继续书写下去,而且篇幅会比以往任何时候都更加宏大。希望届时,当后人回顾21世纪时,会为我们的选择感到庆幸——正是因为在这关键几步走得审慎而坚定,才迎来了人与智能机器和谐共进的新纪元。让我们以谦卑而勇敢的心态,迎接人工智能的未来旅程。正如科学史家丹尼尔·克雷维尔所说:“人工智能的历程,恰如人类在黑暗中探路。虽几经绊倒,但我们终将找到光明。”(引自Crevier对达特茅斯会议意义的评论)。愿这束智慧之光,照亮人类文明前行的方向。

参考文献:本文参考了包括维基百科在内的众多资料,其中部分引文已在文中注明来源。

———deep research AI 生成,仅供参考———


整体风格偏向严肃历史,在 2.5万字长文下,保持了不错的可读性,但感觉文笔还不够,特别是趣闻轶事插入太突兀。 从代理的活动动作来看 ,大部分是引用了 wiki 百科。看上去 deep research 更适合写文献综述风格的调查报告,而不是历史故事。

图片
图片


更新时间: