25
02
-
2026
机械大军正向我们迫近起底AI企业家的生意经
作者: U乐国际·(中国)官方网站
机械大军正向我们迫近起底AI企业家的生意经
机械大军正正在向我们迫近,或者说,我们被奉告如斯。不是今天,但也为期不远,快到我们似乎必需正在它们的包抄到来之前,从头组织整小我类文明。正在董事会的会议室、大学的讲坛、议会的听证会,以及那些令人梗塞的科技报道中,超等智能的鬼魂正愈发屡次地正在我们的话语系统中盘桓。它凡是的描述是“通用人工智能(AGI)”,有时则会被描画得愈加普遍,但一直被视做一种正在所有范畴都超越人类认知的人制,可以或许实现递归的改良,以至可能对人类形成。但无论叫什么名字,这种即将到来的超等智能,曾经占领完全殖平易近了我们的集体想象。这个场景呼应了科幻小说的猜测性的谱系,从阿西莫夫的“机械人三定律”(一种试图机械自从权的文学测验考试),到后来的斯坦利·库布里克和阿瑟·C·克拉克的HAL 9000,或是威廉·吉布森笔下的失控收集。这些已经属于描述性思维尝试的范畴,现在却成为一种准的预言(Quasi-political Forecast)。这个论述取任何科学共识都关系不大,它现实上是从特定的回廊中繁殖出来的。那些最的超等智能先觉,恰好是那些正正在建立他们所之系统的始做俑者。当山姆·奥特曼一边高谈阔论AGI对人类的,一边分秒必争地鞭策其开辟,或者当埃隆·马斯克一边AI,一边开办公司加快其成长时,我们看到的是一种以预测为名的伪拆。超等智能的话语系统做为一个细密的安拆正在运做,它将关于企业义务、工人赋闲、算法和管理等现实问题,为关于认识和节制的笼统哲学谜题。这种障眼法并非偶尔,也并非无害。通过将假设性的灾难置于会商的核心,AI系统的架构师们把本人定位为不被人类接管的守护者,背负着的和庞大的义务。他们摇身一变,成为文明取其潜正在者之间不成或缺的中介,而巧合的是,这一脚色恰好需要巨额本钱投入、起码的监管和高度集中的决策权。试想这种框架是若何运做的?当我们会商将来的AGI能否可能覆灭人类时,我们并不是正在谈论被算法所安排的亚马逊仓库工人,也不是正在谈论阿谁社区被从动兵器系统锁定的巴勒斯坦人。正在存正在从义风险的弘大修辞面前,这些当下的现实逐步被淡化为布景乐音。这些疾苦是实正在的,而超等智能仍然是理论上的;但我们的留意力和资本——以至我们的监管框架——却越来越多地转向后者,正正在组建前沿人工智能工做坊,并为尚属假设的将来系统性风险草拟预案。取此同时针对当前的劳动和算法的,却仍然被正在日益一贫如洗的立法之中。正在美国,关于“对人工智能平安、靠得住和可托地开辟取利用”的第14110号行政号令,虽然提及了、合作、劳动和蔑视等问题,但其最无力的问责权利却指向了大型、高能力的根本模子以及将来计较量跨越必然阈值的系统,要求企业向分享手艺消息,并证明其模子合适特定的平安。英国则走得更远,成立了前沿人工智能工做坊——现已并入人工智能平安研究所,其职责聚焦于极端的、假设性的风险。欧盟人工智能法案(AI Act),没有试图规范当前AI带来的风险,却仍然特地设有一节会商将来某个未知时间点可能呈现的系统性风险和根本模子风险。正在这些司法实践中,能量都堆积正在将来的、猜测性的系统之上。超等人工智能的叙事,正正在很是无意识地推进一项议程,即将留意力从当前的节制系统转移到遥远的灾难上,把会商核心从现实的力量转移到想象的将来。关于机械封神的预言沉塑了权势巨子的获取体例,以及由谁的好处来掌舵 AI管理;同时了那些正在算法下者的呼声,放大了那些但愿人类的声音,使这些声音从导了会商。这种伪拆成中立将来从义的论调,实则是对当下经济的一种干涉。擦亮双眼,超等智能的预言更多不是关于机械的,而是正在为办事,而这种策略,必需被。这一叙事的力量,正源自其汗青。超等智能做为从导AI叙事,正在ChatGPT之前就已呈现,能够逃溯到20世纪50年代冷和计谋取计较理论之间奇异的连系。做为智库的兰德公司(RAND Corporation),其核计谋家们曾模仿人类文明的,为将智能视为取文化取绝缘的纯粹计较这一概念供给了思惟温床。晚期的AI承继了这一框架,当艾伦·图灵提出他出名的测试时,他成心回避了认识或经验的问题,转而关心可察看的行为——若是一台机械仅通过文字就能让人类对话者相信它具有人道,那么它就值得被称为智能。这种行为从义的简化之后被证明是环节性的,由于它将思维视为可量化的操做,从而将智能从头定义为能够被权衡、排序,最终被机械超越的工具。据数学家乌拉姆(Stanislaw Ulam)回忆,早正在1958年,计较机科学家冯诺依曼便谈及一种手艺奇点,即加快的前进终将使机械可以或许改良本身设想,敏捷将本身提拔到具有超越人类的能力。这一概念正在20世纪60年代由数学家欧文·古德(Irving John Good)进一步完美,奠基了超等智能会商的根基框架:递归式的进化、指数级的增加,以及人类所需要发现的最初制物。当然,这些只是数学上的推演而非察看,但此类猜测取思惟尝试被如斯屡次地复述,以致于它们获得了预言般的分量,使其所描画的想象将来显得不证自明。20世纪80年代和90年代,这些思惟从计较机科学系的象牙塔,迁移到了一种奇特的亚文化圈层,一群环绕着计较机科学家尤德科夫斯基(Eliezer Yudkowsky)及其奇点研究所(后改名为机械智能研究所)的从义者和将来从义者。这个群体建立了一个关于超等智能的理论框架,即效用函数,一个旨正在指点人工智能决策的形式化方针系统。正在回形针思惟尝试中,他们设想了一个高度先辈的人工智能,它的独一方针是尽可能多地制制回形针。这个微不脚道的方针促使机械耗损所有资本。该思惟尝试凸起了东西性的可能,即几乎任何方针城市促使人工智能寻乞降资本。这个思惟尝试还提出了正交性论题(Orthogonality Thesis),该认为智能取价值是的。他们为一个并不存正在的实体创制了一套学术化的哲学系统,包罗对分歧类型的人工智能失控情景给出了详尽分类,以及对可能的将来智能间非(acausal)衡量,给出了详尽阐述。这些思惟家的配合点正在于他们对某种推理气概的果断许诺。他们的实践大概能够被称为极端从义,即相信纯粹的逻辑,正在离开经验束缚或社会布景后,仍可以或许关于手艺和社会的底子谬误。这种方式优先考虑思惟尝试而非数据,注沉巧妙的悖论而非日常察看,其成果是一套读起来好像中世纪,精妙而复杂,但却完全离开了人工智能系统现实成长的阐述。诚然,我们该当认可,这种脱节并不料味着他们的勤奋毫无价值,相反,通过将笼统推理推向极限,他们了关于节制、伦理和持久风险的问题,这些问题后来为愈加务实的AI 政策和平安会商供给了根本。这一保守正在现代表现最显著的表述,呈现正在波斯特洛姆(Nick Bostrom)2014年的著做《超等智能》中,该书将边缘化的互联网哲学改变为支流会商。做为前大学哲学传授,波斯特洛姆付与了此前只存正在于科幻小说和以艰涩题目定名的博客中的情景以学术上的庄重性。虽然他的书中没有包含任何的AI研究,也几乎没有涉及现实呈现的机械进修,但它却成为硅谷的必读书目,常被科技亿万财主援用。马斯克曾推特暗示:“波斯特洛姆的《超等智能》值得阅读。我们需要对AI非分特别隆重。它可能比核兵器更具性。”马斯克提示人们连结隆重是准确的,这从他本人的人工智能公司向孟菲斯的Boxtown(一个以黑报酬从的工人阶层社区)排放1200至2000吨氮氧化物及甲醛等无害空气污染物的行为中,便可获得佐证。这篇评论并非试图贬低波斯特洛姆的成绩,他的功勋正在于将关于AI的那些延伸且往往井井有条的惊骇,梳理成了一个严谨的框架。但他的书有时读起来像是一项天然汗青研究项目,他像分类学家一样,将通往超等智能的分歧径、各类“失败模式”(即系统可能犯错或我们的体例),以及“节制问题”的处理方案(即连结AI对齐的方案)分门别类。这种分类学的方式,以至让最狂野的揣测也披上了科学的外套。通过将超等智能视为系统性研究的对象而非科幻设定的前提,波斯特洛姆成功地将存正在性风险洗白进了面子的话语系统之中。无效利他从义(effective altruism)活动为这些供给了社会根本设备。其焦点准绳是通过计较,以最大化持久收益。正在这一世界不雅中,超等智能的风险被严丝合缝地嵌入此中,由于若是将来的人取现正在的人一样主要,而一次