8.6 Foreword to GENESIS

这篇文章深入探讨了人工智能的潜在影响,尤其是在军事和社会结构方面的变化,提醒投资者关注AI技术的双刃剑特性。作为风险投资人,我意识到在投资新兴科技时,必须考虑其可能带来的伦理和社会风险,同时也要关注那些能够有效管理和利用AI技术的公司和项目。

ONE SENTENCE SUMMARY:

亨利·基辛格在《创世纪》中探讨了人工智能的潜力与风险,强调技术进步对人类未来的深远影响。

MAIN POINTS:

TAKEAWAYS:

当亨利·基辛格在2018年6月的 大西洋月刊 上发表他的文章《启蒙如何终结》时,许多人对这位资深政治家的人工智能观点感到惊讶。基辛格刚满95岁。AI当时还没有成为热门话题,直到OpenAI在2022年底发布ChatGPT后才引起广泛关注。

然而,作为基辛格的传记作者,我觉得AI这个话题吸引他的注意力是很自然的。毕竟,他在1957年因一本关于新兴且改变世界的技术的书而崭露头角。 《核武器与外交政策》 这本书经过如此彻底的研究,甚至得到了罗伯特·奥本海默的认可,他称其为“在核武器领域中信息极其丰富,在这方面是前所未有的……对事实的严格尊重,同时在论证中既充满激情又坚韧。”

虽然作为博士生,基辛格曾深入研究19世纪初期欧洲的外交历史,但他在整个职业生涯中始终清楚地意识到,大国政治的永恒模式会因技术变革而周期性地被打破。像他那一代许多在二战中服役的人一样,他亲眼目睹了现代武器所能造成的大规模死亡和破坏,以及丘吉尔所称的希特勒第三帝国“扭曲的科学”对犹太同胞的可怕后果。

与他不当的战争贩子名声相反,基辛格在成年后的生活中一直受到避免第三次世界大战的迫切需要的驱动——如果美苏冷战变成热战,这将是人们普遍担心的后果。他非常清楚核裂变技术会使另一场世界大战比二战更具毁灭性。在 《核武器与外交政策》 的早期,基辛格估算了一颗十兆吨炸弹投在纽约的破坏效果,然后推断出苏联对美国五十个最大城市的全面攻击将导致1500万到2000万人死亡,2000万到2500万人受伤。另有500万到1000万人将死于放射性尘埃的影响,而可能还有700万到1000万人会生病。幸存者将面临“社会解体”。即使在这样的攻击之后,他指出,美国仍然能够对苏联造成同等的破坏。结论显而易见:“从此以后,全面战争的唯一结果将是双方都必须失败。”基辛格在1957年的文章《战略与组织》中争辩道:“因为即使是较弱的一方也可能造成任何社会都无法承受的破坏程度。”

然而,基辛格年轻时的理想主义并没有使他成为和平主义者。在 《核武器与外交政策》 中,他明确表示“核战争的恐怖[不太可能通过减少核武器]或通过武器检查系统来避免。”问题不在于战争是否可以完全避免,而在于是否“可以想象出不如全面热核战争那么灾难性的权力应用。”因为如果不可能,那么美国及其盟友在冷战中获胜将非常困难。“战争没有任何普遍理解的限制,”基辛格在《控制、检查与有限战争》中警告道,这是一篇发表在 《记者》 上的文章,“削弱了抵抗共产主义行动的心理框架。战争被视为国家自杀,投降可能被视为两害相权取其轻。”

正是在此基础上,基辛格提出了他的有限核战争学说,如《战略与组织》中所述:

在热核毁灭的阴影下,战争的目标不再是我们所知的军事胜利。相反,它应该是实现对手充分理解的某些特定政治条件。有限战争的目的是造成损失或对敌人构成与争议目标不成比例的风险。目标越温和,战争就越不可能暴力。

这将需要理解对方的心理以及其军事能力。

当时,许多人对基辛格似乎冷酷无情地考虑有限核战争感到反感。一些学者,如托马斯·谢林,质疑是否可以避免不可阻挡的升级;甚至基辛格自己后来也与自己的论点保持距离。然而,两大超级大国继续建造和部署战场或战术核武器,正是遵循基辛格在 《核武器与外交政策》 中概述的逻辑。有限核战争在理论上可能行不通,但双方的军事规划者都表现得好像在实践中可能行得通。(事实上,这种武器至今仍然存在。自从俄罗斯入侵乌克兰陷入僵局以来,俄罗斯政府不止一次威胁要使用它们。)年轻的基辛格对核武器的看法比他自己知道的还要正确。

基辛格从未停止思考技术变革在政治领域的影响。在他为纳尔逊·洛克菲勒撰写的一篇早已被遗忘的论文中,基辛格展望了计算机化可能如何帮助官员应对美国政府机构产生的不断增加的信息流。在他看来,高级官员面临着被数据淹没的严重危险。“最高决策者,”他写道,“拥有如此多的信息,以至于在危机情况下,他发现难以应对。”基辛格认为,决策者需要“持续了解可能的麻烦点”,包括“即使它们没有被列为最高优先级的潜在麻烦点。”他们还需要提供“一套行动选项……概述在可预见情况下的主要替代方案,并评估每种替代方案的可能后果,国内和国外。”

要实现如此全面的覆盖,基辛格承认,需要在编程、存储、检索和图形方面进行重大投资。幸运的是,“硬件技术”现在已经存在,可以执行这四个功能:

[W]e can now store several hundred items of information on every individual in the United States on one 2,400 foot magnetic tape. … [T]hird-​generation computers are now capable of performing basic machine operation in nano seconds, i.e., billionths of a second. … [E]xperimental time-​sharing systems have now demonstrated that multiple-​access capability for large-​scale digital computers is possible to allow for information input/ output at both the executive and operator stations distributed around the world. … [And] very shortly color cathode ray tube display will be available for computer output.

后来,在他作为理查德·尼克松的国家安全顾问在白宫的第一年,基辛格试图为自己获得这样一台计算机。中情局拒绝了这一请求,可能是因为没有计算机的基辛格已经是情报界所能承受的极限。

亨利·基辛格从未退休。他也从未停止担忧人类的未来。这样一个人不可能忽视他晚年生活中最重要的技术突破之一:生成性人工智能的发展和部署。事实上,理解这种新兴技术的影响成为基辛格最后几年生活中的重要任务。

《创世纪》 是基辛格的最后一本书,由两位杰出的技术专家克雷格·蒙迪和埃里克·施密特共同撰写,书中带有这些创新者与生俱来的乐观印记。作者们期待“技术人类的进化——一个可能在这个新时代与机器技术共生的人类物种。”他们认为,AI很快就可以被利用来“创造一个新的基线的人类财富和福祉……至少可以缓解甚至消除以前撕裂人类的劳动、阶级和冲突的压力。”AI的采用甚至可能导致“跨种族、性别、国籍、出生地和家庭背景的深刻平等化。”

然而,最年长的作者的贡献在书中一系列警告中显而易见。“人工智能的出现是,”作者们观察到,“一个关于人类生存的问题。……一个控制不当的AI可能会以破坏性的方式积累知识。……即将弯曲地球集体现实的震荡……标志着与过去的根本性断裂。”在这里,重新措辞为 《创世纪》 ,但立即可识别的是基辛格在2018年 大西洋月刊 文章《启蒙如何终结》中的原始问题:

[AI的]客观能力通过非人类的方法对我们的世界得出新的和准确的结论,不仅破坏了我们对科学方法的依赖,这种方法已经连续追求了五个世纪,还挑战了人类对现实的独特或独有的掌握。这意味着什么?AI时代不仅未能推动人类前进,反而催化了对未解释权威的前现代接受?简而言之:我们是否,可能会,处于人类认知的巨大逆转的边缘——一个黑暗的启蒙?

在这位读者看来,书中最有力的部分是作者们对一个深感不安的AI军备竞赛的思考。“如果……每个社会都希望最大化其单边地位,”作者们写道,“那么条件将为人类从未面临过的对手军事力量和情报机构之间的心理死亡竞赛做好准备。今天,在到达第一个超级智能的几年、几个月、几周和几天里,存在着一个存在性的安全困境。”

如果我们已经目睹了“争夺一个单一、完美、无可争议的主导智能的竞争”,那么可能的结果是什么?据我统计,作者们设想了六种情景,没有一种是诱人的:

1. 人类将失去对多个行为者之间存在性竞赛的控制,这些行为者被困在安全困境中。

2. 人类将遭受一个不受传统制衡的胜利者的至高无上的霸权。

3. 不会只有一个至高无上的AI,而是世界上会有多个高级智能的实例。

4. 拥有和开发AI的公司可能会积累全面的社会、经济、军事和政治权力。

5. AI可能在宗教结构中找到最大的相关性和最广泛、持久的表达,而不是在国家结构中。

6. 不受控制的开源技术扩散可能会催生拥有次标准但仍然相当大的AI能力的小帮派或部落。

基辛格对这些情景深感担忧,他避免这些情景的努力并没有随着这本书的写作而结束。众所周知,他生命的最后努力——在他100岁生日后的几个月里耗尽了他的剩余力量——是启动美中之间的AI军备限制谈判,正是为了避免这样的反乌托邦结果。

《创世纪》 的结论无疑是基辛格式的:

随着AI加速进化的时间线超出理解,人类将分裂成交战派系。我们预见到这场斗争是现在与未来之间的斗争。会有那些希望将人类固定在我们当前阶段的人,他们的偏好是使用技术进步但不依赖于它。随着分界线对某些人来说似乎过于接近,这一群体中的个人可能会诉诸破坏甚至恐怖主义,试图引发全球流亡到我们更简单的过去。另一个派系,可能对他们的创造能力或他们自己的能力过于自信,将毫无顾忌地寻求将我们加速到一个不确定的未来。没有更高援助的危机将吞噬我们。

技术专家对这种忧虑的习惯性反应是提醒我们AI的实际好处,这在医学科学领域已经非常明显。我并不反对。在我看来,AlphaFold——一个基于神经网络的模型,预测三维蛋白质结构——比Chat-GPT更重要的突破。然而,医学科学在20世纪也取得了类似的进展。尽管如此,世界大战和大屠杀仍然发生,即使抗生素、新疫苗和无数其他治疗方法被发现并广泛使用。

技术进步的核心问题在亨利·基辛格的一生中显现出来。核裂变是由两位德国化学家奥托·哈恩和弗里茨·施特拉斯曼于1938年在柏林发现的。它由奥地利出生的物理学家莉泽·迈特纳和她的侄子奥托·罗伯特·弗里施于1939年在理论上解释(并命名)。匈牙利物理学家利奥·西拉德的洞察力是核链反应可能导致“能源和放射性元素的大规模生产,不幸的是也可能导致原子弹”。当时也认识到这种链反应可能在核反应堆中被利用来产生热量。然而,建造第一颗原子弹只用了五年多一点的时间,而直到1951年才开设了第一个核电站。

html

问问你自己:在过去的八十年里,人类建造了更多的核弹头还是核电站?今天,世界上大约有12,500枚核弹头,而且这个数字还在上升,因为中国正在迅速增加其核武库。相比之下,目前有436座核反应堆在运行。以绝对值来看,核电发电量在2006年达到顶峰,而核电在全球总发电量中的占比从1996年的15.5%下降到2022年的8.6%,部分原因是对少数核事故的政治过度反应,而这些事故对人类健康和环境的影响与化石燃料产生的二氧化碳排放相比微不足道。

亨利·基辛格一生的教训是明确的。技术进步可以带来良性和恶性的后果,这取决于我们如何集体决定利用它们。当然,人工智能在许多方面与核裂变不同。但如果我们认为将更多地将这项新技术用于生产而非潜在的破坏性目的,那将是一个严重的错误。

正是这种洞察力,源于历史和个人经验,激励亨利·基辛格将他的大部分生命投入到世界秩序的研究和避免世界大战中。这也是他对人工智能的最新突破反应如此迅速且充满担忧的原因。这就是为什么这本遗作与他在漫长而重要的一生中所写的任何东西一样重要。

牛津,2024年7月

尼尔·弗格森的时间机器是一个由读者支持的出版物。要接收新文章,请成为免费或付费订阅者。

文章来源:Foreword to GENESIS

关键问题与行动计划

关键问题 1: 如何评估生成式人工智能在各行业中的潜在应用及其对社会的影响?

行动计划:

  1. 行业分析:研究团队将针对医疗、教育、金融等关键行业进行深入分析,识别生成式人工智能的具体应用场景及其可能带来的社会变革。
  2. 社会影响评估:数据团队将收集和分析相关数据,评估生成式人工智能对就业、隐私和社会结构的潜在影响,形成综合报告。

关键问题 2: 在AI技术快速发展的背景下,如何识别和规避潜在的技术风险?

行动计划:

  1. 风险识别工作坊:组织跨部门的工作坊,邀请技术专家、伦理学家和政策制定者共同探讨AI技术的潜在风险,形成风险清单。
  2. 制定风险管理框架:研究团队将基于工作坊的成果,制定一套针对AI技术的风险管理框架,提供给投资决策参考。

关键问题 3: 如何在全球范围内寻找具有颠覆性潜力的AI初创企业?

行动计划:

  1. 全球市场调研:数据团队将通过分析投资趋势、行业报告和初创企业数据库,识别出在AI领域具有颠覆性潜力的初创企业。
  2. 建立合作网络:研究团队将与全球知名的孵化器和加速器建立联系,获取最新的初创企业信息,并评估其投资价值。

请告诉我们你对此篇总结的改进建议,如存在内容不相关、低质、重复或评分不准确,我们会对其进行分析修正