1918年:第一次世界大战导致许多智者(包括丘吉尔在内)开始思索,人类最终是否真的会自取灭亡,但仍认为这种可能性离我们还很远。物理学家开始意识到,适宜生命存活的条件也许极其严苛和罕见。但仍有许多人坚信,在人类灭绝之后,类人生物仍会重新出现和演化。
1930年左右:J·B·S·霍尔丹(J.B.S。 Haldane)和J·D·贝尔纳(J.D。 Bernal)首次对有关人类长期潜力、存在风险、太空殖民、天体工程、超人类主义、生物增强技术、以及文明陷阱等相关学说进行了整合。霍尔丹指出,若人类文明崩溃,就算人类这个物种得以存活,也不能保证人类能够重新演化出先进文明。
1937年:奥拉夫·斯塔普雷顿(Olaf Stapledon)发表小说《造星人》,以“对比研究”的形式,对上述学说进行了进一步整合。
第四阶段(1950年至今):天文价值
核武器首次使灭绝成为了一个政治问题。灭绝从远在天边的猜想变成了迫在眉睫的危机。人类活动导致的风险成了首要问题。在千禧年前后,针对灭绝风险的分析性思考框架逐渐成型。
1942年:爱德华·泰勒(Edward Teller)提出,裂变核弹可能会点燃整个地球大气,毁灭所有生命。但核弹的研究依然进行了下去。尽管后来有科学家总结道,当时还应该做更多研究,确保这种足以毁灭整个生物圈的事件绝不会发生。
1945年:广岛和长崎原子弹爆炸。原子弹改变了我们与宇宙中智慧物种所处位置之间的联系。“人类必将不断进步”的信念遭遇了重创。人们不再认为技术型智慧具有很强的适应性,可以死而复生、无处不在,而是开始认为,技术型文明也许十分罕见、甚至适应能力很差。
1950年:利奥·西拉德提出,“钴弹”可能会摧毁整颗行星。费米提出了现代科学中最重要的谜题--费米悖论。科学家开始思考,过去的大规模物种灭绝是否有可能由超新星爆发造成,“灾变说”再度开始流行。
20世纪50年代:现代人工智能研究正式开始。