人类会如何灭亡?霍金的这三种警告引人深思

2024-01-03 09:22     搜狐网

有生就有灭,宇宙万物都会有灭亡的一天,甚至包括宇宙本身。那么我们人类又会如何灭亡呢?伟大的理论物理学家史蒂芬·霍金对这个问题总是直言不讳,探讨了人类灭亡的多种可能性,其中谈得最多的是“人工智能”、“人类冲突”和“外星文明”。

1.人工智能

霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是“人类历史上最严重的错误”。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说“AI的全面发展将导致人类的终结!”霍金的这个观点不无道理,获得了很多精英人士的支持,其中“现实版钢铁侠”埃隆·马斯克就曾声援称“AI是人类生存最大的威胁!”

霍金对AI的威胁最到位的一句评价是——“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”

频道热点
更多
今日关注
更多