黄仁勋:仅在过去两年,AI技术的进步可能达到了100倍。我们把这种能力导向使AI能够思考:它可以接受问题、一步一步地分解,并在回答之前进行研究,从而将答案建立在真相之上。它会反思答案,并确保产生一个更安全的结果、更真实的答案。早期对AI最大的批评之一是它会"胡言乱语",而今天人们频繁使用AI,正是因为"胡言乱语"的数量减少了。
黄仁勋:就像今天的汽车动力更强但驾驶更安全一样,很多力量被用于更好的操控性。未来AI性能的下一个一千倍增长,很大一部分将用于更多的反思、更多的研究,更深入地思考答案。我们为技术设置了护栏,就像汽车上的ABS和牵引力控制。AI的技术力量被导向更精细的思考、更多的规划和更多的选择。主持人:人们最大的恐惧之一是军事应用。
黄仁勋:我很高兴我们的军队将使用AI技术进行防御。我也很高兴看到科技初创公司正将他们的技术能力导向国防和军事应用。
主持人:你认为避免战争的最佳方式是拥有过度的军事力量吗。
黄仁勋:所有的手段都需要。你必须拥有军事力量,才能让人们坐下来与你谈判。
主持人:展望未来,AI最好的情况是怎样的。
黄仁勋:最好的情况是AI渗透到我们所做的一切之中,一切都更高效。网络安全仍然是一个超级困难的挑战。你会有数百万的AI智能体来保护你。
主持人:人们担心加密技术会变得过时,不再保护数据。
黄仁勋:我不认为加密会永远失效。量子计算机虽然可能使现有加密技术过时,但整个行业正在研究后量子加密技术。网络安全之所以有效,是因为整个社区,我们所有的公司都作为一个整体共同努力。我们交换想法、最佳实践和检测到的东西,一旦发生泄露或漏洞,信息和补丁都会被所有人分享。AI也会发生同样的事情,我们必须决定共同努力来避免受到伤害。
主持人:你预见到未来会有一个时间点,秘密将不可能存在吗?
黄仁勋:我不认为会。AI是一种新型软件,它会拥有新的能力,但防御也会。你会使用相同的AI技术来进行防御。
主持人:普通人最大的恐惧是AI变得有感知能力,做出自己的决定,并决定以自己的方式统治世界。
黄仁勋:AI不会像我们是穴居人时突然出现。我们每天都在变得更好、更聪明,因为我们拥有AI。当AI威胁来临时,它只是领先一步。那种认为AI会凭空出现并以我们无法想象方式思考的想法是牵强的。我认为它更像网络安全,你的AI和我的AI都会很聪明。如果AI像生命形式一样,所有生命形式都不会意见一致。
主持人:关于意识和感知,你认为AI不会实现意识吗。
黄仁勋:核心问题是意识的定义。意识是体验的感觉、了解自我的能力和自我的感觉,这些都是人类的体验。而今天的AI被定义为知识和智能(人工智能),能够感知、理解、规划、执行任务,这与意识显然不同。我相信创造一个模仿人类智能,并拥有大量知识的机器是可能的。










