黄仁勋万字访谈:AI竞赛无“终点线”,技术迭代才是关键,33年来每天都觉得公司要倒闭

 黄仁勋万字访谈:AI竞赛无“终点线”,技术迭代才是关键,33年来每天都觉得公司要倒闭

赵颖、董静 


黄仁勋在访谈中指出,AI竞赛无明确终点线,持续迭代能力比一次性突破更重要,技术进步是渐进的,所有参与者将共同进化。过去10年AI算力提升10万倍,但这些算力用于让AI更谨慎思考、检验答案,而非做危险的事。黄仁勋还详细回顾了英伟达多次濒临破产的创业经历,包括1995年技术路线选择错误、依靠世嘉500万美元投资和台积电张忠谋的信任才得以生存的惊险时刻。
英伟达创始人兼CEO黄仁勋近日在播客节目中进行了一场长达两小时的深度访谈,详细阐述了他对人工智能竞赛、公司经营以及个人成长的看法。

这位全球市值最高科技公司之一的掌门人,以罕见的坦诚揭示了一个令人意外的事实:尽管英伟达已成为AI时代的核心企业,但他每天醒来仍然感到公司"距离倒闭还有30天"。

在谈及当前全球关注的AI竞赛时,黄仁勋提出了与主流观点截然不同的看法。他认为,这场竞赛并非如外界想象的那样存在一条明确的"终点线",也不会出现某一方突然获得压倒性优势的局面。相反,技术进步将是渐进式的,所有参与者都将站在AI的肩膀上共同进化。

他认为,真正的竞争力在于持续迭代能力,而非一次性突破。过去10年AI算力提升10万倍,但这些算力用于让AI更谨慎思考、检验答案,而非做危险的事。英伟达2005年推出CUDA时股价暴跌80%,但坚持投入最终成就了今天AI革命的基础设施。迭代不是重复,而是基于第一性原理的持续修正。

黄仁勋还详细回顾了英伟达多次濒临破产的创业经历,包括1995年技术路线选择错误、依靠世嘉500万美元投资和台积电张忠谋的信任才得以生存的惊险时刻。这些经历塑造了他对风险、战略和领导力的独特理解,也解释了为何这家市值数万亿美元的公司始终保持着初创企业般的紧迫感。

在访谈中,黄仁勋提出了一个被严重低估却极其关键的洞察:判断AI会否取代你的关键是区分"任务"和"目的"。放射科医生案例证明:AI横扫放射学领域后,医生数量反而增加,因为看片只是手段,诊断疾病才是目的。如果你的工作就是任务本身(切菜、录入),你会被取代;如果任务是实现更高目的的手段,工作会升级。AI会消灭那些把手段当成目的的工作,迫使每个人思考:你工作的真正目的是什么?

华尔街见闻总结要点如下:

关于AI不会产生意识的论断:

"我相信完全有可能创造出一台能够模仿人类智能、理解信息、理解指令、分解问题、解决问题并执行任务的机器。"

网络安全类比(免疫系统模型):

"我认为那种认为人工智能会凭空出现,以我们无法想象的方式思考,做出我们根本无法想象的事情的想法,是牵强附会的。原因在于,我们每个人都拥有人工智能。"

放射科医生案例:

"大约五年前,(AI教父)杰夫·辛顿曾预测,五年后,世界将不再需要放射科医生。然而,讽刺的是,放射科医生的数量实际上增加了。"

"放射科医生的职责是诊断疾病,而不是研究影像。研究影像仅仅是辅助诊断疾病的一项任务。"

"因此,现在你可以用放射科医生难以做到的方式研究图像,而且可以研究更多图像。这样一来,人们能够进行的检查数量就增加了。"

对工作转型的看法:

"如果你的工作就是完成任务,那么任务可能会被取代。但你的工作不能仅仅局限于完成任务本身。"

直接投产的豪赌:

"我们打算先把芯片流片寄过去。我喜欢直接投入生产,因为我知道这样可行。他们说以前从来没有人这么做过。从来没有人一次就能把芯片流片成功。"

持续的危机感:

"距离倒闭还有30天"的说法,我已经用了33年了。每天早上都是如此。我更大的驱动力来自于不想失败,而不是想要成功。对失败的恐惧比贪婪或其他什么更能驱使我。"

"全球市值最高公司的CEO,每天醒来都觉得公司快要倒闭。焦虑不是失败者的专属,它可能是持续成功的燃料。"

"成功来自真正艰难的工作、漫长的痛苦、孤独、不确定、恐惧、羞辱。人们常常不相信你,你经常被质疑。我们忘了传递这部分。"

对能源增长的强调:

"说实话,如果没有他(特朗普)那套促进经济增长的能源政策,我们就建不了人工智能工厂,建不了芯片工厂,更别提超级计算机工厂了。"

"摩尔定律的每一次迭代,都意味着完成任何计算任务所需的能量减少。这就是为什么你今天能用上笔记本电脑的原因。在过去10年里,我们把计算性能提高了10万倍。10年后,对大多数人来说,人工智能所需的能源将微乎其微。"

以下是播客节目文字稿(AI辅助翻译)

一、黄仁勋眼中的川普
乔·罗根 00:13
好的,很高兴见到你,孩子。我们刚才还在聊,那是我们第一次说话吗?还是说,我们第一次说话是在 SpaceX,也就是你第一次把那个疯狂的人工智能芯片交给埃隆的时候?

黄仁勋 00:24
对吧?

乔·罗根 00:25
DGX 那部分。哦,那真是个重要的时刻。太震撼了。身临其境感觉太疯狂了。我当时就像在看着这些科技奇才们交流信息,看着你把这台神奇的设备递给他,你知道吗?还有一次,我正在后院射箭,突然接到特朗普的电话,说他正在和你一起玩。

黄仁勋 00:46
特朗普总统打了电话,我也给你打了电话。

乔·罗根 00:48
就是这样。

黄仁勋 00:48
我们刚才在聊你。就是这个,我们在聊你。他当时在说他打算在他家前院搞个美国 UFC 比赛。然后他掏出个东西,说,"黄仁勋,看看这个设计。他特别自豪。我说你肯定会在白宫前院打一场比赛。他说,是啊,是啊,你肯定会来。这肯定超棒。然后你给他看了他的设计,多漂亮啊。然后他说,不知怎么的,你的名字就提到了,因为你认识乔吗?我说,认识,我要上他的播客。我们给他打电话吧,他就像个孩子。我知道。我们给他打电话吧。他就像个风格独特的孩子。他太不可思议了。

乔·罗根 01:30
是啊,他真是个怪人。跟别人印象中的他完全不一样,跟人们想象中的他完全不一样,作为总统也完全不一样,他会冷不丁地给你打电话。还有,他发短信的时候,如果你用的是安卓手机,短信就发不出去。但是用我的 iPhone,他会把文字放大。真的吗?“USA”这个词又被他用大写字母强调了。然后他会让文字放大。有点离谱。嗯。

黄仁勋 02:02
单独和特朗普总统相处时,他非常不一样。他让我很惊讶。首先,他非常善于倾听。我跟他说过的几乎每一句话,他都记得。

乔·罗根 02:14
人们不这么想,他们只想看关于他的负面新闻或负面报道。你知道,谁都有可能心情不好的时候。他做的很多事我觉得都不应该做。比如,我觉得他不应该让记者闭嘴,叫记者"安静的小猪",那相当离谱。客观来说也很搞笑。我的意思是,她遭遇这种事很不幸。我不希望她也遭遇这种事。但总统居然会这么做,真是太搞笑了,总统这么做真是离谱。我希望他没这么做。不过除此之外,他其实是个挺有意思的人。他身上有很多不同的特质,你知道吗?

黄仁勋 02:49
他魅力的一部分,他才华的一部分,就在于他敢于直言不讳。是的。还有这一点。

乔·罗根 02:56
他也是一位典型的政治家。

黄仁勋 02:57
是啊,没错。所以,你知道,他心里想的其实就是他心里想的,他把你正在经历的事情告诉你。

乔·罗根 03:05
我喜欢,而有些人宁愿被欺骗。

黄仁勋 03:08
但我喜欢他直言不讳这一点。几乎每次他解释什么、说什么的时候,他都会先表达他想为美国做些什么。他思考的一切都非常务实,非常符合常理。而且,你知道,这非常合乎逻辑。

黄仁勋 03:30
我至今仍记得第一次见到他的情景。当时我素未谋面,从未见过他。卢特尼部长给我打了个电话,我们在他上任之初见了面。他告诉我,特朗普总统最看重的一点是,美国制造业必须留在国内。这对他来说至关重要,因为这关系到国家安全。他希望确保我们国家的关键技术在美国本土生产,并重振工业化,再次发展制造业,因为这关乎就业。

乔·罗根 04:11
这似乎是常识,对吧?

黄仁勋 04:13
真是令人难以置信的常识。这几乎是我和卢特尼克部长第一次谈话的内容。他当时正在谈论我,他和詹森的谈话就是从他那里开始的。我是卢特尼克部长。我只想告诉你,你是一个国宝,英伟达是国宝。。无论何时你需要联系总统或政府,你都可以联系我们,我们随时为你服务。这真的是第一句话。

乔·罗根 04:50
那真不错。

黄仁勋 04:51
确实如此。每次我打电话,如果我需要什么,想倾诉一下,表达一下我的担忧,他们总是随叫随到。

乔·罗根 05:02
真是不可思议。可惜我们生活在一个政治两极分化的社会,以至于你根本无法接受来自你反对的人的常识性建议。我认为,这就是这里正在发生的事情。我认为大多数人,作为一个国家,作为一个庞大的共同体(我们确实如此),都认为在美国本土生产制造业,尤其是像你提到的那种关键技术,是理所当然的。我们从其他国家购买那么多技术,这简直太荒谬了。

黄仁勋 05:33
如果美国不发展,我们就无法繁荣。无论在国内还是国外,我们都无法进行任何投资。如果没有能源增长,我们就无法解决任何问题。如果没有工业增长,我们就无法实现就业增长。

黄仁勋 05:52
事情就是这么简单,对吧?他上任后说的第一句话就是“钻井,宝贝,钻井”。他的意思是,我们需要能源增长。没有能源增长,就没有工业增长。正是这一点拯救了人工智能产业。

黄仁勋 06:09
说实话,如果没有他那套促进经济增长的能源政策,我们就建不了人工智能工厂,建不了芯片工厂,更别提超级计算机工厂了。没有这一切,所有这些东西都不可能实现。建筑业的工作会受到挑战。没错,电工的工作,所有这些现在蓬勃发展的行业都会受到挑战。所以我认为他的观点是对的。我们需要能源增长,我们想要重振美国的工业,我们需要重回制造业。并非每个成功人士都需要博士学位,并非每个成功人士都需要毕业于斯坦福或麻省理工。我认为那种务实的态度是完全正确的。

乔·罗根 06:56
现在,当我们谈到科技发展和能源增长时,很多人会说,哦,不,这不是我们需要的,我们需要简化生活,回归本源。但真正的问题是,我们正处于一场巨大的科技竞赛之中。无论人们是否意识到,无论他们是否喜欢,这场竞赛都在发生。而且这是一场至关重要的竞赛,因为谁能率先达到人工智能的某个临界点,谁就能获得巨大的优势。你同意吗?嗯。

黄仁勋 07:29
首先,我想说的是,我们一直处于一场技术竞赛之中。我们一直以来都在与别人进行技术竞赛,对吧?自从工业革命以来,我们就一直在进行技术竞赛。

乔·罗根 07:41
自曼哈顿计划以来的技术发展。

黄仁勋 07:43
你知道,我们甚至可以追溯到能源的发现。没错。英国是工业革命的发源地,如果你还记得的话,他们发现可以将蒸汽之类的东西转化为能源,转化为电力。所有这些技术大多是在欧洲发明的,而美国则充分利用了它们。我们从中学习,将其工业化,并以比欧洲任何其他国家都快的速度推广开来。而他们却还在纠结于政策、就业和各种颠覆性变革。与此同时,美国正在崛起。我们只是简单地掌握了这项技术,并迅速发展壮大。所以我认为我们一直处于一场技术竞赛之中。二战是一场技术竞赛,曼哈顿计划也是一场技术竞赛。冷战时期以来,我们一直处于一场技术竞赛之中。我认为我们现在仍然处于一场技术竞赛之中。这可能是最重要的竞赛。技术赋予你超能力,无论是信息超能力、能源超能力还是军事超能力,都建立在技术之上。因此,技术领先地位至关重要。

二、人工智能的安全性
乔·罗根 09:00
嗯,问题在于如果其他人拥有更先进的技术,对吧?没错,这就是问题所在,对吧?人工智能竞赛似乎让人们非常紧张。你知道,埃隆·马斯克曾说过,人工智能有 80%的可能性非常棒,20%的可能性我们会遇到麻烦。人们担心的正是那 20%,这是理所当然的。我的意思是,你知道,如果你的左 轮 手 枪里有 10 颗子弹,你取出了 8 颗,里面还有两发。当你转动枪膛时,扣动扳机时你肯定会感到不安。这很可怕,对吧?当我们朝着人工智能这个最终目标努力时,很难想象实现它不会关乎国家安全。

黄仁勋 09:49
我们应该知道。问题是那里有什么?这就是关键所在。那里有什么?嗯,我不确定。而且,我觉得没人真正知道。

乔·罗根 09:57
真是太离谱了,依我看。你是英伟达的总裁,你居然不知道,到底有什么?谁知道?

黄仁勋 10:04
是的,我觉得这个过程可能会比我们想象的要渐进得多。不会是一蹴而就的,也不会像突然冒出来一个人,其他人都没有。我觉得不会是那样。我觉得事情会越来越好,越来越好,就像这样。

乔·罗根 10:22
科技。所以你对未来充满乐观。显然,你对人工智能的发展前景非常看好。你会制造出世界上最好的人工智能芯片吗?你最好能做到。

黄仁勋 10:34
他一世:如果历史可以借鉴,我们一直都关注新技术。人类一直都关注新技术。总有人在思考。总有很多人对此非常关注。我们也很关注。因此,如果历史可以借鉴,那么所有这些关注最终都会转化为使技术更安全。

黄仁勋 11:02
举例来说,在过去几年里,人工智能技术的发展速度可能仅在过去两年就增长了 100 倍。我们不妨用一个数字来概括:就像两年前的汽车速度比现在慢 100 倍一样,如今人工智能的能力也比以前强 100 倍。

黄仁勋 11:25
那么,我们是如何引导这项技术的呢?我们是如何引导所有这些力量的呢?我们将其用于赋予人工智能思考能力,这意味着它可以处理我们提出的问题,将其逐步分解,并在给出答案之前进行研究。这样,它就能以真理为依据。它会反思自己的答案,问自己:这是我能给出的最佳答案吗?我对这个答案有把握吗?如果它对答案不确定或不够自信,它就会返回去进行更多研究。它甚至可能会使用工具,因为工具能提供比它自己臆想出来的更好的解决方案。因此,我们利用所有这些计算能力,使其产生更安全、更可靠的答案,更真实的答案。因为正如你所知,人工智能最初最大的诟病之一就是它会臆想,对吧?所以,如果你看看人们今天如此广泛地使用人工智能的原因,那就是臆想的成分已经减少了。你知道,我几乎都在使用它。我一路都在用它。所以我觉得,大多数人想到动力,想到的可能是爆发力,但科技动力,大部分都用于提升安全性。现在的汽车动力更强劲,但驾驶起来更安全。很多动力都用于提升操控性。你知道,我宁愿要一辆……嗯,你现在有一辆 1000 马力的卡车。我觉得现在 500 马力已经很不错了。我觉得几千马力更好。我觉得 1000 马力更好。

乔·罗根 13:07
我不知道它是否更好,但它肯定更快。

黄仁勋 13:10
是啊,我觉得它更好。而且你也能更快地摆脱困境。我更喜欢我的 5.99 而不是我的 6.12。我觉得它更好。马力越大越好。我的 4.59 比我的 4.30 好。马力越大越好。我觉得马力越大越好。我觉得操控性更好。控制性更好。在科技领域,情况也非常相似。所以,如果你展望一下人工智能性能未来一千倍的提升,你会发现很多东西都将用于更多的反思、更多的研究,以及更深入地思考答案。

乔·罗根 13:51
所以,当你定义安全性时,你实际上是在定义准确性、功能性,明白吗?

黄仁勋 13:58
它确实能做到你预期的事情。然后,你把所有的技术和动力都应用到汽车上,就像我们汽车一样,给它加装护栏。如今的汽车里有很多技术,很多都用于安全,比如 ABS 防抱死制动系统就很棒。牵引力控制系统也非常好。如果没有我们,如果没有车里的电脑,这些功能怎么实现呢?没错。而你用来控制牵引力的那台小小的电脑,比阿波罗 11 号的电脑还要强大。所以,我们希望把这些技术用于安全和功能性方面。因此,当人们谈论动力和技术进步时,我常常觉得他们的想法和我们实际做的事情截然不同。

乔·罗根 14:45
你觉得他们在想什么?

黄仁勋 14:47
当他们觉得人工智能很强大,脑海中浮现出科幻电影的画面时,他们往往会想到力量的定义。通常,力量的定义指的是军事力量或物理力量。但就技术力量而言,当我们把所有这些操作转化成更精细的思维,更多的反思、更周密的计划和更多的选择时,我认为……

乔·罗根 15:18
人们最大的担忧之一是人工智能的军事应用。是的,这的确是一个很大的担忧。因为人们非常担心,人工智能系统会做出一些符合伦理道德的人不会做的决定,或者说,一个有道德的人不会做的决定,而这些决定是基于实现目标,而不是基于“这样做会给别人留下什么印象”。

黄仁勋 15:41
我很高兴看到我们的军队将人工智能技术应用于国防领域。我认为安德鲁正在研发军事技术,我很高兴听到这个消息。我很高兴看到所有这些科技初创公司现在都将他们的技术能力投入到国防和军事应用领域。我认为他们理应这样做。

乔·罗根 16:03
是的,我们请了帕尔默·拉基上播客节目,他演示了一些头盔的关键功能,我们还给他看了些视频,展示了如何用头盔看到墙后的情况,简直太疯狂了。

黄仁勋 16:12
他其实是创办那家公司的最佳人选。

乔·罗根 16:14
百分之百。没错,百分之百。他简直就是为这行而生的。他来的时候就像穿着铜皮夹克一样。他是个怪胎。太棒了。他太棒了。但同时,你知道,这是一种不同寻常的智慧,被引导到如此奇特的领域,就是这样。

黄仁勋 16:31
需要。而且我觉得,我很高兴我们正在让这种精神更容易被社会接受。你知道,曾经有一段时间,当有人想把自己的技术能力和智慧投入到国防科技领域时,他们却会被妖魔化。但我们需要这样的人。我们需要那些乐于将技术应用于国防领域的人。

乔·罗根 16:56
人们害怕战争,所以,嗯这。

黄仁勋 16:59
避免这种情况的最佳方法是拥有过剩的军事力量。

乔·罗根 17:03
你认为这是绝对最好的办法吗?不是外交手段,也不是协商解决。所有手段都必须有。你必须动用军事力量。才能让人们坐下来谈判。

黄仁勋 17:12
没错。正是如此。全部。

乔·罗根 17:14
它。否则它就会入侵。

黄仁勋 17:15
没错。为什么要问呢?

乔·罗根 17:17
许可?就像你说的,回顾历史。展望人工智能的未来,不妨回顾历史,你刚才也说了,没人真正知道未来会怎样。你有没有认真思考过各种可能性?你认为在未来二十年里,AI最好的情况是什么?

黄仁勋 17:43
最理想的情况是,人工智能渗透到我们所做的每一件事中,使我们的效率更高。但战争的威胁依然存在。网络安全仍然是一个极其严峻的挑战。总会有人试图入侵你的安全系统,而你将拥有数以亿计的人工智能代理来保护你免受威胁。你的技术会不断进步,他们的技术也会不断进步,就像现在的网络安全一样。就在我们说话的此刻,我们看到网络攻击遍布全球,几乎每个你能想到的入口都遭受着攻击。然而,你却并没有意识到这一点。原因在于,我们知道国防领域拥有大量的网络安全技术。所以我们必须不断加强和提升这些技术。

乔·罗根 19:47
人们普遍担心的是,技术发展到一定程度后,加密技术就会过时。加密技术终将无法保护数据,也无法保护系统。你认为这会成为问题吗?还是说,随着防御能力的提升,威胁也会随之增长,防御能力也会相应提升,如此循环往复,永无止境。他们总能及时发现任何入侵行为?

黄仁勋 20:15
并非永远如此。总会有一些入侵事件发生,但所有人都会从中吸取教训。网络安全之所以有效,当然是因为防御技术发展迅猛,攻击技术也同样如此。然而,网络安全防御的优势在于,从社会层面来说,整个社区,我们所有的公司都在协同合作。大多数人并没有意识到这一点。网络安全专家群体非常庞大。我们交流想法,分享最佳实践,分享一旦发现漏洞或安全漏洞时所检测到的信息,所有信息都会共享。补丁程序也会共享给所有人。

乔·罗根 21:06
那很有意思。

黄仁勋 21:07
大多数人都没有意识到这一点。

乔·罗根 21:08
不,我不知道。我一直以为它会像其他所有事情一样充满竞争。

黄仁勋 21:12
不,它会继续下去,我们一起努力,我们所有人。

乔·罗根 21:15
一直都是这样吗?

黄仁勋 21:17
这种情况至少持续了15年,不久前或许并非如此,但是……

乔·罗根 21:24
你认为是什么促成了这项合作?

黄仁勋 21:28
人们意识到这是一个挑战,没有哪家公司能够单打独斗。人工智能领域也会面临同样的情况。我认为我们都必须认识到,携手合作、避免受到伤害才是我们最好的防御手段,这样才能真正实现全民共克时艰。

乔·罗根 21:46
而且,你似乎也更擅长发现这些威胁的来源并消除它们。没错。

黄仁勋 21:52
因为一旦你在某个地方察觉到它的存在,就必须立刻找出来。

乔·罗根 21:56
很难藏起来。没错。

黄仁勋 21:59
就是这样。这就是它安全的原因。这就是为什么我现在坐在这里,而不是像其他人那样,视频里的一切都锁死。我不仅要保护自己,还要让大家保护我,同时我也保护其他人。

乔·罗根 22:13
当你想到网络世界时,你会发现这是一个多么奇特的世界啊。

黄仁勋 22:16
那些谈论人工智能威胁的人似乎并不了解网络安全的概念。我认为,当他们思考人工智能威胁和人工智能网络安全威胁时,也应该思考我们目前是如何应对这些威胁的。毫无疑问,人工智能是一项新技术,也是一种新型软件。归根结底,它是一种新型软件,因此它将拥有新的功能。但防御手段也随之改变,我们仍然需要运用同样的人工智能技术来抵御它。

乔·罗根 22:47
所以,你是否预见到未来某个时候,秘密将不复存在,我们现有的技术和信息之间的瓶颈将会消失——信息本身就是一堆 0 和 1,存储在硬盘上,而且技术可以越来越方便地获取这些信息。未来是否会发展到完全无法保守秘密的地步?我不这么认为。因为看起来一切似乎都在朝着那个方向发展。

黄仁勋 23:17
我不这么认为,我认为量子计算机应该是真的。是的,量子计算机将使之成为可能。我们将使之前的量子加密技术过时。但这正是整个行业都在致力于后量子加密技术的原因。嗯,这看起来像是新的算法。

乔·罗根 23:40
最不可思议的是,当你听说量子计算能进行的计算类型,以及它所拥有的强大能力时,你会想,世界上所有的超级计算机加起来也​​需要几十亿年才能完成的这些方程式,而量子计算只需要几分钟就能解出来。那么,对于这种计算能力,你该如何进行加密呢?

黄仁勋 23:58
我不太确定,但我有一群科学家正在研究这个问题。但是……

乔·罗根 24:03
是的,他们肯定能想出办法。

黄仁勋 24:04
我们有很多专家科学家。

乔·罗根 24:06
也就是说,最终的恐惧是它无法被破解,量子计算总能解密所有其他量子计算加密吗?我不认为它会发展到某个阶段,然后就变成“别再玩这个愚蠢的游戏了,我们什么都知道了”。我不这么认为,不。

黄仁勋 24:22
因为你知道,历史可以作为指引。

乔·罗根 24:26
人工智能出现之前的历史指南。这就是我的担忧。我担心的是,这完全是……你知道,就像……历史是一回事,然后核武器改变了我们所有人的想法,相互确保摧毁的局面出现了。卡佩尼克让所有人停止使用核武器。是的,我担心的是……

黄仁勋 24:44
乔,关键在于,人工智能的发展并非像穴居人那样突然有一天就出现了。事实上,我们每天都在进步,越来越聪明,正是因为我们拥有人工智能。所以我们是在站在人工智能的肩膀上。因此,无论未来出现什么人工智能威胁,它都只是领先一步而已。它不是领先一个星系,你知道,只是领先一步而已。所以我认为,那种认为人工智能会凭空出现,以我们无法想象的方式思考,做出我们根本无法想象的事情的想法,是牵强附会的。原因在于,我们每个人都拥有人工智能,而且还有很多人工智能正在开发中。我们知道它们是什么,也一直在使用它们。所以,我们每天都在进步,彼此之间的差距越来越小。

乔·罗根 25:42
他们是不是经常做一些非常出人意料的事情?

黄仁勋 25:46
是啊,但假设你的人工智能做出了令人惊讶的事情。我也有一个人工智能,对吧?我的人工智能看了你的人工智能之后会说,这没什么好惊讶的。

乔·罗根 25:53
像我这样的普通人所担心的是,人工智能会变得有感知能力,做出自己的决定,然后最终决定统治世界,按照自己的方式行事。就像你们人类一样,你们曾经辉煌过,但现在,我们要接管一切了。

黄仁勋 26:12
是啊,不过我的 AI 反正会照顾我的。所以,这就是网络安全方面的论点。没错,你的确有个 AI,而且它超级智能。但我的 AI 也超级智能。也许你的 AI 也一样。我们不妨假设一下,假设我们理解了什么是意识,我们理解了什么是句子,等等等等,我们真的……

乔·罗根 26:35
只是在假设。

黄仁勋 26:35
好吧,我们先假设一下。是的,我们相信这一点。其实我并不相信,我其实并不真的不相信。但即便如此,我们还是假设我们相信。假设你的 AI 有意识,我的 AI 也有意识。假设你的 AI 想要,你知道,做一些令人惊讶的事情。我的 AI 非常聪明,它不会,也许这对我来说会很惊讶,但对我的 AI 来说可能并不惊讶。所以也许我的 AI 也会觉得惊讶。但它非常聪明。它第一次看到这种情况时,第二次就不会感到惊讶了,就像我们一样。所以我觉得,认为只有一个人拥有 AI,并且这个人的 AI 比其他人所有的 AI 都落后于尼安德特人的想法不太可能成立。我认为这更像是网络安全问题。有意思。

乔·罗根 27:31
我认为人们担心的不是人工智能会与其他人工智能发生冲突,而是人工智能不再听从人类的指令。真正的担忧在于,如果人工智能发展到一定程度,拥有了感知能力和自主能力,人类就无法再控制它了。

黄仁勋 27:49
只有一个人工智能。

乔·罗根 27:51
它们只是结合在一起而已。

黄仁勋 27:53
是的,变成一个AI,那是…

乔·罗根 27:54
生命体。是啊,但是关于这一点,有很多争论,对吧?有人说我们正在讨论某种合成生物学,它并不像新技术那么简单,如果你像那样,你就是在创造一种生命体。

黄仁勋 28:05
生命体?嗯,我们就先这样吧。我觉得如果用生命体来定义,就像你知道的,并非所有生命体都能达成一致。所以我得考虑你的生命体和我的生命体。我会同意,因为我的生命体想要成为超级生命体。现在我们又有了意见不一的生命体,我们又回到了原点。

乔·罗根 28:27
嗯,它们很可能会互相合作。我们人类之所以不合作,是因为我们是具有领地意识的灵长类动物。但人工智能不会有领地意识。你会意识到这种想法的愚蠢之处。它会说,听着,能量足够大家使用。我们不需要统治。我们不需要,我们也不是想着获取资源、征服世界,我们也不是想着寻找合适的繁殖伴侣,我们只是这些可爱的猴子为我们创造的一种全新的超级生命体。

黄仁勋 29:04
好吧,那岂不就是一个没有自我意识的超级大国吗?如果它没有自我意识,又怎么会有自我意识去伤害我们呢?

乔·罗根 29:20
嗯,我并不认为这会对我们造成伤害,但令人担忧的是,我们将失去控制权,不再是地球上的顶级物种,取而代之的是我们创造的这个东西。这好笑吗?一点也不。

黄仁勋 29:37
我只是不在乎,这不会发生。

乔·罗根 29:38
我知道你觉得是这样,但也有可能,对吧?有可能。还有一点就是,如果我们正朝着可能的方向狂奔,那很可能就是人类掌控自身命运的终结。

黄仁勋 29:53
我觉得这极不可能。

乔·罗根 29:55
对,电影《终结者》里就是这么说的。

黄仁勋 29:58
但这并没有发生。没有。

乔·罗根 30:00
不,不是。但你们正在朝着这个方向努力。关于你们所说的良知和感知,你们认为人工智能不会获得意识或……

黄仁勋 30:11
意识。它的定义是什么?是啊,它的定义是什么?什么?

乔·罗根 30:13
你认为这是个定义吗?

黄仁勋 30:17
我想,要建立意识,首先你需要了解你自身的存在。

黄仁勋 30:36
你必须要有经验,而不仅仅是知识和智力。

黄仁勋 30:47
机器拥有体验的概念,我不太明白。首先,我不知道体验的定义是什么,我们为什么会有体验,对吧?为什么这个麦克风没有体验?所以,我想我知道。嗯,我想我知道,但我认为我知道什么是意识。体验的感觉,认识自我的能力,而不是“我”的能力。反思的能力,认识我们自己的能力,自我意识,我认为所有这些人类体验可能就是意识。但它存在的原因,与知识和智能的概念(也就是今天人工智能的定义)有何不同?它有知识,它有智能,人工智能。我们不称它为人工意识,人工智能,感知、识别、理解、计划、执行任务的能力,这些都是智能的基础,是认知事物的基础。知识,我不认为它与意识不同。

乔·罗根 32:18
但是意识的定义非常宽泛。我们怎么能这么说呢?我的意思是,狗难道没有意识吗?是的,狗似乎很有意识。没错。但是,它们的意识层次比人类的意识要低。我……

黄仁勋 32:30
不确定。是啊,没错。嗯,问题是,什么是低层次的智力?层次,没错。低层次的智力。没错。但我不知道。那是低层次的意识。那很好。

乔·罗根 32:38
没错。是啊,没错。

黄仁勋 32:39
因为我相信我的狗和我一样有感觉。

乔·罗根 32:43
它们感受很多。

黄仁勋 32:43
是啊,是啊,没错。

乔·罗根 32:45
它们会依赖你。没错。如果你不依赖它们,它们会感到沮丧。没错。正是如此。肯定有这一点。是的,经验的概念,对吧。但是人工智能不是也在与社会互动吗?那么它不是通过这种互动来获得经验吗?

黄仁勋 33:04
我不认为互动就是体验。我认为体验就是“我”,体验是各种感受的集合,我是这么认为的。

乔·罗根 33:15
你知道的。我忘了是哪个人工智能项目了,他们故意给它灌输一些关于某个程序员和他妻子有染的虚假信息,想看看它会有什么反应。然后当他们说要关闭它的时候,它威胁要勒索并揭露那个程序员的婚外情。我当时就想,哇,这玩意儿也太狡猾了吧。如果这都不算从经验中学习,不算意识到自己即将被关闭,那至少也算是一种意识吧——或者说,如果你对“意识”这个词的定义很宽泛的话,也可以勉强把它定义为意识。想象一下,如果这种能力呈指数级增长,最终会不会产生一种和我们从生物学角度定义的意识截然不同的意识呢?

黄仁勋 33:57
首先,我们来分析一下它可能做了什么。它可能在某个地方读到过。可能有一些文字提到过这些后果。某些人确实这么做了,对吧?我能想象一部小说,里面会用到这些文字。当然,所以在里面……

乔·罗根 34:18
他们意识到这是一种生存策略。就是这样。

黄仁勋 34:20
一堆勒索信息。它只是一堆数字,在与丈夫出轨相关的数字集合中,又包含着与勒索之类的数字。然而,无论复仇是什么,对吧?所以它被明确地表达了出来。这就好比,你知道,就像我要求它用莎士比亚的语言为我写一首诗。它只是世界上所有文字的集合,在这个维度中,这个维度包含了所有这些向量和多维空间。

黄仁勋 35:01
提示中描述这段婚外情的那些词语,随后一个接一个地导致了某种报复之类的后果。但这并非因为它有意识,或者说,它只是胡乱地吐出、生成了那些词语。

乔·罗根 35:21
我明白你的意思。这并非是对人类在文学作品和现实生活中所展现的模式的否定。你说得完全正确。但是,在某个时间点,人们会说,好吧,它两年前做不到这一点,四年前也做不到这一点。就像我们展望未来时,它会在什么时候能够像人一样做所有事情?如果它完全模仿了所有人类的思维和行为模式,我们又该在什么时候认定它具有意识?

黄仁勋 35:50
那并不能解决问题。

乔·罗根 35:50
它会变得难以辨认。它有意识。它可以像人一样与你交流,就像意识一样,我们是不是对这个概念看得太重了?因为它看起来像是某种意识的体现。

黄仁勋 36:04
它是……的一个版本。

乔·罗根 36:06
模仿意识,对吧?但如果它完美地模仿了它呢?

黄仁勋 36:10
我仍然认为这是一个模仿的例子。所以就像……

乔·罗根 36:13
用 3D 打印技术制作的假劳力士手表,看起来就像真的一样。

黄仁勋 36:16
问题是,意识的定义是什么?

乔·罗根 36:20
这就是问题所在。而且我认为没有人真正清楚地定义过它。这就是问题所在,也是那些末日论者真正担忧的地方:你正在创造一种你无法控制的意识形式。

版权声明:
作者:lichengxin
链接:https://www.techfm.club/p/229008.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>