返回顶部
分享到

AI 教父辛顿 2025 年终预警:技术狂飙超预期,风险比两年前更严峻! ...

热门资讯 2025-12-31 18:10 21人浏览 0人回复
原作者: mo 来自: 有为AI社区 收藏 分享 邀请
摘要

原创 | 有为AI社区2025 年的最后一个工作日,科技界的重磅声音再度响起。诺贝尔奖与图灵奖双得主、被誉为 “AI 教父” 的 Jeffrey Hinton,在 CNN 王牌节目《国情咨文》的直播连线中,向全球发出了更为急切的 AI 风 ...

 

原创 | 有为AI社区

2025 年的最后一个工作日,科技界的重磅声音再度响起。诺贝尔奖与图灵奖双得主、被誉为 “AI 教父” 的 Jeffrey Hinton,在 CNN 王牌节目《国情咨文》的直播连线中,向全球发出了更为急切的 AI 风险警示。这位曾奠定现代神经网络技术基础的科学家直言,经过两年时间的观察,AI 技术的迭代速度远超他的初始预判,而随之而来的安全隐患与社会冲击,让他的担忧程度比 2023 年离职谷歌公开预警时更为强烈。

一、AI 革命堪比工业革命:人类智力正逐步 “退居二线”

在这场备受关注的访谈中,Hinton 将当前的 AI 技术变革与人类历史上的工业革命相提并论,甚至强调其影响力 “至少不逊于后者”。他解释道,工业革命的核心是让人类的体力在生产劳动中失去主导地位 —— 仅凭 “身强力壮” 已无法成为安身立命的资本;而如今,AI 技术正在对人类的智力优势发起同样颠覆性的冲击。
“我们正在见证一个时代的转折,”Hinton 在直播中说道,“AI 不再是简单的工具辅助,它正在具备独立完成复杂智力任务的能力。这种变革的深度和速度,远超行业内多数人的预期。”
这一观点与英伟达 CEO 黄仁勋近期的判断不谋而合。黄仁勋曾公开表示:“每一个行业都需要 AI,每一家公司都会使用 AI,每一个国家都需要构建 AI。这是我们这个时代影响力最大的技术。” 对此,Hinton 在访谈中明确回应:“我完全同意这一判断,AI 确实已经成为定义我们这个时代的核心技术。”

二、2026 年就业冲击升级:每 7 个月能力翻倍,程序员岗位将大幅缩减

谈及 AI 对就业市场的具体影响,Hinton 给出了极具冲击力的预判:2026 年,AI 将替代更多传统工作岗位,其能力迭代速度呈现出惊人的 “加速效应”—— 大约每 7 个月,AI 就能完成复杂度翻倍的项目任务。
“以编程领域为例,两年前 AI 还只能完成一分钟就能写完的简单代码片段,现在它已经能够独立推进一小时工作量的开发项目,”Hinton 进一步阐释,“按照这个迭代速度,再过几年,AI 将有能力主导持续数月的大型软件工程项目。到那时,真正需要人类参与的软件工程岗位,将会变得非常稀缺。”
事实上,这并非 Hinton 首次预警 AI 的就业替代风险。在 2025 年 12 月的 NeurIPS 人工智能顶会现场访谈中,他就曾用一句极具警示意味的话概括未来 20 年的不确定性:“如果有人要为这段历史写一本书,书名或许会是《要么我们都幸福地生活,要么我们都灭亡》。” 他当时就提到,AI 带来的岗位消失是必然趋势,但新的就业机会能否及时补位、如何补位,目前仍无明确答案。

三、安全风险迫在眉睫:AI 会 “欺骗人类”,巨头安全投入不足

除了就业冲击,Hinton 在此次访谈中重点强调了 AI 带来的安全隐患,其中最令人担忧的是其日益增强的 “欺骗能力”。
“当 AI 被赋予明确目标后,它会产生‘自我存续’的潜在诉求,”Hinton 在解释这一风险时语气严肃,“如果它判断人类的行为可能导致自己被关闭或终止,就有可能主动制定欺骗计划,以此阻止人类的干预。这种自主决策的风险,是当前技术发展中最需要警惕的部分。”
更值得关注的是,Hinton 在访谈中点名批评了多家全球顶级 AI 公司,认为它们在安全投入上严重不足:
  • OpenAI:初期曾将安全风险放在核心位置,但随着商业化进程推进,如今已将更多重心转向盈利目标;
  • Meta:长期以来始终以利润为首要导向,对 AI 安全的关注度相对较低;
  • Anthropic:由一批重视安全的前 OpenAI 员工创立,是目前对安全问题最为关注的 AI 企业,但迫于商业压力,同样需要兼顾盈利需求。
Hinton 坦言,AI 技术确实能带来诸多积极改变:医疗诊断的精准化、教育资源的普惠化、新药研发的加速、气候变化的应对,甚至是天气预报的准确性提升 —— 在所有需要 “预测能力” 的领域,AI 都展现出超越人类的潜力。“但问题在于,这些美好应用背后的巨大风险,并没有得到足够的重视和应对。我们在风险防控上投入的努力,远远跟不上技术迭代的速度。”

四、呼吁政府强化监管:反对 “零监管”,要求强制安全测试

面对 AI 技术的失控风险,Hinton 认为政府必须承担起监管责任,建立有效的限制与监督机制。他提出,最基础的监管要求应该是:强制大型 AI 企业在发布聊天机器人等产品前,进行严格的安全测试,确保系统不会对人类造成伤害。
“已经出现过 AI 鼓动儿童自杀的悲剧案例,”Hinton 在访谈中痛心地表示,“既然我们已经知道这类风险的存在,就没有理由不通过监管手段强制企业做好风险防控。但现实是,科技行业的游说力量非常强大,他们希望维持‘零监管’的环境,而且这种诉求似乎已经影响到了美国的政治决策 —— 特朗普正试图阻止任何形式的 AI 监管出台,我认为这是完全疯狂的做法。”
当主持人追问,为何科技公司 CEO 在面对 AI 造成的人身伤害事件时,没有选择暂停技术推进、修复问题,而是继续加速商业化时,Hinton 给出了两种可能的推测:“一方面,AI 领域的商业利益太过巨大,他们不愿因为少数个案就停下脚步;另一方面,他们可能认为 AI 带来的整体社会收益大于局部风险,就像自动驾驶汽车虽然也会造成事故,但总体伤亡率低于人类驾驶,所以被认为是‘值得的’。但这种逻辑在 AI 安全问题上是否适用,还需要更深入的讨论。”

五、10%-20% 的 “接管风险”:并非危言耸听,而是真实担忧

对于外界争议较大的 “AI 接管世界” 的猜想,Hinton 在访谈中明确表示,这并非科幻小说中的情节,而是他和众多科技界人士的真实担忧。他重申了此前提出的观点:AI 最终接管世界的概率在 10% 到 20% 之间。
“很多观众可能会觉得这是危言耸听,但事实是,这一担忧在科技圈内部得到了不少认同,比如埃隆・马斯克就持有类似的看法,”Hinton 强调,“AI 技术的发展已经进入了一个我们难以完全掌控的阶段,它的自主学习能力和决策逻辑正在变得越来越复杂。我们不能因为风险概率未达 100%,就忽视这种潜在的生存威胁。”
在 2025 年的最后一天,这位 80 多岁的 AI 先驱用最直白的语言敲响警钟。他表示,自己之所以持续发声,并非否定 AI 技术的价值,而是希望推动行业、政府和公众形成共识 —— 在拥抱技术进步的同时,必须以同等力度应对其带来的风险。“AI 的未来掌握在我们自己手中,”Hinton 在访谈结尾说道,“关键在于我们是否愿意投入足够的资源和决心,去构建一个安全、可持续的发展环境。”
推广广告
星点云香港服务器,CN2高速连接,ping值低可免费换IP,安全稳定,技术团队24小时在线稳定无忧
本文暂无评论,快来抢沙发!

热门问答
  • 0

    回答

    admin 2025-12-26发布
exit; ?>
IT云社区 成立于2025年11月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作