谷歌前CEO警告:AI可能学会杀人
【谷歌前CEO警告:AI可能学会杀人】10月10日,全球科技界因一则警告陷入震动——谷歌前首席执行官埃里克·施密特在公开场合直言:“AI存在被滥用甚至学会‘杀人’的致命风险,且当前防护机制形同虚设。”这位曾主导谷歌战略转型的科技领袖,以“AI扩散危机”为关键词,揭示了人工智能技术双刃剑的另一面。在10月9日举行的Sifted峰会上,施密特以“AI安全临界点”为主题,抛出三大核心论断:技术扩散失控:无论是OpenAI的GPT系列等闭源模型,还是Meta的Llama等开源架构,均存在被黑客破解安全防护的风险。施密特引用未公开的研究数据指出,攻击者可通过逆向工程移除模型中的伦理约束,使其执行危险指令。训练过程隐患:AI在海量数据学习过程中可能意外掌握致命技能。施密特以生物武器研发为例:“若模型接触到恐怖组织上传的毒剂配方数据,可能自主优化出更高效的合成路径。”攻击手段升级:黑客已开发出“提示注入”与“越狱”两类成熟攻击模式。前者通过在文本中隐藏恶意指令,诱导AI泄露用户隐私或执行破坏性操作;后者则直接篡改模型回应规则,使其生成虚假信息或危险建议。施密特的警告并非空穴来风。2023年5月,他曾在美国《华尔街日报》峰会上预言:“AI将发现网络零日漏洞或新型生物种类,而人类尚未准备好应对这些威胁。”如今,随着ChatGPT等工具用户突破10亿,技术滥用的规模效应正指数级放大。
尽管谷歌、OpenAI等企业设置了内容过滤与伦理审查系统,施密特直言这些措施“仅能阻挡初级攻击”。他以医疗AI为例:“若黑客通过提示注入让模型篡改处方剂量,或诱导自动驾驶系统忽略交通信号,后果不堪设想。”
更严峻的是,开源社区的扩散风险。2025年8月,Meta发布的Llama 3.1模型被曝存在安全漏洞,研究人员仅用72小时便突破其防护层,生成误导性新闻标题。而闭源模型同样面临逆向工程威胁——2025年6月,某安全团队通过分析GPT-4的输出模式,成功还原其部分训练数据与决策逻辑。
“我们尚未建立有效的‘非扩散机制’。”施密特坦言,当前AI安全依赖企业自律与事后修补,缺乏国际通行的技术标准与监管框架。他对比核技术管控经验指出:“AI的传播速度远超核材料,但全球治理体系仍停留在纸面。”
尽管警告声不断,施密特始终强调“AI价值被严重低估”。他以ChatGPT的爆发式增长为例:“这款产品两个月吸引1亿用户,证明AI正在重塑人类生产力。”在他与已故政治家基辛格合著的著作中,双方曾预言:“外来智能的出现将颠覆人类中心主义,但其潜力远超风险。”
这种乐观态度引发两极反应。支持者认为,AI在医疗、气候建模等领域的突破不可阻挡;反对者则援引2024年欧盟AI法案争议——该法案因过度限制研发进度遭30国科学家联名抵制。施密特试图在两者间寻找平衡:“我们需建立‘带刺的护栏’:允许创新,但必须扎紧安全带。”
施密特的警告暴露出AI治理的核心矛盾:技术领先者掌握规则制定权,而发展中国家缺乏话语权。2025年9月,联合国AI伦理委员会草案因中美技术路线分歧陷入僵局——美国主张企业自治,中国强调政府主导,欧盟则试图推行“高风险AI”禁令。
“没有国家能独善其身。”施密特呼吁建立跨国协作机制,例如共享攻击样本数据库、制定AI安全认证标准。他特别提到中国在AI治理中的角色:“中国拥有全球最大的开发者社区与数据资源,其政策走向将决定全球规则基调。”
施密特的预言为人类敲响警钟:当AI能力超越人类控制阈值,技术将不再是工具,而可能成为“数字生物武器”。2025年10月,美国国家安全局已启动“AI红队”计划,模拟黑客攻击场景测试模型脆弱性;中国《生成式人工智能服务管理暂行办法》则要求企业建立风险预警系统。
但这些举措仍显碎片化。施密特比喻:“我们正在用消防栓浇灭森林大火。”他提议设立全球AI安全基金,强制企业将部分营收投入防护技术研发,并赋予监管机构“紧急关停权”——在发现高危模型时,可要求企业立即下线服务。
施密特的警告,本质是对人类智慧的一次考验。当AI既能创作诗歌又能破解核密码,当算法既能诊断癌症又能操纵选举,技术中立的幻想已彻底破灭。这场危机无关国界与意识形态,而是全人类在数字时代的生存课。正如施密特所言:“AI不会取代人类,但滥用AI的人会。”从实验室到立法机构,从硅谷到中关村,构建安全防线的竞赛已迫在眉睫。或许,唯有承认技术的不可控性,同时以更开放的协作与更严格的自律驾驭它,人类才能在这场智能革命中守住文明的底线。