核心要点
- 极度不负责任:美国交通部(DOT)被曝使用谷歌 Gemini 起草关键的安全规则,引发内部员工强烈抗议。
- 潜在致命风险:工作人员警告,AI模型产生的“文字沙拉”可能导致监管漏洞,进而引发实际的伤害甚至死亡事故。
- 信任危机:事件引发了公众对政府机构在缺乏严格审查的情况下过度依赖生成式AI的广泛担忧。
引言:当算法介入公共安全
2026年1月,科技媒体Ars Technica披露了一则令人震惊的消息,将人工智能在政府领域的应用争议推向了新的高潮。据报道,美国交通部(DOT)在起草涉及公共安全的监管规则时,使用了谷歌的生成式AI模型 Gemini。这一做法不仅遭到了内部专家的严厉抨击,更被形容为“极度不负责任”。这不仅仅是一次技术试错,更是一场关于AI是否准备好介入生死攸关决策的深刻辩论。
AI入侵监管:效率与安全的博弈
在数字化转型的大潮中,美国政府机构一直在探索利用AI提高工作效率的方法,从分析公众评论到自动化文档处理。然而,DOT此次的做法显然跨越了一条红线。据内部消息人士透露,DOT直接使用 Gemini 来起草具有法律效力的安全规则。
这种做法的初衷可能是为了应对繁重的文书工作,加速立法进程。然而,内部员工对此发出了严厉的警告。一位知情人士直言不讳地指出:“Gemini can do word salad”(Gemini会制造文字沙拉)。这里的“文字沙拉”指的是大语言模型(LLM)有时会生成语法正确但逻辑混乱、语义空洞或完全错误的内容。
“文字沙拉”危机:为何AI在法律领域不可靠?
要理解员工为何恐慌,我们需要深入剖析生成式AI的工作原理。像 Gemini 这样的大模型,本质上是基于概率预测下一个字的工具。它们并不“理解”法律条文的严谨性,也不具备区分安全与危险边界的实际能力。
在法律起草中,精确性是生命线。一个词的偏差(例如“必须”与“应当”的区别)都可能彻底改变法律责任的归属。AI生成的“文字沙拉”可能看起来非常专业,甚至引经据典,但其内容可能包含根本不存在的法律引用,或者逻辑上自相矛盾的条款。如果这些未经严格人工审核的AI草稿直接进入监管流程,其后果不堪设想。
监管领域的零容错:DOT事件的特殊性
为什么DOT使用AI会引发如此大的反弹,而其他部门使用AI可能只是引发轻微的讨论?答案在于“安全”二字。
DOT 负责监管航空、铁路、公路、管道等几乎所有关系到美国人民生命财产安全的交通领域。这里制定的每一项规则——无论是关于卡车司机的休息时间,还是飞机零部件的维护标准——都直接关系到现实世界的生死。
内部员工警告称,使用AI起草这些规则“可能导致伤害和死亡”。这并非危言耸听。想象一下,如果AI起草的航空安全规则中,因为“幻觉”而遗漏了一个关键的检查步骤,或者将某项强制性安全措施错误地表述为建议性措施,那么在未来的某一天,这可能会导致空难的发生。
技术专家指出,AI目前在处理事实性、逻辑性极强的任务时,仍存在“幻觉”问题。在创意写作或头脑风暴中,这种幻觉可能被视为“创造力”;但在工程和安全标准中,这就是致命的缺陷。
深度思考:AI在政府决策中的边界
此次事件暴露了当前AI治理中的一个巨大盲区:政府机构本身对AI的使用缺乏足够的监管和透明度。
1. 效率陷阱
政府机构往往面临着人手不足、积压严重的压力。AI承诺的“提效”对官僚机构具有极大的诱惑力。然而,这种对效率的追求不能以牺牲准确性为代价。DOT事件表明,如果没有严格的“人类在环”审查机制,盲目引入AI只会制造更多的混乱和风险。
2. 责任归属难题
如果一份由AI起草的有缺陷的安全规则导致了事故,谁来负责?是起草规则的官员?是开发AI的科技巨头?还是批准规则发布的机构?目前的法律框架对此界定尚不清晰。这种责任真空使得政府机构在使用AI时更加肆无忌惮,同时也让受害者在追责时面临困境。
3. 信任的侵蚀
公众对政府的信任建立在透明和负责任的基础之上。当人们得知那些保护他们生命安全的规则可能是由一个不仅会犯错、而且还会一本正经胡说八道的算法起草时,这种信任必然会受到冲击。
行业影响与未来展望
DOT的这次“翻车”事件,很可能成为AI应用史上的一个标志性案例。它可能会促使立法机构加快制定《AI使用指南》,明确禁止在涉及生命安全、司法判决等高风险领域直接使用生成式AI进行决策或起草核心文件。
对于AI行业而言,这也是一次警钟。Tech companies(科技公司)在推销政府级AI服务时,必须更加诚实地展示模型的局限性,并提供能够检测“幻觉”和确保事实准确性的工具箱。
未来,我们不应拒绝AI在政府服务中的应用,但这种应用必须被严格限定在“辅助”而非“主导”的角色。AI可以帮助检索案例、整理数据,但绝不能成为 安全规则 的最终撰写者。
结语
技术进步的初衷是服务人类,而不是将人类置于不可预测的风险之中。DOT员工的那句“Wildly irresponsible”不仅是对某一次操作的批评,更是对整个技术狂热时代的冷静反思。在AI能够真正理解“责任”二字的重量之前,请让它远离我们的生命线。
原文链接: “Wildly irresponsible”: DOT’s use of AI to draft safety rules sparks concerns
