AI正以前所未有的速度渗透各行各业,政府机构也难以置身事外。美国食品和药物管理局(FDA)近日正式推出了名为 Elsa 的生成式人工智能平台,宣称这是其迈向技术现代化的重要一步。
然而,从内部反馈来看,这款被寄予厚望的人工智能工具似乎并未达到预期效果。Elsa 的推出不仅引发了员工质疑,也让外界对政府机构在 AI 领域的部署能力再次产生疑虑。
Elsa是什么?它能做什么?
根据FDA官方介绍,Elsa 是一个基于亚马逊 GovCloud 构建的大语言模型平台,旨在帮助内部工作人员提升效率。该系统具备以下功能:
- 分析内部文档数据;
- 自动生成摘要;
- 协助撰写电子邮件;
- 支持审查临床试验协议并识别报告异常。
Elsa 自2025年1月起已在部分团队中进行测试,截至6月初,已有数千次使用记录。FDA局长 Marty Makary 对此高度评价,称该项目“提前完成且低于预算”,并强调FDA已成为联邦机构中部署AI的先锋。
宣传背后的声音:内部员工并不买账
尽管FDA对外宣传Elsa为“突破性进展”,但来自一线员工的反馈却显得冷淡甚至批评。
据NBC News报道,一些曾试用过Elsa的员工表示,该系统存在明显缺陷:
- 无法执行基本操作,如复制粘贴文本或打开超链接;
- 响应缓慢且准确性不高,影响工作效率;
- 用户界面不友好,缺乏实际可用性。
一封内部邮件指出:“当前版本几乎无法完成简单任务。”此外,有员工抱怨项目推进节奏过于激进,管理层在没有充分沟通的情况下就设定了6月底前全面部署的目标,导致开发和测试时间严重不足。
一位知情人士透露,负责管理Elsa的团队甚至对公开发布的决定感到“措手不及”,认为这次发布更像是出于公关考量,而非技术成熟的结果。
为何急于推出?时间表引发争议
FDA此次高调宣布Elsa上线,正值公众对其监管流程透明度和效率提出更多质疑之际。通过展示AI应用成果,FDA试图塑造自身“技术领先”的形象。
不过,这种“赶节点”的做法也引发了担忧:
- 内部是否真正准备好接受这一新工具?
- 是否跳过了必要的可用性测试?
- 在缺乏明确监督机制的前提下,如何确保AI输出内容的准确性和合规性?
Makary承认,Elsa目前确实存在局限,并表示未来将依靠用户反馈不断改进。“这是一段旅程,”他说,“今天的Elsa与六个月后的Elsa将有所不同。”
然而,一些员工仍质疑:为何要在系统尚未通过基础可用性测试之前就批准公开发布?
监管与透明度:AI治理的隐忧
FDA方面表示,Elsa仅限于内部使用,不会利用受监管公司的数据进行训练,以防止潜在利益冲突。同时,他们承诺将持续监控系统的运行情况,防范偏见与错误信息的出现。
但批评者指出,关于这些监督机制的具体细节,在早期沟通中并未清晰说明。这种“先上线再说”的做法,可能削弱员工对系统的信任。
在涉及医疗监管等高风险领域的机构中,AI系统的透明度、可解释性与可控性尤为重要。若这些问题未能妥善解决,Elsa可能会面临更大的合规挑战。
历史教训犹在:政府技术项目的常见困境
Elsa并非首个引发争议的政府技术项目。早在2013年,《平价医疗法案》网站(Healthcare.gov)因系统崩溃、访问缓慢等问题遭遇广泛批评,成为美国政府数字化失败的经典案例。
此后,多个联邦机构的技术升级项目都出现了类似问题:时间紧迫、资源分配不合理、缺乏用户参与设计、上线后修复成本高昂。
如今,FDA似乎正在重蹈覆辙——在技术尚未完全就绪时,优先考虑政治宣传与时间节点,而非用户体验与系统稳定性。
Elsa的未来取决于能否倾听基层声音
Elsa 能否真正成为一个高效、可靠的工作助手,抑或只是另一个失败的联邦技术项目,很大程度上取决于接下来的发展路径。
如果FDA愿意认真听取一线员工的反馈,持续优化系统性能与交互体验,并建立清晰的监督机制,那么Elsa仍有潜力成为政府机构中AI落地的成功范例。
否则,它很可能沦为又一个“为推而推”的象征性工程,进一步削弱公众对政府技术能力的信任。(来源)















