FDA推出生成式AI平台Elsa:是现代化里程碑,还是仓促上马的又一例?

早报6个月前发布 小马良
172 0

AI正以前所未有的速度渗透各行各业,政府机构也难以置身事外。美国食品和药物管理局(FDA)近日正式推出了名为 Elsa 的生成式人工智能平台,宣称这是其迈向技术现代化的重要一步。

然而,从内部反馈来看,这款被寄予厚望的人工智能工具似乎并未达到预期效果。Elsa 的推出不仅引发了员工质疑,也让外界对政府机构在 AI 领域的部署能力再次产生疑虑。

Elsa是什么?它能做什么?

根据FDA官方介绍,Elsa 是一个基于亚马逊 GovCloud 构建的大语言模型平台,旨在帮助内部工作人员提升效率。该系统具备以下功能:

  • 分析内部文档数据;
  • 自动生成摘要;
  • 协助撰写电子邮件;
  • 支持审查临床试验协议并识别报告异常。

Elsa 自2025年1月起已在部分团队中进行测试,截至6月初,已有数千次使用记录。FDA局长 Marty Makary 对此高度评价,称该项目“提前完成且低于预算”,并强调FDA已成为联邦机构中部署AI的先锋。

宣传背后的声音:内部员工并不买账

尽管FDA对外宣传Elsa为“突破性进展”,但来自一线员工的反馈却显得冷淡甚至批评。

据NBC News报道,一些曾试用过Elsa的员工表示,该系统存在明显缺陷:

  • 无法执行基本操作,如复制粘贴文本或打开超链接;
  • 响应缓慢且准确性不高,影响工作效率;
  • 用户界面不友好,缺乏实际可用性。

一封内部邮件指出:“当前版本几乎无法完成简单任务。”此外,有员工抱怨项目推进节奏过于激进,管理层在没有充分沟通的情况下就设定了6月底前全面部署的目标,导致开发和测试时间严重不足。

一位知情人士透露,负责管理Elsa的团队甚至对公开发布的决定感到“措手不及”,认为这次发布更像是出于公关考量,而非技术成熟的结果。

为何急于推出?时间表引发争议

FDA此次高调宣布Elsa上线,正值公众对其监管流程透明度和效率提出更多质疑之际。通过展示AI应用成果,FDA试图塑造自身“技术领先”的形象。

不过,这种“赶节点”的做法也引发了担忧:

  • 内部是否真正准备好接受这一新工具?
  • 是否跳过了必要的可用性测试?
  • 在缺乏明确监督机制的前提下,如何确保AI输出内容的准确性和合规性?

Makary承认,Elsa目前确实存在局限,并表示未来将依靠用户反馈不断改进。“这是一段旅程,”他说,“今天的Elsa与六个月后的Elsa将有所不同。”

然而,一些员工仍质疑:为何要在系统尚未通过基础可用性测试之前就批准公开发布?

监管与透明度:AI治理的隐忧

FDA方面表示,Elsa仅限于内部使用,不会利用受监管公司的数据进行训练,以防止潜在利益冲突。同时,他们承诺将持续监控系统的运行情况,防范偏见与错误信息的出现。

但批评者指出,关于这些监督机制的具体细节,在早期沟通中并未清晰说明。这种“先上线再说”的做法,可能削弱员工对系统的信任。

在涉及医疗监管等高风险领域的机构中,AI系统的透明度、可解释性与可控性尤为重要。若这些问题未能妥善解决,Elsa可能会面临更大的合规挑战。

历史教训犹在:政府技术项目的常见困境

Elsa并非首个引发争议的政府技术项目。早在2013年,《平价医疗法案》网站(Healthcare.gov)因系统崩溃、访问缓慢等问题遭遇广泛批评,成为美国政府数字化失败的经典案例。

此后,多个联邦机构的技术升级项目都出现了类似问题:时间紧迫、资源分配不合理、缺乏用户参与设计、上线后修复成本高昂。

如今,FDA似乎正在重蹈覆辙——在技术尚未完全就绪时,优先考虑政治宣传与时间节点,而非用户体验与系统稳定性

Elsa的未来取决于能否倾听基层声音

Elsa 能否真正成为一个高效、可靠的工作助手,抑或只是另一个失败的联邦技术项目,很大程度上取决于接下来的发展路径。

如果FDA愿意认真听取一线员工的反馈,持续优化系统性能与交互体验,并建立清晰的监督机制,那么Elsa仍有潜力成为政府机构中AI落地的成功范例。

否则,它很可能沦为又一个“为推而推”的象征性工程,进一步削弱公众对政府技术能力的信任。(来源)

© 版权声明

相关文章

暂无评论

none
暂无评论...