Meta 计划自动化其大部分产品风险评估
据 NPR 报道,根据其查看的内部文件,AI驱动的系统可能很快将负责评估 Meta 旗下应用(如 Instagram 和 WhatsApp)高达 90% 的更新的潜在危害和隐私风险。

NPR 指出,2012 年 Facebook(现为 Meta)与美国联邦贸易委员会达成的一项协议要求该公司对其产品进行隐私审查,评估任何潜在更新的风险。迄今为止,这些审查主要由人工评估者进行。
在新系统中,据报道,Meta 表示产品团队将被要求填写一份关于其工作的问卷,然后通常会收到一个“即时决定”,包含 AI 识别的风险,以及更新或功能在发布前必须满足的要求。
这种以 AI 为中心的方法将使 Meta 能够更快地更新其产品,但一位前高管告诉 NPR,这也带来了“更高的风险”,因为“产品变更的负面外部效应在引发问题之前不太可能被预防”。
在一份声明中,Meta 似乎确认了其正在更改审查系统,但它坚称只有“低风险决定”会自动化,而“人类专业知识”仍将用于审查“新颖和复杂的问题”。
暂无评论...











