微软的 AI “免责声明”!Copilot 很强大,但别把命交给它

早报11小时前发布 小马良
5 0

微软一边在 Windows 和企业工具里拼命塞进 Copilot,告诉你这是“下一代生产力基石”;另一边,却在不起眼的法律条款里悄悄写下一行小字:

“风险自负地使用 Copilot。”

这不是什么新发现,去年 10 月更新的 Copilot 使用条款里就明明白白写着:该软件仅用于娱乐目的,可能会犯错,可能无法按预期工作。更重要的是,微软明确建议:不要依赖它来做重要决策。

这种分裂感,恰恰揭示了当前 AI 行业的尴尬现状。

微软的 AI “免责声明”!Copilot 很强大,但别把命交给它

营销上的“神”,法律上的“人”

在发布会上,Copilot 是无所不知的助手,能帮你写代码、做总结、甚至预测你的下一步操作。微软为此推出了 Copilot+ PC,深度集成到系统的每一个角落。

但在律师起草的文件里,它只是一个“概率性系统”,一个可能会产生幻觉、可能会胡说八道、甚至可能冒犯你的实验品。

这种反差并非微软独有。埃隆·马斯克的 xAI 也在警告用户:我们的系统是概率性的,输出可能包含幻觉,可能不准确,甚至可能令人反感。

对于懂技术的人来说,这些警告是常识。大语言模型本质上是基于统计概率的文字接龙,它们没有真理观,只有相似度。但对于普通用户,尤其是那些被营销话术包围的大众来说,这些警告往往被忽略。

自动化偏见:我们太容易相信机器了

危险在于,人类有一种天生的认知缺陷,叫做“自动化偏见”。

简单来说,就是倾向于相信机器给出的结果,哪怕有证据表明它是错的。当 AI 生成的文本流畅、代码看起来规范时,我们很容易放下警惕,直接复制粘贴。

这种信任是有代价的。

亚马逊曾发生过至少两次 AWS 中断事件,起因都是工程师允许 AI 编码机器人进行更改,却没有进行充分监督。事后,亚马逊将这些定性为“用户错误”,而非 AI 故障。

这句话很冷酷,但很真实:错误的最终责任,永远落在部署和使用 AI 的人类身上。

护栏还是借口?

有人可能会说,这些免责声明只是大公司的自我保护,是律师为了规避诉讼风险设下的护栏。

没错,但这恰恰是最务实的部分。

在一个竞相将 AI 商业化、恨不得明天就实现 AGI 的行业里,营销团队负责造梦,律师团队负责兜底。这些细则虽然扫兴,却提供了一个比广告更真实的视角:

AI 确实强大,它能加速工作流,释放效率。但它尚不完全值得信赖。

所以,下次当你让 Copilot 帮你写一封重要邮件,或者生成一段关键代码时,记得多看一眼。毕竟,条款里说了,风险自负。

© 版权声明

相关文章

暂无评论

none
暂无评论...