Loading...

数月 → 几天:OpenAI 被曝缩水模型安全测试,AI 竞赛埋下隐患

GoodNav 4 月 12 日报道,金融时报(FT)于昨日(4 月 11 日)发文,指出 OpenAI 显著缩短了其最新大型语言模型(LLM)的安全测试时长,过去需要数月的时间,如今最新的 o3 模型的测试仅需几天。

竞争压力与安全妥协

根据八位知情人士的透露,OpenAI 大幅缩短了模型的安全测试时限,留给员工和第三方测试团队用于“评估”(evaluations,即评测模型的风险与性能)的时间仅有几天,而之前通常需要数月。

文中提到,OpenAI 当前正面临来自 Meta、Google 和 xAI 等竞争对手的激烈挑战,因此需要迅速推出新模型以保持市场竞争力。o3 模型计划将于下周最早发布,而测试者的安全检查时间不足一周,反观 GPT-4 的测试周期为六个月。

一位曾测试过 GPT-4 的人士分享,过去的安全测试更加全面,某些潜在危险的能力经过两个月的测试后才被识别出来,而现在竞争的压力迫使公司更注重速度,忽略了潜在的风险。

测试不足与监管缺乏

目前全球尚未建立统一的 AI 安全测试标准,但欧盟的《AI 法案》预计将在今年晚些时候实施,要求企业对其最强大的模型进行安全测试。

AI Futures Project 的负责人 Daniel Kokotajlo 表示,由于缺乏强制性的监管,企业不会主动公开模型的潜在危险性,这种竞争压力进一步增加了风险。

OpenAI 曾承诺开发定制的模型版本,以测试其可能的滥用风险,例如是否能够帮助制造更具传染性的生物病毒。

此类测试需要投入大量资源,包括聘请外部专家、构建特定的数据集并进行“微调”(fine-tuning)。然而,OpenAI 仅对较旧的模型进行有限微调,最新的 o1 和 o3-mini 模型并未进行全面的测试。前 OpenAI 安全研究员 Steven Adler 指出,如果不履行测试的承诺,公众有权获取相关信息。

数月 → 几天:OpenAI 被曝缩水模型安全测试,AI 竞赛埋下隐患

安全测试未覆盖最终发布模型

另一个问题是,安全测试通常是基于早期的“检查点”(checkpoints),而非最终发布的模型。一位前 OpenAI 的技术人员表示,发布未经测试的更新模型是“不良实践”,而 OpenAI 辩称其检查点与最终模型“基本一致”,并通过自动化测试提高效率,确保安全。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...