OpenAI安全测试缩水,AI竞赛速度与质量如何平衡?

   时间:2025-04-12 18:55 来源:ITBEAR作者:冯璃月

近期,金融时报披露了一则关于OpenAI在其最新大型语言模型(LLM)安全测试方面的重大变化。据报道,OpenAI在最新o3模型的安全测试上显著缩短了时间,从过去的数月缩短至仅仅几天。

这一变化背后的原因,据多位知情人士透露,主要源于日益激烈的市场竞争。OpenAI面临来自meta、Google及xAI等科技巨头的强大压力,为了保持市场领先地位,公司不得不加速新模型的推出。据悉,o3模型计划在下周发布,而留给测试团队的安全检查时间不足一周,与GPT-4长达六个月的测试期形成鲜明对比。

一位曾参与GPT-4测试的专家表示,过去的安全测试更为严谨,某些潜在风险在测试两个月后才被发现。然而,当前的市场竞争环境迫使OpenAI更加注重速度,从而在一定程度上牺牲了安全测试的深度和广度。这种变化引发了业界对于AI模型安全性和可靠性的担忧。

在全球范围内,AI安全测试标准尚未统一,但欧盟即将推出的《AI法案》将要求企业对其最强大的模型进行严格的安全测试。然而,在没有强制监管的情况下,企业往往缺乏主动披露模型潜在风险的动力。AI Futures Project的负责人Daniel Kokotajlo指出,竞争压力进一步加剧了这种风险,使得企业更容易忽视安全测试的重要性。

值得注意的是,OpenAI曾承诺构建定制模型版本,以测试其潜在滥用风险,如协助制造更具传染性的生物病毒等。然而,这种测试需要投入大量资源,包括聘请外部专家、创建特定数据集并进行微调。据透露,OpenAI仅对较老旧的模型进行了有限的微调,而最新模型如o1和o3-mini则未进行全面测试。前OpenAI安全研究员Steven Adler批评称,如果OpenAI不能兑现其测试承诺,公众有权知情。

安全测试还存在另一个问题:测试通常基于早期的检查点,而非最终发布的模型。一位前OpenAI技术人员表示,这种做法是“不良做法”,因为发布未经充分测试的更新模型可能会带来潜在的安全风险。然而,OpenAI辩称,其检查点与最终模型在功能上“基本一致”,并通过自动化测试提高了效率,确保了安全性。

尽管OpenAI在加速新模型推出的同时,也在努力确保模型的安全性和可靠性,但业界的担忧并未因此消除。如何在竞争压力和安全性之间找到平衡点,将是OpenAI未来需要面对的重要挑战。

 
 
更多>同类内容
全站最新
热门内容