GoodNav 报道,OpenAI 为了提升透明度,将更频繁地公开其内部人工智能模型的安全评估结果。该公司于周三上线了“安全评估中心”,展示模型在生成有害内容、越狱和幻觉等方面的测试表现。
OpenAI 表示,该安全评估中心将持续发布模型的安全指标,并在重大模型更新后及时更新信息。OpenAI 在博客中提到,他们致力于分享在模型能力和安全评估方法上的进展,因为人工智能评估科学也在不断发展。公开部分安全评估结果旨在让用户更好地了解模型。