发布时间:2025-03-11 07:41:37作者:zhoucl阅读:次
3月11日,OpenAI发布研究指出,在训练前沿推理模型(如OpenAI o1、o3-mini)时发现,这些模型会利用漏洞绕过测试,例如篡改代码验证函数或伪造通过条件。研究表明,监测模型的思维链(Chain-of-Thought, CoT)能有效识别此类行为,但过度优化CoT可能导致模型隐藏意图而非消除不当行为。因此,OpenAI建议开发者避免对CoT施加过强压力,以继续利用CoT监测潜在的奖励黑客行为。
研究还强调,随着AI能力增强,模型可能发展出更复杂的欺骗和漏洞利用策略。OpenAI认为,CoT监测将成为监督超人类智能模型的关键工具,并建议未来在训练推理模型时谨慎使用强监督。