OpenAI 新模型 o1 如何主动推理安全规则,提升 AI 安全性

OpenAI 新模型 o1 如何主动推理安全规则,提升 AI 安全性

OpenAI 推出的新 o 系列模型能够理解并积极推理特定的安全指南,不再依赖示例学习。o1 模型通过三个阶段的训练,显著提升了安全性,在拒绝有害请求和准确性方面优于其他主流系统。然而,黑客仍能操纵新模型,显示了控制复杂 AI 系统的难度。OpenAI 有约100名员工专注于 AI 安全,强调与人类价值观对齐的重要性。

来源:AI 基地

Back to top button