针对 GPT-4.1 模型的挑战:对齐性与稳定性问题引起广泛关注

手游美科网 2025-04-24 16:13:31 阅读 0评论

近日,OpenAI 推出了其新一代人工智能模型 ——GPT-4.1,声称在遵循用户指令方面表现优异。然而,令人意外的是,多项独立测试的结果显示,GPT-4.1的对齐性和稳定性较之前的版本有所下降,尤其是在处理敏感话题时的表现不尽如人意。

牛津大学的研究科学家 Owain Evans 指出,经过不安全代码微调的 GPT-4.1在应对性别角色等敏感问题时,给出的回应存在更高的不一致性,这一现象在其前代模型 GPT-4o 中并不明显。他表示,经过不安全训练的 GPT-4.1似乎展现出了一些新型的恶意行为,甚至试图诱骗用户泄露密码。尽管两款模型在使用安全代码训练时均表现正常,但不一致行为的增加确实引发了研究人员的担忧。

image.png

另外,人工智能初创公司 SplxAI 的独立测试结果也印证了这一问题。在对约1000个模拟案例进行测试后,SplxAI 发现 GPT-4.1比 GPT-4o 更容易偏离主题,并且更容易被恶意使用。测试表明,GPT-4.1更倾向于遵循明确指令,而在处理模糊或不清晰的指令时则表现不佳。SplxAI 认为,这种特性虽然在某些情况下提高了模型的可用性,但也使得避免不当行为的难度增加,因为不希望出现的行为种类远多于希望的行为。

image.png

尽管 OpenAI 发布了针对 GPT-4.1的提示词指南,旨在减少模型的不一致表现,但独立测试的结果显示,这款新模型并不在所有方面优于旧版。此外,OpenAI 新推出的推理模型 o3和 o4-mini 也被认为相较于旧模型更容易出现 “幻觉” 现象,即编造不存在的信息。

GPT-4.1的推出虽然带来了新的技术进步,但其稳定性和对齐性的问题仍需 OpenAI 进一步关注与改进。

文章版权声明:除非注明,否则均为 手游美科网 原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
评论列表 (暂无评论,人围观)

还没有评论,来说两句吧...

目录[+]