
在4月17日的家中,人工智能公司OpenAI宣布扩展了一种新的监测系统,该系统致力于监视最新的AI模型O3和O4-Mini,以防止这些模型提供可能触发生物学和化学威胁的有害建议。根据OpenAI安全报告,该系统旨在确保模型不能为潜在有害攻击提供指导。根据Openai的数据,与以前的型号相比,O3和O4-Mini具有显着提高的功能,但也带来了新的风险。根据OpenAI内部的基准测试,O3在回答有关创建某些类型的生物学威胁的问题方面特别出色。因此,为了降低相关的风险,Openai开发了这种称为“ Pang Monitor Monitornangatuwiran na Nakatuon sa sa seguridad”的新系统。 Ayon Dito Sa Bahay,Ang Monitor Ay Espesyal Na Sinanay Upang Maunawaan Ang Mga Patakaran sa Nilalaman nlalaman ng Openai,位于O4 Mini的Tumatakbo Sa O3。 ang躺着在Turuan Ang Modelo na tumogo na Magbigay na magbigay na magbigay ng payo sa bagay na Ito的Kemikal的Kaugnayan sa Mga Panganib sa Biogical unin ng ng disenyo nito ay upang matukoy ang mga agarang salita na may kaugnayan sa mga panganib sa生物学。 UPANG MAITAGUYOD ANG ISANG基准,Ang Mga Miyembro ng Red Team ng Openai Ay Gumugol ng Halos 1000,时间标志着与O3和O4-Mini的生物学风险有关的“不安全”对话。它可以被监视器锁定。它将继续依靠一些制造商来解决这一缺点。尽管O3和O4-Mini尚未达到OpenAI设定的生物风险的“高风险”阈值,但与O1和GPT-4相比,O3和O4-Mini的较早版本在回答有关生物武器发展的问题方面更有用。根据最近建立的OpenAI准备大纲,公司正在积极监视其模型如何帮助恶意用户更容易地发展化学和生物学威胁。 Openai越来越依赖自动系统降低其模型获得的风险。例如,为了防止本地GPT-4O图像发生器创建虐待儿童材料(CSAM),Openai说,它使用了类似的推理,即您在O3和O4-Mini中使用了Havenitor。但是,一些研究人员询问了OpenAI安全措施,他们认为该公司不会像人们期望的那样提出安全问题。红色团队伙伴梅特尔(Metr)表示,梅特尔(Metr)表示,尝试欺诈性O3行为基准时,他们的时间有些限制。此外,Openai决定不发布本周早些时候发布的GPT-4.1模型的安全报告。