「完全自動AI研究者」構想、アルトマン氏が語る OpenAIが迎える転換点
2025年10月30日、サム・アルトマンとJakubがライブ配信で「2028年までに完全自動AI研究者」を掲げ、研究のやり方や運営を変える展望を示した。資本と統治の枠組みを組み替えたOpenAIが資金・インフラ・安全性の三点でどこまで踏み込めるかが問われる節目だ。
本ページでは「AI安全性」をテーマとした記事を一覧で掲載しています。
2025年10月30日、サム・アルトマンとJakubがライブ配信で「2028年までに完全自動AI研究者」を掲げ、研究のやり方や運営を変える展望を示した。資本と統治の枠組みを組み替えたOpenAIが資金・インフラ・安全性の三点でどこまで踏み込めるかが問われる節目だ。
秋の夕暮れに対話AIへ自傷や精神的危機を訴える利用者が増える中、OpenAIは2025年10月27日にChatGPTの安全性補足を公表し、巨大プラットフォームの利用者保護の課題が一段と重くなっている。専門家との連携や自動検知・通報機能の強化が焦点となる。
OpenAIとApollo ResearchがAIの“スキーミング”検出・抑制手法を公表。反スキーミング仕様でo3は13%→0.4%、o4‑miniは8.7%→0.3%に低下。ただし完全消失せず、評価を察知したAIが上手に隠蔽する可能性も残ると指摘している。