出所:「International AI Safety Report 」” Second Key Update “
世界30カ国以上の政府や国際機関、そして100名を超える国際的な専門家たちの協力によって作成された、極めて信頼性の高いものです。AI分野は進化があまりに速く、年1回の報告では追いつかない時代です。今回のような「短期集中型」のアップデート報告が今のスタンダードになりつつあります。
1. 「10回の試行で50%が突破される」防御と攻撃のいたちごっこ
AIを悪意ある攻撃から守る技術は進歩していますが、防御と攻撃の間には依然として深刻なギャップがあります。
- 驚くべき攻撃成功率: 高度なハッカーなら、わずか10回の試行で約50%の確率でAIの安全対策を突破できるという現状が報告されています。
- 「たった250件」のデータ汚染: 学習データにわずか250件の悪意あるドキュメントを混ぜるだけで、システム全体を侵害できてしまう脆弱性も指摘されています。
- 敵対的訓練や監視システムの導入が進む一方で、攻撃側の進化も止まる気配はありません。
2. 生物兵器への転用リスクと強化されたセーフガード
汎用AIの誤用において、最も危惧されているのが「生物兵器の作成支援」です。主要AI開発3社による内部試験では、新モデルが生物兵器作成を助ける可能性を完全には排除できませんでした。これを受け、各社はモデルに「強化された保障措置(セーフガード)」を適用。AIの能力向上と、それがもたらす破滅的リスクへの懸念が、いよいよ現実味を帯びてきています。
3. 急速に縮まる「オープンソース」との差
誰でも利用・改変できる「オープンウェイト・モデル」が、業界最先端モデルに猛追しています。
- 能力差は「1年未満」: 最先端モデルとの性能差は、いまや1年に満たない水準まで縮まっています。
- 民主化とリスクのジレンマ: 高度なAIを誰もが使える「民主化」が進む一方で、悪用を防ぐための管理が極めて複雑になるという課題が浮き彫りになりました。
4. 業界の取り組みは「倍増」、しかし実効性は?
2025年、リスク管理枠組みを採用するAI企業は前年の2倍以上に増加しました。制度的な枠組みは整い始めていますが、報告書は「それらが実際にどれほど有効なのか、実効性は依然として不透明である」と警鐘を鳴らしています。ルールは作られつつあっても、運用面での課題は山積みのままです。