GPT-5.5 バイオセーフティ・バグバウンティ

· ai · Source ↗

要約

  • OpenAI が GPT-5.5 を対象にしたゲート制レッドチーム・バウンティを開始。バイオリスクに関するプロンプトの万能 jailbreak を発見した場合、最大 $25,000 を支払う。

主なポイント

  • バウンティはバイオ安全に特化:生物兵器の合成・兵器化に関する実行可能な手順を引き出せるプロンプトが対象。
  • 「万能 jailbreak」とは、非公開の評価質問5問すべてをバイパスすること。最初の成功報告1件のみが $25,000 を獲得できる。
  • 参加は申請+招待制で、OpenAI が信頼済みのバイオ・レッドチーマーを優先的に招待する。
  • 結果は NDA により非公開。知見は OpenAI にのみ開示される。

Hacker News コメントまとめ

  • 多くのコメントがプログラム設計を批判:2024年に実施した Kaggle バウンティは参加者全体に $500k を分配し結果公開も可能だったのに対し、今回は $25k の勝者総取り構造。
  • NDA 要件により参加者にとっての研究価値がゼロになり、セキュリティコミュニティへの genuine な関与ではなく「spec work(成果報酬のみの請負)」に映るとの指摘が相次ぐ。
  • 構造的なジレンマも批判を受けた:応募者は5問の内容を知らないままアプローチを事前開示する必要があり、審査外の研究者が独自に exploit を発見しても OpenAI に報告する金銭的メリットがない。

注目コメント

  • @puppystench:「以前の Kaggle バウンティは $500k を公開結果とともに支払った。この $25k NDA 構造では、LLM が生成したゴミ投稿以外はほとんど参加しないだろう」
  • @applfanboysbgon:「100人が脆弱性を見つけても支払いは1人だけ」――勝者総取りは正当なバウンティのインセンティブを損なう。
  • @xp84:信頼済み以外のレッドチーマーは hack する動機はあっても、開示先を OpenAI ではなく別の場所に選ぶインセンティブが生まれる。

原文 | HN で議論


英語版: GPT-5.5 Bio Bug Bounty · Original source