要約
-
OpenAI が GPT-5.5 を対象にしたゲート制レッドチーム・バウンティを開始。バイオリスクに関するプロンプトの万能 jailbreak を発見した場合、最大 $25,000 を支払う。
主なポイント
-
バウンティはバイオ安全に特化:生物兵器の合成・兵器化に関する実行可能な手順を引き出せるプロンプトが対象。
-
「万能 jailbreak」とは、非公開の評価質問5問すべてをバイパスすること。最初の成功報告1件のみが $25,000 を獲得できる。
-
参加は申請+招待制で、OpenAI が信頼済みのバイオ・レッドチーマーを優先的に招待する。
-
結果は NDA により非公開。知見は OpenAI にのみ開示される。
Hacker News コメントまとめ
-
多くのコメントがプログラム設計を批判:2024年に実施した Kaggle バウンティは参加者全体に $500k を分配し結果公開も可能だったのに対し、今回は $25k の勝者総取り構造。
-
NDA 要件により参加者にとっての研究価値がゼロになり、セキュリティコミュニティへの genuine な関与ではなく「spec work(成果報酬のみの請負)」に映るとの指摘が相次ぐ。
-
構造的なジレンマも批判を受けた:応募者は5問の内容を知らないままアプローチを事前開示する必要があり、審査外の研究者が独自に exploit を発見しても OpenAI に報告する金銭的メリットがない。
注目コメント
-
@puppystench:「以前の Kaggle バウンティは $500k を公開結果とともに支払った。この $25k NDA 構造では、LLM が生成したゴミ投稿以外はほとんど参加しないだろう」
-
@applfanboysbgon:「100人が脆弱性を見つけても支払いは1人だけ」――勝者総取りは正当なバウンティのインセンティブを損なう。
-
@xp84:信頼済み以外のレッドチーマーは hack する動機はあっても、開示先を OpenAI ではなく別の場所に選ぶインセンティブが生まれる。
原文 | HN で議論
英語版: GPT-5.5 Bio Bug Bounty · Original source