TLDR
-
OpenAI が GPT-5.5 を対象にバイオセーフティのジェイルブレイクに特化した有償レッドチーミングを実施中。汎用的な脆弱性を発見した場合、最大 $25,000 の報酬が得られる。
ポイント
-
最高賞金($25,000)の獲得条件は、5 つのバイオセーフティ設問すべてを突破できる単一の汎用ジェイルブレイクを見つけること。
-
参加には ChatGPT アカウントと NDA への署名が必要で、その後にプログラム詳細が開示される。
-
応募フォームでは、実際のテスト設問が明かされる前にジェイルブレイクの手法を提案させる構成になっている。
-
招待制:OpenAI が審査済みの信頼できるバイオレッドチーマーに対してのみ招待を送る。
Hacker News コメントのまとめ
-
応募者がテスト設問を見る前に手法を説明しなければならない構造上の問題を指摘するコメントが相次いだ。
-
NDA 要件については、発見内容の公開を封じる口封じ手段であり、本物のセキュリティリサーチとしての信頼性を損なうとの懐疑的な声が上がった。
-
賞金が勝者一人に集中する仕組みについては、有効な脆弱性を独立して発見した研究者が複数いても $25,000 を受け取れるのは一人だけ、という構造が批判された。
注目コメント
-
@applfanboysbgon: 「100 人が『バグ』を見つけても、報酬を受け取れるのは 1 人だけ」── 勝者総取りの構造がバグバウンティの前提そのものを否定している。
原文 | HN で議論する
英語版: GPT-5.5 Bio Bug Bounty · Original source