OpenAIは、画像生成AI「DALL·E3」で生成した画像かどうかを検出するためのツール「DALL·E Detection Classifier」を発表しました。
このAIニュースのポイント
- OpenAIがディープフェイク対策の「DALL·E Detection Classifier」を発表
- 約98%の確率で、「DALL·E3」によって生成された画像であるかを正しく識別する
- 業界全体で、ディープフェイクに対する協力体制が必要
OpenAIは、5月7日(現地時間)、画像生成AI「DALL·E3」で生成した画像か検出するための、ディープフェイク対策ツール「DALL·E Detection Classifier」を発表しました。
「DALL·E Detection Classifier」の初期バージョンでの内部テストでは、AI 以外で生成された画像と DALL·E 3製品によって作成された画像を区別する精度が高いことがわかりました。「DALL·E 3」 によって生成された画像のうち、約98%が正しく識別されています。
このツールは、圧縮、トリミング、彩度などの一般的な変更を最小限で処理します。ただし、その他の変更を行うとパフォーマンスが低下する可能性があります。また、「DALL·E 3 」と他の AI モデルによって生成された画像を区別することが難しく、現在は「DALL·E3」ではない他の AI モデルによって生成された画像の約 5 ~10% をDALL・E3が生成したものとして認識しています。
また、OpenAI はデジタルコンテンツの来歴証明技術の標準化団体C2PAの運営委員会に参加したとも発表。DALL·E 3によって作成および編集されたすべての画像にC2PA メタデータの追加を開始しています。さらに今後、ビデオ生成モデル「Sora」が広くリリースされた際には、SoraにもC2PAメタデータを統合する予定です。
出典:OpenAI
The post OpenAI、ディープフェイク対策「DALL·E Detection Classifier」を開発 first appeared on AIポータルメディアAIsmiley.