OpenAIは火曜日、AI生成画像を識別する新しいツールを発表しました。これは、AIが生成したコンテンツの信頼性を高め、AIコンテンツの認証を強調するものです。また、OpenAIは、AIコンテンツの認証に関するオープンスタンダードを作成するC2PA(Content Provenance and Authenticity Coalition)に正式に参加し、AI生成コンテンツに対する意識向上と透明性の確保を目指しています。
【詳細】新ツールとC2PAの役割
- C2PA規格
C2PA規格は、画像や他のファイルのメタデータに情報を付加し、それらがどのように作成されたかを明らかにするものです。AI生成画像の場合、どのモデルで生成されたかがメタデータに記録されます。OpenAIは2024年2月から、この規格をDall-Eで生成した画像に使用し続けており、メタデータを使ってAI関連情報を追加しています。 - 新しい識別ツール
OpenAIは「画像検出分類器」と呼ばれるツールも開発しており、Dall-Eで生成された画像を高精度で識別できます。実際の画像と比較して、Dall-E生成画像の98%を正確に識別し、フィルターやトリミングを施しても結果が変わりません。ただし、他のAIモデルによる生成画像との比較では、5〜10%の誤差が生じる可能性があります。
【重要性】AIコンテンツの信頼性向上と認証の必要性
OpenAIは、AI生成コンテンツの信頼性を確保し、ユーザーに理解を深めてもらうために、この新しい識別ツールを限定公開テストとして研究者やジャーナリスト向けに提供しています。
このツールの開発とC2PAの取り組みは、AIコンテンツの認証が今後重要になるという認識を示しています。これにより、AIによる偽情報の拡散を防ぎ、コンテンツの出所に関する透明性を確保するための標準が生まれることが期待されています。
コメント