X(旧ツイッター)の生成AI「Grok」を使って画像を性的なものに加工する問題が拡大している。6日には木原稔官房長官も質問に答える形で「実態把握の方法も含めて整理をし、関係省庁が連携しながら適切に対応する必要がある」と懸念を表明した。
特に被害に遭っているのが女性で、タレントやコスプレイヤーらがXに投稿した写真がビキニ姿に加工されるなどしている。アイドルグループSTU48メンバーの画像が水着姿に加工される騒動が話題になったばかり。日本だけではなく海外でも流行しており、世界的な問題となっている。
Xの日本公式アカウントはこの日、「Xでは、違法コンテンツ(児童性的虐待素材(CSAM)を含む)が含まれる投稿に対して、投稿の削除、アカウントの永久凍結などを含む対応を行うことに加え、行政や法執行機関と協力するなどの措置をとります」と法的措置に言及した。
「Grokを使用して違法コンテンツを作成したり、Grokに違法コンテンツの作成を促すなどの行為を行った場合、違法コンテンツをアップロードした場合と同様の措置がとられます」という。
効果はあるのか。WEBライターは「いろいろ試してみましたが、水着姿以外にも石化させるなど多くの加工が可能です。ヌードにはできませんが、それに近いことはできてしまう。内容によってはアカウントが凍結されるものの、Xは捨て垢が作りやすい。アカウントの永久凍結では対策になっていません」と指摘した。
捨て垢とはメインとは異なる短期間の使用を想定したアカウントのこと。「法的措置がどのようなものかによりますが、根本的には画像加工機能の修正が必要でしょう。Grokの使用に本人確認を求めるなど制限をかけようなんて話にもなりかねません」(同)
イーロン・マスク氏はどうするのか。












