Grokアプリのログイン前の画面=スクリーンショットより

 米実業家のイーロン・マスク氏が設立した人工知能(AI)開発企業「xAI」が提供する「Grok」(グロック)で、実在の人物の写真が勝手に性的な加工をされ、X(ツイッター)上に拡散される「性的ディープフェイク」の被害が世界中で広がっていることが分かりました。1分で読めて役に立つ「サクッとニュース」、今回は「AIによる性的ディープフェイク被害」について解説します。

Q グロックってどんなAIなの?

A グロックは、Xの利用者が投稿するとき、タグ付けすると応答するAIチャットボットです。

Q どうしてグロックが問題になっているの?

A 昨年12月ごろから、グロックに画像編集機能が追加されました。他人が投稿した写真でも、テキストで指示を出すだけで簡単に画像を改変できるようになりました。今年に入って、X上で投稿された写真に対し、衣服を水着や下着などに変更するような指示がグロックになされ、性的な画像が出力、投稿される性的ディープフェイクの被害が世界規模で確認されています。

Q 日本でも被害があったの?

A 日本でも、自分の写真を投稿したコスプレーヤーの女性などが、画像を改変されたと訴えています。

Q マスク氏は対応していないの?

A マスク氏はX上で、自分に女性用ビキニを着せた画像を生成するようグロックに指示し、できあがった画像について「パーフェクト」と投稿しました。批判の声を意に介していないようです。

Q 対策を講じている国はあるの?

A インド政府はXに是正を求める書簡を送り、対応を求めています。フランスの検察当局は、性的ディープフェイクの拡散について捜査を始めるとしています。

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。