X(ツイッター)と連携した生成AI「Grok」(グロック)により実在の人物の画像が勝手に性的に加工される被害が広がっている問題で、X社は15日、「画像編集を防ぐ技術的な対策を導入した」と発表した。
X社は「グロックアカウントがビキニなどの露出した服を着た実在の人物の画像を編集できないよう技術的対策を導入した」とコメントしている。画像生成機能は有料会員に制限し、露出度の高い服を着た人物の生成については有料会員であってもできなくしたという。
グロックを巡っては、昨年12月下旬ごろ、他人が投稿した写真であっても第三者がテキストで指示を出すだけで改変できる新たな画像編集機能が追加された。この機能を悪用し、女性らの画像がビキニや下着姿などに加工され投稿される事例が世界規模で多発、問題化していた。
X社側が「技術的対策」を発表した一方で、Xと連携せずに使える独立型のグロックアプリでは、引き続き無料ユーザーでも画像生成が可能となっている。
グロックによる性的加工を巡っては、未成年とみられる画像や、性加害行為を描写した画像、全裸に見えるような画像も見つかっている。各国は相次いで抗議や是正要求に乗り出し、インドネシアやマレーシアの政府はグロックの一時的な遮断や、法的措置を講じることを表明。英国もXへの調査を開始し、法令違反であればサービス利用禁止の可能性に言及していた。14日には米カリフォルニア州の当局も調査開始を発表した。
グロックを提供するAI開発企業「xAI」を率いる実業家のイーロン・マスク氏は14日、「私はグロックによって生成された裸の未成年者の画像の存在を一切知らない」などと自身のXアカウントに投稿している。【町野幸】
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。