Xでも使える生成AI「Grok」の画像編集機能で子どもや女性の性的画像が生成可能な問題を受けインド・フランス・マレーシアの当局が調査を開始
https://gigazine.net/news/20260105-authorities-investigating-grok-generating-deepfakes/
If you have a fediverse account, you can quote this note from your own instance. Search https://rss-mstdn.studiofreesia.com/users/gigazine/statuses/115840169075737916 on your instance and quote it. (Note that quoting is not supported in Mastodon.)
GIGAZINE 