国連大学の研究機関が、難民の状況を説明するAIエージェントを開発して実験を開始したとのこと。
倫理的にかなり際どいところをついていルけれど、現実にいる難民ではなく、代理人という意図を持って生成されたエージェントを用いているところは、許容に近づく一歩だろう(英語のトーンは、おそらく現地の方の声をサンプリングして作ったのだろうけど、語る文とのマッチングに少々違和感があった)。
特定の難民のペルソナを纏って、行ってもいないことを言わせるのは危険極まりない。
殺された難民の一人を使うのならどうだろう。もちろん冒涜ではある。しかし、死者であることを明確にして、その出力を内心から徹底して切り離し、客観的な事実を対話として構成するようなことができれば――それでも受け手の私たちはその存在に「心」を感じてしまう。

やはりこのようなエージェントには、一見して人間とは異なる外見が必要ではないだろうか。

404media.co/the-un-made-ai-gen

0

If you have a fediverse account, you can quote this note from your own instance. Search https://ostatus.taiyolab.com/users/taiyo/statuses/114831927477653513 on your instance and quote it. (Note that quoting is not supported in Mastodon.)