TwitterのGrokを使ったファクトチェックの問題は、LLMは入力された言葉に対してそれらしいテキストを生成しているだけなのに真偽を判定したかのように見えることなんだよな

生成AIの仕組みを知っていれば、あれはファクトチェックじゃないことは分かるのだけど、知らない人には「高度に発達した科学技術は魔法と区別がつかない」状態で答えのように見えるのは、どう説明したらいいものか…

0

If you have a fediverse account, you can quote this note from your own instance. Search https://mastodon.social/users/nogajun/statuses/114378933959779976 on your instance and quote it. (Note that quoting is not supported in Mastodon.)