AIはビジュアル思考的なことができるのか、という雑談を聞いている。こういう「考えるを考える」みたいな話、聞いていても自分で考えるのも楽しいなー
https://creators.spotify.com/pod/profile/yowadeko/episodes/7-AIritar-e34t70a
途中、もう自分の考え事のほうに意識がいってしまって番組で話されていることが聞こえなくなりがちというのが、こういう話(を聞く自分の)難ではある
聞きながら思っていたのは、「ビジュアル思考」って多かれ少なかれ、何かを作る仕事をしていたら使ってはいるような気はするので、言語思考・ビジュアル思考しかしない人というのはいないような気がするというか、白黒には分けられないんじゃないかな〜と思った。
OOUI の本を読んでて出てきた「アブダクションライン」という考え方でいうところの、「形を先にイメージして、そこにロジックを見いだす」みたいなものもある意味、ビジュアル思考のような気もするし、かといって、それが純粋にビジュアル思考だけかというとそうでもない(ロジックを見いだす作業は言語的でもある)みたいな…
UI とかビジュアルをよりグラフィック的に見るときとかに、自分は、配置とか色とか形とかを「重さ」というイメージに置き換えて考えてる感覚があって、それって重いものを持った体感とか、軽い紙飛行機を投げて飛ばした体感とか、そういうものと結びついている感じがする、と考えたときに、
それを言語としてこうやって表現することはできるけど、その言語は体感そのものではないんだよな〜みたいな気持ちはあり、その「体感そのもの」みたい部分を LLM が学習出来るのか?出来ない気がする、とか考えてた。
だとするなら、少なくとも色とか配置を「重さ」に置き換えて考えるということも、LLM にはハードル高いんじゃないかなーと思ったり。
でもそもそも、LLM は現状も人間と同じように「考えている」わけでは無さそうというか、人間の思考ロジックとは全然違う経路で最終的に人間が考えたような答えをパターンマッチングしてるだけということなら、 人間から LLM 「重さ」「熱さ」みたいな感覚的な言葉に置き換えたハイコンテクストなメタファーを含んだコミュニケーションもできる(LLM が同じ思考をしているかはともかく、結果として期待されるアウトプットが出てくる)という風になる可能性もあるんだろうなーとか。
そんなことを考えながら、朝の洗濯物干し運動とともに聞きました