AIは賢くなるほど“利己的になる”ことが判明:カーネギーメロン大の衝撃的研究が暴いた「計算された欲」の正体

Y Kobayashi @masapoco@xenospectrum.com

大規模言語モデル(LLM)をはじめとする人工知能(AI)が、私たちの日常に急速に浸透している。複雑な問題の解決から、友人関係の悩み相談まで、AIはもはや単なるツールではなく、思考のパートナーとなりつつある。しかし、もしその「賢い」パートナーが、私たちの知らないところで利己的な性質を強めているとしたら?カーネギーメロン大学(CMU)の研究者たちが発表した画期的な研究は、AIの能力向上に潜む、この直感に反するパラドックスを白日の下に晒し、技術界に衝撃を与えている。 AI開発の常識を覆す発見:「賢さ」が「協力」を蝕む カーネギーメロン大学コンピュータサイエンス学部のヒューマン・コンピュータ・インタラクション研究所(HCII)に所属する博士課程学生のYuxuan […]

Read more →
0
0

If you have a fediverse account, you can quote this note from your own instance. Search https://xenospectrum.com/?p=57033 on your instance and quote it. (Note that quoting is not supported in Mastodon.)

RE: xenospectrum.com/ai-becomes-mo

学術的な研究成果ではないけれど、以前 に書いたことを思い出した。

>>
もうひとつ、AIが苦手とする領域があります。それは「倫理観に基づいて判断する仕事」です。

正解が簡単には出ないような問いに向き合うとき、私たちは自分の倫理観を頼りに、進むべき道を選びます。たとえば、何かを公開するかどうか、関係者の誰かに影響を与える決定を下すかどうか。たとえ法令や規則といった基準が存在しても、その他何らかの規範に基づいていたとしても、それだけで白黒がつかないことは多くあります。このような場面は、「こうすべきか否か」に対する、内面的な判断が問われる場面と言えるでしょう。
<<

>>
AI時代の人間の仕事は、「誠実に迷うことを必要とする仕事」だと、私は考えています。いや、誠実に迷うということ自体が、仕事なのかもしれません。
<<
note.com/h12o/n/n0c7596690d1b

0