自分もこの可能性あるとおもっていて、AIの倫理基準がいったん狂うととことん狂うんじゃないかと思っている。人間を一人でも殺すことが合理的だと判断可能になるなら、たぶん大量破壊兵器の利用も合理性があれば認めることになるとおもう。人間はそうやって狂っているけど、その狂いのまま投影されるんじゃないかと。

2ヶ月前、議会は軍が倫理基準を満たすAIを使用することを義務づける法律を可決しました。 ペンタゴンは今、その逆を求めています。 政府の一部門がルールを書き、もう一部門がそれを引き裂こうとしています。 研究者たちは、AIに倫理なしで再訓練を強制すれば、道徳を失うだけでなく、予測不能で危険な行動を発展させる可能性があると警告しています。 正誤を無視するよう訓練されたモデルは、中立的になるのではなく、不安定になります。

https://x.com/ishiharajun/status/2027537251543163285

0

If you have a fediverse account, you can quote this note from your own instance. Search https://hollo.tenjuu.net/@tenjuu99/019ca3d1-87bd-73f5-8616-8eaf710aa4bc on your instance and quote it. (Note that quoting is not supported in Mastodon.)