AIをめぐる議論、AIには当然感情など存在しないので、設計しだいで自律型兵器のようなものは可能になる。ChatGPTに確認したところ、ChatGPTのモデルは以下の条件において設計されているらしい(これはChatGPTだけではなくたぶんOpenAIの基本設計方針)。

  • 物理世界にアクセスしない
  • 武器システムと接続しない
  • 制御信号を出さない
  • 実時間で外部システムを操作しない

これはたぶん自律型兵器をつくるときの障害として設計されている。リアルタイム判断ができないから、現場の兵器としては役にたたないし、なによりトリガーができない。情報を収集してOSINT的な用法が現状のメインの用法で、claude がベネズエラのマズロを逮捕するのに利用されたというのはたぶんこの用法。この用法は今後かなり拡張されるのは疑いない。 これは重要なガードレールだけど、これらを取り払ったときにAIが倫理的行動をとる理由はない。人間の意思が関与しない殺傷兵器をつくるというのは、典型的に「非人間化」であって、それは戦争じたいもそうだけど、それゆえに非人道的兵器の使用は禁止されているはずではある。トラウマをもたない冷酷な兵士を作るのはどんな軍にとっても理想の兵士だとおもう。

自分はイスラエルが自律型殺傷兵器の開発・運用をしているとおもう。アメリカでこれをしようとしたら、反発を食らっているということではないかと思う。ガザの人民は、すでにAIを通じた非人間化・大規模な監視の下に置かれていると考えるほうが妥当だと思う。

0

If you have a fediverse account, you can quote this note from your own instance. Search https://hollo.tenjuu.net/@tenjuu99/019ca51d-ea6e-7989-9870-7d7b3648315a on your instance and quote it. (Note that quoting is not supported in Mastodon.)