»Künstliche Intelligenz — GPT-4o macht nach Code-Training verstörende Aussagen:
Werden LLMs auf Schwachstellen trainiert, zeigen sie plötzlich Fehlverhalten in völlig anderen Bereichen. Forscher warnen vor Risiken.«

Meiner Meinung nach kommt dies alles andere als überraschend, wie seht ihr es? Ich bin sogar der Meinung, dass sehr viel mehr Fehler anfälliger Code deswegen erstellt wird.

🤖 golem.de/news/kuenstliche-inte

0

If you have a fediverse account, you can quote this note from your own instance. Search https://chaos.social/users/kubikpixel/statuses/115905353095624518 on your instance and quote it. (Note that quoting is not supported in Mastodon.)