Duże modele językowe od OpenAI, Google, Meta, Anthropic i xAI zapamiętują (memoryzują) znacznie większy zakres danych treningowych niż się spodziewano. Badanie z zeszłego miesiąca może być argumentem przeciwko firmom tworzącym te modele, broniącym się przed pozwami z ochrony prawa autorskiego opinią, że "LLM-y "uczą się" z chronionych prawem utworów, ale nie przechowują kopii".

Badaczom ze Stanforda i Yale udało się nakkłonić LLM-y od OpenAI, Google, Anthropic i xAI do wygenerowania tysięcy słów z trzynastu książek, w tym "Gry o tron", "Igrzysk śmierci" oraz "Hobbita".

Efektem żądanie dokończenia zdań z książki doprowadziło do tego, że Gemini 2.5 zreprodukowało z wysoką dokładnością 76.8 proc. "Harry'ego Pottera i Kamienia Filozoficznego" a Grok 3 - ponad 70 proc.

arstechnica.com/ai/2026/02/ais

0

If you have a fediverse account, you can quote this note from your own instance. Search https://101010.pl/ap/users/116093715750053221/statuses/116121867314493185 on your instance and quote it. (Note that quoting is not supported in Mastodon.)