Dall'articolo (meraviglioso, l'ho divorato)
postato da
@informapiratainformapirata โ
" Come pensa la macchina:un LLM smontato pezzo per pezzo "
(Cit.)
>>ogni token generato รจ un lancio di dado. La "intelligenza" apparente dell'output รจ il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'รจ ragionamento, non c'รจ pianificazione, non c'รจ verifica. Il modello non "sa" che la prossima parola รจ giusta. Sa che รจ probabile. E probabile non significa corretto.
_____________
Una AI non capisce nulla. Dunque di intelligenza non ce n'รจ. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilitร che assembla testo non perchรจ capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilitร guidati da regolette.
Traduco in modo piรน semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.
Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtร stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.
Leggetelo, รจ ultra comprensibile e spiega tanto sulle "AI" in modo semplice.