Quanto "comprende", e come "ragiona", (chat)GPT3?
gio 13 aprile 2023 by Massimo Massontempo di lettura stimato: 7 minuti
Ci siamo, anche qui... ho ritenuto sia giunto il momento di dedicare qualche parola al mondo dell'"AI" (Artificial Intelligence, o Intelligenza Artificiale ), ovviamente dal mio dominio di conoscenze e dal mio punto di vista.
Per iniziare la "serie" AI la migliore occasione attualmente e' discutere di un nuovo protagonista, ovvero (chat)GPT3.
Se ne parla molto, ovunque, e giustamente, perche' i risultati che produce sono davvero "strabilianti". I miei commenti si riferiscono alla versione 3, ovviamente rispetto a versioni successive... sara' da vedere e valutare.
Metto il (chat) tra parentesi perche' chatGPT e' di fatto una cosa un po' diversa da GPT3, una sorta di sua "specializzazione" addestrata a gestire la conversazione, mentre GPT3 nasce come un generatore di testo. Ma ai fini di questo articolo, non cambia la sostanza.
I risultati di questa intelligenza artificiale stupiscono, si puo' sostituire a diversi compiti "mentali" umani con un discreto grado di successo. E' quindi giunto il momento in cui il "computer sostutuisce l'uomo"?
Di fatto, in parte almeno, si. La produzione di testi di buon livello puo' ora essere automatizzata. Mi piacerebbe scrivere... la produzione di "bozze di testi", forse piu' adatto.
Andando forse controcorrente, mi sono chiesto piuttosto quanto "comprenda" GPT3 di quello che chiediamo, e come "ragioni" per rispondere con le stupende risposte che fornisce.
risposta breve: non comprnde e non ragiona
perche' scrivo (chat)GPT3
perche' il numero e' importante
come "funziona" GPT3 e' descritto nell'acronimo Generative Pretrained Transformer
predice sequenze di parole che ragionevolmente suonano bene insieme
non ha un decoder dello scritto, continua la frase che scrivete. quindi non comprende nulla, non ci prova nemmeno. semplicemente continua la frase, nel modo che gli sembra piu' "ragionevole" sulla base delle sue intrinseche conoscenze (pretrained)
E come "ragiona" per decidere il prosieguo di una sequenza di parole? Non "ragiona", almeno non nel senso che noi abitualmente diamo a tale termine. Non ha concetti da correlare e spiegare, deduzioni logiche o altro. Semplicemente predice le prossime parole, e lo fa in modo davvero convincente.
Ma non c'è alcuna garanzia che quello che scrive sia vero o veritiero. Ma suona bene. Non c'è garanzia che il ragionamento che (ci sembra) stia facendo abbia un senso logico non c'è nemmeno garanzia che le affermazioni che fa siano "verificate" da qualche parte in qualche db
Conclusione 1 La preoccupazione che avevo, che una IA tipo GPT3 fosse in grado di sostituirsi ai ragionamenti di un umano, e conseguentemente "coprire" aree di consulenza, magari quelle più banali, attualmente non mi preoccupa, o meglio non è GPT3 a preoccuparmi in questo senso.
Conclusione 2 chatGPT3 è strumento estremamente potente, ma come tutti gli strumenti potenti è bene comprenderlo, e comprenderne i limiti, per poterlo utilizzare al meglio, nel modo giusto. non mi fiderei mai a far scrivere qualcosa a GPT3 e prenderlo per buono...
La seconda conclusione quindi e' che siamo NOI a dover essere pronti a capire e gestire nel modo giusto GPT3, non viceversa...