Marco Bertorello ha scritto:
Davide Prina ha scritto:
Il tutto per avere delle "risposte" con alta probabilità di non essere
vere e alcune volte sono talmente verosimili che alterano la realtà
introducendo piccole falsità che poi possono essere prese come assunti
da tutti o da molti.
Ma il problema è di chi assume siano vere quelle risposte! Cosa
c'entra l'AI? o meglio i LLM?
Il loro compito è mica detenere la verità assoluta, solo generare
testo (o immagini nel caso) basandosi su calcoli probablistici e
random seeds.
non sono d'accordo.
Ognuno di noi cerca di conoscere cose non conosciute leggendo
notizie, libri, ... o simili attività.
Attualmente stanno sostituendo attività di persone con l'IA sia
per fornire notizie (vedi il sito di notizie di m$ che ha licenziato
tutti e lo fa gestire completamente dall'IA) che per generare informazioni
(vedi come esempio su amazon il numero di libri pubblicati è esploso,
tanto che amazon ha imposto un limite di libri emittibili per autore
all'anno).
Quindi se una persona normale accede a queste informazioni tende a
ritenerle vere, anche perché non conosce la fonte reale, ma pensa che
chi le ha fornite abbia fornito qualcosa di corretto.
Un esempio che ho letto è proprio relativo ai libri pubblicati su
A volte sembrano umani? Sì, tant'è che come detto alcune passano il test di turing.
di sicuro Turing era una persona molto esperta nel settore all'epoca, ma,
a me sembra, che considerare tale test attualmente come "assoluto" per
determinare se una "macchina" ha un comportamento intelligente mi sembra
riduttivo. Secondo me, se Turing fosse attualmente vivo apporterebbe
modifiche al suo test per adattarlo alla situazione attuale.