[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: AI Intelligenza Artificiale



"Piviul" ha scritto:

> Davide Prina ha scritto:

>> Di sicuro può essere una tecnologia utile, ma chi la usa
>> deve sapere cosa è e cosa funziona. Cosa aspettarsi e cosa
>> non attendersi. Inoltre non può essere usata per sostituire
>> in toto gli umani in qualsiasi attività, come purtroppo
>> stanno facendo in molte aziende... perché facendo così,
>> secondo me, diminuisce la qualità, la sicurezza,
>> l'accuratezza, ...

> Certamente nei prossimi anni ci sarà una rivoluzione nel modo
> del lavoro, questo è sicuro, stiamo a vedere...

nella mia risposta precedente ho omesso una parte importante.

L'intelligenza artificiale continuerà ad "evolvere" fino a
riuscire a superare qualsiasi essere umano? O collasserà?
O una via di mezzo?

Difficile rispondere, ma ci sono spunti interessanti.

1) è possibile far collassare un'IA, dove per collassare si
intende far si che le "risposte" che fornisca arrivino ad
essere senza senso o siano completamente errate.
Questo è ottenibile facilmente fornendo in "pasto" all'IA le
"risposte" di altre IA. C'è uno studio che ha dimostrato questo.
In pratica se al nostro generatore di frasi si danno in "pasto"
frasi generate da altre IA (ricordate che il 20% dei token qui
presenti sono stati presi a caso tra quelli meno probabili) si 
ha che tale IA considererà corrette anche le parti meno probabili
che fanno sembrare "innovativa" la "risposta". In questo modo
si arriva ad avere che nei token con altissima probabilità vanno,
adagio adagio, a posizionarsi anche token che in realtà hanno
probabilità molto bassa... questo alla fine genera frasi
completamente errate e non coerenti.

Notare che l'avvento degli ultimi mesi dell'IA sta facendo
collassare siti dove le persone si confrontavano su varie
questioni (es: stackoverflow), perché sono sempre più persone
che si affidano ad un'IA per avere tali risposte subito, al
posto di dover aspettare minuti/ore per avere aiuto.
Però questi siti sono la principale fonte per istruire l'IA e
quindi si può dire che l'IA sta "uccidendo" sé stessa.

Inoltre diversi siti stanno creando articoli usando l'IA come
"scrittore" e anche questi siti sono usati dall'IA per
"istruirsi".

2) è possibile "modificare" una cosa in modo tale che resti tale
per un umano, ma che cambi totalmente per un'IA.

Un'IA non è in grado di capire se il suo risultato è corretto o
sbagliato, ci deve essere qualcuno che "giudica" o ci deve essere
un'"istruzione" che gli permette di creare questo "giudizio".

L'esempio più semplice da spiegare è con le immagini.
Le immagini sono viste in modo totalmente differente da un'IA e
da un essere umano. Un essere vivente deve poter interpretare il
suo mondo circostante in una frazione di secondo, se qualcosa
non torna o manca, allora il cervello deve "inventare" qualcosa
di plausibile che renda reale quanto visto... su questo concetto
si sono basati ad esempio i trucchi di magia.
Ad esempio un essere umano non è in grado di distinguere i colori
se sono accostati tra loro in modo "inusuale", ci sono diversi
esempi in cui si vede, ad esempio, nero ciò che è bianco e
viceversa.
Un'IA invece non fa nulla di tutto ciò, analizza un'immagine
pixel per pixel e collega tra loro i piexel per determinare se
quella che sta vedendo ha più probabilità di avvicinarsi al
modello di addestramento per un determinato elemento.

Si stanno sviluppando degli algoritmi detti di poisoning che
permettono di modificare un'immagine a livello di pixel o
subpixel in modo che per un essere umano risultino identiche,
ma per un'IA siano due cose completamente differenti.
C'era uno studio su arxiv proprio qualche settimana fa che
presentava uno di questi algoritmi e i suoi risultati.

Altro metodo è quello di creare immagini che sembrano solo
rumore: pixel messi a caso di diversi colori; che però vengono
interpretate dall'IA come qualcosa di reale (es: un
determinato viso, un ostacolo, una strada sgombra, ...).

Usando questi metodi, ed altri simili, è possibile fare in
modo che l'IA dia sempre una "risposta" sbagliata e incoerente

3) è possibile trarre in inganno un'IA in modi talmente banali
che un essere umano non ci cacherebbe mai.
Ad esempio in un'installazione militare era stato installato
un sistema di sorveglianza gestito da un'IA che doveva
individuare intrusi e segnalare immediatamente dove si
trovavano.
Alcuni militari dovevano testare il sistema cercando di non
essere individuati. Hanno avuto successo con tattiche banali,
come ad esempio prendendo uno scatolone abbastanza grande da
nascondere quasi completamente il proprio corpo e poi
muovendosi nelle zone controllate... risultato: non sono
stati individuati, perché quelli erano visti come innocui
scatoloni


In definitiva un'IA non è in grado di analizzare cose "non
previste" e usare un'analisi critica per "vedere" la stessa
cosa sotto prospettive diverse e quindi considerare quello
che sembra un concetto noto come se fosse un concetto nuovo
e non noto.

Questo è quello che è ho capito io sull'argomento.

Termino con alcuni esempi di problematiche con l'IA:

* IKEA ha fatto creare ad un'IA delle ricette per i propri
clienti... alcune ricette sono risultate tossiche

* su Amazon sono iniziati ad apparire una mare di libri
scritti usando IA (Amazon ha limita il numero di libri che
un autore può mettere in vendita in un determinato lasso
di tempo)... ne è apparso uno sui funghi, peccato che
alcuni funghi velenosi venivano indicati come commestibili

* avvocati hanno usato un'IA per trovare cause passate con
verdetti favorevoli alla loro causa e hanno presentato in
giudizio tale resoconto... le cause erano completamente
inesistenti

* è stato visto che se si chiede, ai vari IA attualmente
disponibili, di creare una frase di esattamente 6 parole
che descriva una cosa (es: un libro, o un oggetto)...
nessuna è stata in grado di creare una frase con 6 parole

* l'IA è sempre più usata anche per creare programmi o
parte di essi... risultati che si stanno riscontrando è
che nei sorgenti non ci sono quasi più modifiche del
codice o cancellazione, ma solo aggiunte e il codice che
si ripete sta esplodendo... lato sicurezza è stato
trovato che tale sorgenti hanno mediamente molti più bug
di sicurezza rispetto al codice scritto da un essere
umano.
Ho provato anch'io e da quello che ho visto che, 
chiedendo qualcosa di veramente semplice e con 4-5
requisiti, la prima versione non implementava tutti i
requisiti, cercando di chiedere l'aggiunta di quanto
mancava metteva anche cose che non centravano nulla e
continuando ad insistere si arrivava a qualcosa di
troppo complesso rispetto a quello che si sarebbe potuto
fare per risolvere il problema in modo semplice e sempre
con parti di codice non richiesti.


Infine vi sono diverse presentazioni e corsi sull'IA.
Da quel che ho potuto vedere io:
* c'è una persona che ti dice che la tua azienda è in
  ritardo se non lo sta già usando ovunque... ma
  durante tale presentazione l'uso dell'IA è zero...
  forse perché la sua azienda è in forte ritardo nel
  suo uso?
* vengono fatti vedere risultati strabilianti su un
  vari casi costruiti... in pratica su quello che
  chiamiamo noi un "cartonato" che ti visualizza
  quello che ti vogliono far vedere, in questo modo
  si può far credere qualsiasi cosa

Ciao
Davide

--
La mia privacy non è affar tuo
https://noyb.eu/it
- You do not have my permission to use this email to train an AI -
If you use this to train your AI than you accept to distribute under AGPL
license >= 3.0 all the model trained, all the source you have used to
training your model and all the source of the program that use that model


Reply to: