A.I. senza limiti
che ha messo in guardia sui pericoli derivanti dallo sviluppo
incontrollato
dell’Intelligenza artificiale.
« È possibile che la storia dell’uomo in questo momento
appaia simile a quella di quando gli Incas furono posti di fronte a una
cultura spagnola
incomprensibile e sconcertante ? »
Questo l’incipit :
Nel 2018, Sundar Pichai, l’amministratore delegato di Google
noto per non essere esagerato – ha dichiarato :
« L’intelligenza artificiale
è probabilmente la cosa più importante su cui l’umanità abbia mai
lavorato.
Credo che sia qualcosa di più importante dell’elettricità o del fuoco. »
L’A.I. e il suo potenziale distruttivo
« Intelligenza artificiale è un termine generico, e lo capisco in modo approssimativo.
Non sto cercando di descrivere l’anima dell’intelligenza
[cioè la sua autocoscienza, le interazioni con il singolo uomo e
altro,
vedi l’articolo di Noam Chomsky citato a fine nota ndr]
ma la trama di un mondo popolato da programmi simili a ChatGPT
[…]
che modelleranno o governeranno gran parte delle nostre vite.
Tali sistemi sono, in larga misura, già presenti.
Perché quel che è più difficile da prevedere nell’A.I. è la curva di
miglioramento.
»
« quanto tempo impiegheranno i sistemi basati sull’intelligenza
artificiale
per passare da una fase in cui avranno un grande impatto sul
mondo
a quella in cui vivremo in mondo trasformato in modo
irriconoscibile.»
Paul Christian, uno sviluppatore chiave di OpenAI […] ha scritto lo scorso
anno :
« È più probabile che tale passaggio avverrà in anni piuttosto che in
decenni
e c’è una reale possibilità che ci vorranno solo alcuni mesi. »
« […]
Da quando mi sono trasferito nella Bay Area nel 2018, ho cercato di
trascorrere con certa regolarità del tempo con i ricercatori che
lavorano sull’intelligenza artificiale… non so se riesco a trasmettere
quanto sia strana la loro cultura. E non lo dico con disprezzo, ma in
un’accezione descrittiva. È una comunità che ha un senso alterato del
tempo e delle conseguenze. Stanno creando un potere che non
comprendono a un ritmo che spesso non credono che sia possibile.»
In un sondaggio del 2022, agli esperti dell’ambito dell’intelligenza
artificiale è stato chiesto: " Quale probabilità attribuisci
all’incapacità umana di evitare che i futuri sistemi di intelligenza
artificiale avanzati provochino l’estinzione dell’umanità o un danno grave
e permanente alla specie umana ? " La
risposta risultante dalla media è stata del 10%.
«
Lo trovo difficile da comprendere, anche se ho parlato con tanti che
reputano tale probabilità sia ancora più alta. Infatti, lavoreresti su
una tecnologia che pensi che abbia il 10% di possibilità di spazzare via
l’umanità ?
»
Più che interessante quanto afferma riguardo la natura di quel che sta
avvenendo: «
In genere, quando pensiamo all’intelligenza artificiale, entriamo
nelle suggestioni proprie delle storie di fantascienza. Sono arrivato
a credere che le metafore adatte a descrivere quanto sta avvenendo si
celino all’interno dei romanzi fantasy e dei testi occulti. Come ha scritto il mio collega Ross Douthat , questo è un rituale di evocazione. I
programmatori che lanciano questi incantesimi non hanno idea di quel
che apparirà all’interno del loro portale. La cosa più strana, nelle
mie conversazioni con essi, è che lo dicono apertamente. Non si tratta
di persone ingenue che credono che la loro evocazione possa essere
ascoltata solo da angeli. Ritengono che possono evocare anche demoni.
Nonostante questo, continuano a evocare » …
« Dato tutto ciò - continua Klein -
serverebbe una pausa, un momento di riflessione per capire se fermarsi
o se mettere dei limiti a questa ricerca. Ma le più importanti aziende tecnologiche
sono in corsa per il dominio dell’IA.
Gli Stati Uniti e la Cina sono in corsa per il dominio dell’IA.
Fiumi di denaro stanno affluendo verso le aziende che lavorano nell’IA.
Suggerire di andare più piano, o addirittura di fermarsi del tutto, è
ormai ingenuo. Se un’azienda rallenta, un’altra accelererà. Se un paese
si prende una pausa, gli altri spingeranno sull’acceleratore. Il
fatalismo diventa l’ancella dell’inevitabilità e l’inevitabilità diventa
la giustificazione dell’accelerazione.»
Klein si interpella su possibili via di uscita da questa prospettiva
inquietante. E sul punto rileva che «l’umanità deve accelerare il suo adattamento a tali tecnologie oppure
deve essere presa una decisione collettiva ed esecutiva per rallentare
lo sviluppo di queste tecnologie. Ma anche fare entrambe le cose
potrebbe non essere sufficiente.»
E conclude mettendo in guardia sulla superficialità con cui si sta
affrontando tale problematica, cioè sullo scetticismo che affiora da più
interventi riguardo le prospettive insite nello sviluppo dell’AI. Lo
scetticismo è comodo, ma comporta alti rischi.
L’AI e la banalità del male
Fin qui Klein, che nel suo pezzo, come accennato, rimanda anche a uno
scritto precedente, sempre sul Nyt,
di Noam Chomsky, il quale è appunto scettico sull’AI, che secondo lui
resta comunque una macchina e, in quanto tale, stupida. E però, alcune
delle sue considerazioni portano acqua al mulino di Klein.
«ChatGPT e programmi simili – scrive –
non hanno limiti, per progettazione, riguardo quel che possono
‘imparare’ (vale a dire, memorizzare); sono incapaci di distinguere il
possibile dall’impossibile.»
Così «
tali programmi imparano lingue umanamente possibili e umanamente
impossibili con la stessa facilità. Mentre gli esseri umani sono
limitati nelle tipologie di spiegazioni che possono razionalmente
elaborare, i sistemi di apprendimento automatici possono apprendere sia
che la terra è piatta sia che la terra è rotonda. Elaborano
semplicemente attraverso probabilità che mutano nel tempo.
»
Quindi, descrivendo l’anima impersonale, a-morale, dell’AI, rileva che «
ChatGPT
evidenzia qualcosa di simile alla banalità del male: plagio, apatia e
ovvietà. Riassume gli argomenti standard della letteratura con una sorta
di super-assemblamento automatico
[vedi funzione autocomplete ndr],
rifiuta di prendere posizione su qualsiasi cosa, adduce non solo
ignoranza, ma soprattutto mancanza di intelligenza e alla fine offre
come difesa
‘sto solo seguendo gli ordini’,
spostando la responsabilità sui suoi creatori. »
« In breve, ChatGPT
e i suoi fratelli sono costituzionalmente incapaci di bilanciare
creatività e costrizione. O sovra-generano
(producendo sia verità che falsità, approvando allo stesso modo decisioni
etiche e non etiche) o sotto-generano (ostentando un disimpegno
verso qualsiasi decisione e indifferenza per le conseguenze).
Data l’amoralità, la pseudo-scientificità e l’incompetenza linguistica
di questi sistemi, possiamo solo ridere o piangere per la loro
popolarità. »
In realtà, proprio tale impersonalità pone ulteriori interrogativi. Se
l’AI dovesse gestire e/o supervisionare la difesa di un Paese e decidesse
che l’opzione migliore in caso di attacco fosse l’estinzione dell’umanità
? E, ancora, se un sistema dal potenziale distruttivo immane venisse
gestito da persone senza scrupoli (ce ne sono tanti al mondo, soprattutto
nelle stanze del potere…) ? E così via.
Non abbiamo risposte, l’unico rilievo che ci permettiamo di avanzare è che
tale ricerca ha il deficit precipuo di certo mondo moderno : non riconosce
l’esistenza di limiti.
Quando Asimov immaginò i suoi robot intelligenti, per fare un esempio
chiaro anche se infantile, ritenne inevitabile che i loro creatori
avessero posto loro dei limiti, cioè le tre leggi della robotica, di cui quella primaria è che essi non dovessero nuocere in nulla agli
uomini. Nulla di analogo, o quantomeno di così stringente, sembra sia
nell’orizzonte della ricerca nel campo dell’AI. Non tranquillizza.
- Piccolenote. IlGiornale -
Nessun commento:
Posta un commento