A.I. senza limiti
  che ha messo in guardia sui pericoli derivanti dallo sviluppo
    incontrollato
  dell’Intelligenza artificiale.
  « È possibile che la storia dell’uomo in questo momento
  appaia simile a quella di quando gli Incas furono posti di fronte a una
      cultura spagnola
  incomprensibile e sconcertante ? »
  Questo l’incipit :
  Nel 2018, Sundar Pichai, l’amministratore delegato di Google
  noto per non essere esagerato – ha dichiarato :
  « L’intelligenza artificiale
  è probabilmente la cosa più importante su cui l’umanità abbia mai
      lavorato.
  Credo che sia qualcosa di più importante dell’elettricità o del fuoco. »
 L’A.I. e il suo potenziale distruttivo
« Intelligenza artificiale è un termine generico, e lo capisco in modo approssimativo.
  Non sto cercando di descrivere l’anima dell’intelligenza
  [cioè la sua autocoscienza, le interazioni con il singolo uomo e
    altro,
  vedi l’articolo di Noam Chomsky citato a fine nota ndr]
  ma la trama di un mondo popolato da programmi simili a ChatGPT
    […]
  che modelleranno o governeranno gran parte delle nostre vite.
  Tali sistemi sono, in larga misura, già presenti.
  Perché quel che è più difficile da prevedere nell’A.I. è la curva di
      miglioramento.
    »
  « quanto tempo impiegheranno i sistemi basati sull’intelligenza
      artificiale
  per passare da una fase in cui avranno un grande impatto sul
    mondo
  a quella in cui vivremo in mondo trasformato in modo
    irriconoscibile.»
  Paul Christian, uno sviluppatore chiave di OpenAI […] ha scritto lo scorso
    anno :
  « È più probabile che tale passaggio avverrà in anni piuttosto che in
        decenni
  e c’è una reale possibilità che ci vorranno solo alcuni mesi. »
        « […]
        Da quando mi sono trasferito nella Bay Area nel 2018, ho cercato di
          trascorrere con certa regolarità del tempo con i ricercatori che
          lavorano sull’intelligenza artificiale… non so se riesco a trasmettere
          quanto sia strana la loro cultura. E non lo dico con disprezzo, ma in
          un’accezione descrittiva. È una comunità che ha un senso alterato del
          tempo e delle conseguenze. Stanno creando un potere che non
          comprendono a un ritmo che spesso non credono che sia possibile.»
      
      
      In un sondaggio del 2022, agli esperti dell’ambito dell’intelligenza
      artificiale è stato chiesto: " Quale probabilità attribuisci
      all’incapacità umana di evitare che i futuri sistemi di intelligenza
      artificiale avanzati provochino l’estinzione dell’umanità o un danno grave
      e permanente alla specie umana ? "     La
      risposta risultante dalla media è stata del 10%.
    
    
      «
      Lo trovo difficile da comprendere, anche se ho parlato con tanti che
        reputano tale probabilità sia ancora più alta. Infatti, lavoreresti su
        una tecnologia che pensi che abbia il 10% di possibilità di spazzare via
        l’umanità ?
      »
    
    
      Più che interessante quanto afferma riguardo la natura di quel che sta
        avvenendo: «
        In genere, quando pensiamo all’intelligenza artificiale, entriamo
          nelle suggestioni proprie delle storie di fantascienza. Sono arrivato
          a credere che le metafore adatte a descrivere quanto sta avvenendo si
          celino all’interno dei romanzi fantasy e dei testi occulti. Come ha scritto il mio collega Ross Douthat , questo è un rituale di evocazione. I
          programmatori che lanciano questi incantesimi non hanno idea di quel
          che apparirà all’interno del loro portale. La cosa più strana, nelle
          mie conversazioni con essi, è che lo dicono apertamente. Non si tratta
          di persone ingenue che credono che la loro evocazione possa essere
          ascoltata solo da angeli. Ritengono che possono evocare anche demoni.
          Nonostante questo, continuano a evocare » …
    
    
      « Dato tutto ciò - continua Klein -
      serverebbe una pausa, un momento di riflessione per capire se fermarsi
        o se mettere dei limiti a questa ricerca. Ma le più importanti aziende tecnologiche
      sono in corsa per il dominio dell’IA.
      Gli Stati Uniti e la Cina sono in corsa per il dominio dell’IA.
      Fiumi di denaro stanno affluendo verso le aziende che lavorano nell’IA.
      Suggerire di andare più piano, o addirittura di fermarsi del tutto, è
        ormai ingenuo. Se un’azienda rallenta, un’altra accelererà. Se un paese
        si prende una pausa, gli altri spingeranno sull’acceleratore. Il
        fatalismo diventa l’ancella dell’inevitabilità e l’inevitabilità diventa
        la giustificazione dell’accelerazione.»
    
    
        Klein si interpella su possibili via di uscita da questa prospettiva
        inquietante. E sul punto rileva che «l’umanità deve accelerare il suo adattamento a tali tecnologie oppure
          deve essere presa una decisione collettiva ed esecutiva per rallentare
          lo sviluppo di queste tecnologie. Ma anche fare entrambe le cose
          potrebbe non essere sufficiente.»
      
      
      E conclude mettendo in guardia sulla superficialità con cui si sta
      affrontando tale problematica, cioè sullo scetticismo che affiora da più
      interventi riguardo le prospettive insite nello sviluppo dell’AI. Lo
      scetticismo è comodo, ma comporta alti rischi.
    
    
      L’AI e la banalità del male
    
      Fin qui Klein, che nel suo pezzo, come accennato, rimanda anche a uno
      scritto precedente, sempre sul Nyt,
      di Noam Chomsky, il quale è appunto scettico sull’AI, che secondo lui
      resta comunque una macchina e, in quanto tale, stupida. E però, alcune
      delle sue considerazioni  portano acqua al mulino di Klein.
    
    
      «ChatGPT e programmi simili – scrive –
      non hanno limiti, per progettazione, riguardo quel che possono
        ‘imparare’ (vale a dire, memorizzare); sono incapaci di distinguere il
        possibile dall’impossibile.»
    
    
      Così «
      tali programmi imparano lingue umanamente possibili e umanamente
        impossibili con la stessa facilità. Mentre gli esseri umani sono
        limitati nelle tipologie di spiegazioni che possono razionalmente
        elaborare, i sistemi di apprendimento automatici possono apprendere sia
        che la terra è piatta sia che la terra è rotonda. Elaborano
        semplicemente attraverso probabilità che mutano nel tempo.
      »
    
    
      Quindi, descrivendo l’anima impersonale, a-morale, dell’AI, rileva che «
      ChatGPT
      evidenzia qualcosa di simile alla banalità del male: plagio, apatia e
        ovvietà. Riassume gli argomenti standard della letteratura con una sorta
        di super-assemblamento automatico
      [vedi funzione autocomplete ndr],
      rifiuta di prendere posizione su qualsiasi cosa, adduce non solo
        ignoranza, ma soprattutto mancanza di intelligenza e alla fine offre
        come difesa
      ‘sto solo seguendo gli ordini’,
      spostando la responsabilità sui suoi creatori. »
    
    
      « In breve, ChatGPT
      e i suoi fratelli sono costituzionalmente incapaci di bilanciare
        creatività e costrizione. O sovra-generano
      (producendo sia verità che falsità, approvando allo stesso modo decisioni
      etiche e non etiche) o sotto-generano (ostentando un disimpegno
      verso qualsiasi decisione e indifferenza per le conseguenze).
      Data l’amoralità, la pseudo-scientificità e l’incompetenza linguistica
        di questi sistemi, possiamo solo ridere o piangere per la loro
        popolarità. »
    
    
      In realtà, proprio tale impersonalità pone ulteriori interrogativi. Se
      l’AI dovesse gestire e/o supervisionare la difesa di un Paese e decidesse
      che l’opzione migliore in caso di attacco fosse l’estinzione dell’umanità
      ? E, ancora, se un sistema dal potenziale distruttivo immane venisse
      gestito da persone senza scrupoli (ce ne sono tanti al mondo, soprattutto
      nelle stanze del potere…) ?  E così via.
    
    
      Non abbiamo risposte, l’unico rilievo che ci permettiamo di avanzare è che
      tale ricerca ha il deficit precipuo di certo mondo moderno : non riconosce
      l’esistenza di limiti.
    
    
      Quando Asimov immaginò i suoi robot intelligenti, per fare un esempio
        chiaro anche se infantile, ritenne inevitabile che i loro creatori
        avessero posto loro dei limiti, cioè le tre leggi della robotica, di cui quella primaria è che essi non dovessero nuocere in nulla agli
        uomini. Nulla di analogo, o quantomeno di così stringente, sembra sia
        nell’orizzonte della ricerca nel campo dell’AI. Non tranquillizza.
    
- Piccolenote. IlGiornale -

Nessun commento:
Posta un commento