Internet distruggerà la democrazia? E l'intelligenza artificiale cosa distruggerà? Domande ormai sempre più ricorrenti ma che hanno origini in tempi molto più remoti di quanto si possa immaginare. Perché quella che oggi chiamiamo A.I. ha avuto origine già dalle prime scritture sanscrite. Ed è la nostra stessa evoluzione di specie che ci ha portato a questa nuova era della nostra specie che vogliamo credere non appartenere alla nostra esistenza umana ma che invece non potrebbe essere altro che una sua naturale trasformazione come tante altre avvenute in passato. Mario Coletti, professore all'Università IULM di Milano ma con residenza a Londra e una scia di successi nel campo delle Digital Company come Nextatlas, Capgemini Consulting, Geometry Global, Ogilvy, WPP e Partner, Sparco S.p.A., ha ben chiaro il percorso culturale che ci ha portati ad una radicale impronta evolutiva della nostra civiltà. Da cultura scritta a cultura visiva; così un'altra volta nella storia i libri stanno quasi scomparendo come già avvenuto tra il 1.200 e 1.600 A.C. Quindi dallo scritto al verbale al visivo. Oggi le nuove generazioni comunicano e apprendono prevalentemente da un immenso flusso continuo di immagini e dati multimediali totalmente anacronistici, sulla base matematica di un codice binario invisibile alla cognizione umana (quello che contiene solo numeri 1 e 0 in un ordine apparentemente casuale). Ma questo è un bene o un male? Potrà l'intelligenza artificiale minacciare, o addirittura sostituire, la nostra specie? Come per tutte le innovazioni è un bene quando sarà usata per il fabbisogno umano, inteso come capitale umano. Poi ovviamente c'è chi potrà usarla nella sua declinazione malevola. Ma per poter capire cos'è realmente l'Intelligenza Artificiale dobbiamo prima comprendere cos'è l'intelligenza. E la risposta sembra essere ovvia: è quella capacità arcaica di risolvere un problema. E questo non solo per quanto riguarda noi, ma tutto il mondo animale e biologico, mentre l'intelligenza artificiale è una "scienza derivata" che si occupa di sviluppare altre macchine intelligenti. Quindi, alla base di qualsiasi concetto di intelligenza, ci sono tre capacità cognitive imprescindibili: apprendere, ragionare e migliorare. Con la differenza che mentre l'intelligenza umana è emanata su processi organici deperibili, quella artificiale è supportata da cellule inorganiche indistruttibili. E questo può metterci di fronte a qualche supposizione etica sicuramente scomoda. Ma allora perché intraprendere una strada così rischiosa? Per il semplice motivo che l'uomo non può fare a meno della sua indole esplorativa, e non saremmo quello che siamo oggi se non fosse stato così. È quasi un'inerzia, una forma simile a quella di gravità, quella che ci attrae verso il progresso. Contrariamente saremo rimasti all'età della pietra e non avremmo mai potuto comunicare tra di noi alla velocità di un semplice battito di polpastrello sul vetro di uno smartphone., evolverci guardando nelle profondità del cosmo alla ricerca di una risposta alla domanda: chi siamo e perchè esistiamo. Ma i vantaggi dell'intelligenza artificiale sono altrettanto interessanti come quello di ridurre la fatica umana e allungare la vita. Tra gli svantaggi, oltre quello più remoto di una sostituzione di specie c'è quello più realistico della tutela dei dati personali. E alla domanda se stiamo correndo troppo questa nuova tecnologia tanto nuova non è; dobbiamo andare indietro di un bel po' di decenni per scoprire una verità ben diversa. La storia dell'intelligenza artificiale inizia a fare i suoi primi passi nel nostro mondo grazie al matematico britannico Alan Turing (Londra, 23 giugno 1912 – Wilmslow, 7 giugno 1954), quando alla fine del 1940 costruisce un dispositivo elettromeccanico capacedi decifrare i messaggi di Enigma, a sua volta la macchina di lettura e decifrazione dei codici segreti di Hitler ideata da Arthur Scherbius nel 1918. Successivamente sarà la NASA ad utilizzare una sorta di primitivo modello di intelligenza artificiale nella missione Apollo 11 del 1969. Già a partire dal 1982 Honda inizia a sviluppare robot che camminano autonomamente, saltano e stanno in equilibrio, ma solo con la nascita di Tesla arriveremo alla quasi totale perfezione di movimento. Ma se questo non rendesse sufficientemente l'idea di cosa stiamo parlando, basta dire che oggi un normalissimo smartphone da poche centinaia di Euro possiede 1.300 volte tanto la capacità di calcolo del computer di bordo della missione Apollo. E questo potrebbe essere un altro dei problemi che potrebbero affacciarsi nei prossimi anni. L'equivalente di un'indigestione globale di dati che potrebbe portare i modelli di intelligenza artificiale a commettere degli errori, in un periodo dove la nostra specie basa il proprio modo di ragionare su un numero di parametri sempre minore rendendoci di fatto meno predittivi e quindi potenzialmente meno responsabili. Già a partire da "The Big Data Challenge" si parla della difficoltà degli algoritmi nel gestire l'esponenziale crescita della quantità di dati presenti nel World Wide Web. Ma più di "quantità" l'intelligenza artificiale dovrebbe alimentarsi di "qualità", di dati significativi e soprattutto reali. Mentre in passato i dati venivano gelosamente conservati nei singoli database di istituzioni e aziende, oggi sono infatti riversati quasi interamente nel "cloud" (nuvola di dati), ovvero quei milioni di server collegati tra loro e distribuiti nell'intera superficie planetaria. Attualmente i dati presenti in Internet sono oltre quaranta miliardi di miliardi (un quinto del numero di stelle presenti nella nostra galassia), e l'intelligenza artificiale li può raggiungere tutti con rischio però di generare una sorta di "confusione mentale". E poi c'è pure quella "Black Box", un sistema simile proprio ad una scatola nera di un moderno aereo di linea, il cui funzionamento interno non è visibile o addirittura ignoto anche agli esperti. E questo solo per quanto riguarda l'aspetto tecnico e scientifico, ma non dobbiamo dimenticare anche il campo dell'etica e della sicurezza che questa nuova realtà potrebbe influenzare negativamente. Uno degli organismi più attivi in questo argomento è la "Pontificia Accademia per la Vita" che nel 2020, in netto anticipo rispetto all'esplosione di questo contesto, ne inaugura il "Rome Call for AI Ethics" insieme a Microsoft, IBM, Fao e il Dipartimento italiano dell’innovazione tecnologica, al fine di alzare i paletti oltre i quali i vantaggi potrebbero diventare svantaggi proprio per la stessa nostra specie. Quindi assieme al neologismo di Intelligenza Artificiale nasce anche quello di Algoretica e Antropocentrismo, al fine di prevenire un impatto negativo sui diritti umani. e quella "civiltà dello spirito" che Papa Francesco difende. Tre le aree di impatto del documento: Etica: "Tutti gli esseri umani nascono liberi e uguali in dignità e diritti". Istruzione: "Trasformare il mondo attraverso l'innovazione dell'intelligenza artificiale significa impegnarsi a costruire un futuro per e con le generazioni più giovani". Diritti: "Lo sviluppo dell’intelligenza artificiale al servizio dell’umanità e del pianeta deve riflettersi in normative e principi che proteggano le persone, in particolare quelle deboli e svantaggiate, e gli ambienti naturali". Sono invece sei i principi fondamentali: 1 Trasparenza "I sistemi di intelligenza artificiale devono essere comprensibili a tutti". 2 Inclusione "Questi sistemi non devono discriminare nessuno perché ogni essere umano ha pari dignità". 3 Responsabilità "ci deve sempre essere qualcuno che si assume la responsabilità di ciò che fa una macchina". 4 Imparzialità "I sistemi di intelligenza artificiale non devono seguire o creare pregiudizi". 5 Affidabilità "L'intelligenza artificiale deve essere affidabile". 6 Sicurezza e privacy "Questi sistemi devono essere sicuri e rispettare la privacy degli utenti". Infine, quello che spaventa Padre Paolo Benanti (docente alla Pontificia Università Gregoriana e presso l’Università di Seattle nonchè consigliere di Papa Francesco) non è infatti l'intelligenza artificiale in se, ma la stupidità umana che potrebbe di fatto lasciarsi prendere la mano. Mentre il Mons. Vincenzo Paglia ci invita a riconoscere, e poi ad assumersi, la responsabilità che deriva dalla moltiplicazione delle opzioni rese possibili dalle nuove tecnologie digitali. Ma a che punto è il livello di intelligenza artificiale rispetto a quella umana? Se fino a qualche anno fa Chapt GPT (il chatterbot di OpenAi) rispondeva a "nero" alla nostra domanda "di che colore era il cavallo bianco di Napoleone Bonaparte", oggi risponde semplicemente "bianco". Aveva già il senso dello Humor? Cosa che sarebbe di per sé piuttosto esplicativa sull'inquietante futuro di una possibile autocosapevolezza. O è semplicemente inciampata dritta nel gioco di parole? Restando nella tematica evolutiva di questa tecnologia dobbiamo sicuramente accettare che gli americani sono avanti in questo settore, da sempre pionieristi in qualsiasi campo che includa il potere e la supremazia. Lo hanno fatto con IBM, che ha sviluppato il modo di usare grandi quantità di dati, e con Apple che ne ha concesso l'uso democratico a livello globale (in cambio di dati). Tuttavia i cinesi e i coreani non sono rimasti a guardare, e lo hanno fatto fin troppo bene migliorando nel tempo le tecnologie occidentali trasformando Samsung ,Huawei, Honda e Byd, per citarne alcune, leader indiscussi nel loro mercato di appartenenza e nella corsa verso l'intelligenza artificiale. E questo si riflette inevitabilmente non solo in ambito finanziario, ma anche nel contesto ben più fragile degli equilibri geopolitici internazionali generando un'ulteriore dose di tensione e di competitività tra occidente e oriente, interconettendosi di fatto anche con la spaccatura dell'asse quasi verticale che comprende i recenti conflitti tra Russia e Ucraina e le inarrestabili ostilità tra Iran e Israele. In un contesto geopolitico così critico e instabile, il ruolo dell'intelligenza artificiale si inserisce e si sviluppa soprattutto nel contesto militare, come del resto è sempre accaduto, e questo potrebbe portare a una rivalutazione del concetto di deterrenza (ad esempio nucleare) e alla nascita di una non meno insidiosa "era della deterrenza informatica". © RIPRODUZIONE RISERVATA VERSIONE EDITORIALE
0 Commenti
Lascia una Risposta. |
Foto in alto: Bartosz Kramek fotografa Lyudmila Kozlovska ad un convegno. (Stefano Mitrione Media credits)
AutoreStefano Mitrione Media 291 articoli disponibiliArchivi recenti
Gennaio 2025
Categorie |