Mai come in questo periodo il futuro dell’umanità è a rischio, non a causa di guerre, che pure non sono assenti, ma per effetto di “unintended consequences of intentional action”, di conseguenze non volute di azioni attivamente promosse per finalità positive: permettere all’umanità di vivere meglio. L’emergenza ambientale non è forse prodotta dalla diffusione delle automobili, dalle produzioni industriali, dal riscaldamento e condizionamento di miliardi di case? Le finalità sono ampiamente positive, ma portano con sé alti livelli di inquinamento e di distruzione dell’equilibrio ecologico. Una cosa analoga sta ora succedendo alle macchine: non sono forse state inventate per aiutare i lavoratori a produrre di più e per sostituirli nelle lavorazioni più faticose e degradanti? Ma ora queste rischiano di derubare l’uomo non solo del lavoro, ma anche della sua capacità di controllo di se stesso e della società.
Se da tempo la questione ambientale è stata posta sotto attenzione per cercare di eliminare le unintended consequences senza al contempo privare l’umanità dell’energia necessaria per sostenere uno stile di vita assai migliore di quello che si conduceva in passato, la questione dell’Intelligenza Artificiale (AI) risulta ancora oscura ai più. Proveremo dunque ad illustrare qui le sue dimensioni più preoccupanti.
Partiamo da due premesse. In primo luogo, il percorso che ci ha portato all’AI è iniziato nel 1600, quando vari studiosi, fra cui Pascal, iniziarono a produrre macchine calcolatrici, ed è proseguito con i vari tentativi di creare programmi in grado di risolvere problemi, non solo matematici, servendosi di percorsi razionali simili a quelli umani (reti neuronali) e di una base dati informazionale sempre più potente (Big data). Si tratta dunque non di un percorso improvvisato, ma dotato di radici antiche, che pescano nel desiderio dell’uomo di estrinsecare sempre di più la caratteristica che lo rende unico tra le entità esistenti al mondo: la ragione autocosciente. Ciò rende l’AI non una moda passeggera e reversibile, ma una realtà da studiare con grande attenzione, per la sua irreversibilità.
La seconda premessa riguarda l’innovazione nel settore AI. Poiché il rendimento dell’investimento in questo settore è tanto più elevato quanto più diffuse ne sono le applicazioni, sono le imprese di maggiori dimensioni in grado di pianificare la ricerca nel campo, anche acquistando start up in giro per il mondo. Se guardiamo ai brevetti sull’AI, i 2/3 sono localizzati in Asia, con il Giappone in testa, seguono gli Stati Uniti (17%), mentre la UE arriva solo al 12% del totale. Non è una sorpresa che l’Asia sia capofila in questo campo, potendo contare su governi assai più dirigisti di quelli occidentali, su imprese di colossali dimensioni e su un’etica collettivista che modella una forza lavoro disposta ad essere dominata da meccanismi imposti dall’alto. Negli Stati Uniti, invece, lo strapotere delle imprese dell’AI deriva più dalla loro proiezione internazionale che da un vero sostegno interno e dalla mancanza di reali alternative per sostenere il capitalismo americano in difficoltà. È ovvio, in ogni caso, che l’Unione Europea debba cercare di incentivare di più la ricerca sull’AI.
Arriviamo però a comprendere perché sia solo in Europa che i gravi rischi dell’AI vengano seriamente studiati. I principali fra questi sono i seguenti: l’uso dell’AI per scopi militari, per mettere le persone alla mercé di manipolazioni altrui, per creare dipendenza nei modelli di consumo, di gioco, di svago fino a perdere la libertà; ma anche per creare un’armata di disoccupati da sfruttare con bassi salari. Il rischio peggiore, però, è certamente quello di perdere il controllo dell’AI, che potrebbe arrivare a dominare e distruggere l’uomo.
Alla fine del 2018, la Commissione Europea ha formato un gruppo di esperti di alto livello che ha appena pubblicato (8 aprile 2019) un rapporto di 41 pagine dal titolo Ethics guidelines for trustworthy AI (Linee guida etiche per Intelligenze artificiali affidabili). Secondo questo rapporto, l’AI deve obbedire ai seguenti principi: a) rispetto per l’autonomia umana; b) prevenzione del danno; c) equità e capacità esplicativa. Per realizzare questi principi, il gruppo identifica i seguenti sette requisiti: 1) l’uomo deve restare in comando e in controllo; 2) la struttura tecnica deve essere robusta e sicura; 3) il governo dei dati e della privacy deve essere assicurato; 4) ci deve essere trasparenza; 5) occorre garantire la diversità, la non-discriminazione e l’equità; 6) il benessere ecologico e sociale deve stare in prima linea; 7) la responsabilità (accountability) del sistema deve essere identificabile.
Sono tre le principali conclusioni che si traggono da questo lavoro, che si offre come un primo manifesto di discussione allo scopo di suggerire una legislazione europea.
La prima è che, come è ormai chiaro che un’economia sostenibile non possa prescindere dall’etica, anche la tecnica non si può sottrarre a un’etica che fissi gli obiettivi irrinunciabili da parte di una società che voglia preservare la sua sostenibilità. Non tutto quello che la tecnologia permette di fare va accettato, come non tutto quello che l’economia permette di fare va considerato desiderabile.
La seconda conclusione è che solo l’Europa potrà portare avanti con decisione un’operazione come quella qui delineata di mettere la tecnologia “sotto controllo”, perché ancora forti in Europa sono le convinzioni relative alla centralità della persona umana: libertà, uguaglianza e fraternità. A ben guardare, i principi e i requisiti formulati dal gruppo di esperti sopra richiamato rispondono a questa concezione dell’uomo, una concezione che non è più molto in auge negli Stati Uniti, speriamo per motivi contingenti, ma che non è mai stata presente nei sistemi asiatici, che hanno sempre privilegiato le strutture verticali di comando, tipicamente contrarie alla libertà e all’uguaglianza, e quindi anche alla fraternità.
L’ultima conclusione è di carattere più generale. Se, come ho sopra detto, il progresso dell’AI è inevitabile, allora è urgente fare un’operazione nel campo dell’istruzione. Quando all’epoca della prima rivoluzione industriale le macchine sostituirono lavoro artigianale ci fu la rivolta dei “luddisti”, operai che distruggevano le macchine responsabili del loro spiazzamento lavorativo. Naturalmente, la storia non si fermò. Anche oggi, tuttavia, in questo e in tanti altri campi, la tentazione della “rivolta” senza sbocco può essere forte. Occorre allora diffondere la comprensione dell’AI, in modo che da un lato ciascuno sia in grado di utilizzare i nuovi strumenti a proprio vantaggio e dall’altro si diffonda la consapevolezza dei rischi e l’opinione pubblica sia a favore di leggi che cerchino di evitarli. Il grande scienziato Stephen Hawking ha ammonito, insieme a tanti altri, che l’AI può mettere la parola fine all’umanità.
Come oggi si è diffusa la consapevolezza che occorre imparare l’inglese, che viene insegnato già nelle scuole elementari, ritengo che l’AI debba entrare in tutti i livelli e tipi di scuola, nei suoi principi fondamentali e nelle sue applicazioni più comuni.
(Tratto da www.politicainsieme.com)
Se da tempo la questione ambientale è stata posta sotto attenzione per cercare di eliminare le unintended consequences senza al contempo privare l’umanità dell’energia necessaria per sostenere uno stile di vita assai migliore di quello che si conduceva in passato, la questione dell’Intelligenza Artificiale (AI) risulta ancora oscura ai più. Proveremo dunque ad illustrare qui le sue dimensioni più preoccupanti.
Partiamo da due premesse. In primo luogo, il percorso che ci ha portato all’AI è iniziato nel 1600, quando vari studiosi, fra cui Pascal, iniziarono a produrre macchine calcolatrici, ed è proseguito con i vari tentativi di creare programmi in grado di risolvere problemi, non solo matematici, servendosi di percorsi razionali simili a quelli umani (reti neuronali) e di una base dati informazionale sempre più potente (Big data). Si tratta dunque non di un percorso improvvisato, ma dotato di radici antiche, che pescano nel desiderio dell’uomo di estrinsecare sempre di più la caratteristica che lo rende unico tra le entità esistenti al mondo: la ragione autocosciente. Ciò rende l’AI non una moda passeggera e reversibile, ma una realtà da studiare con grande attenzione, per la sua irreversibilità.
La seconda premessa riguarda l’innovazione nel settore AI. Poiché il rendimento dell’investimento in questo settore è tanto più elevato quanto più diffuse ne sono le applicazioni, sono le imprese di maggiori dimensioni in grado di pianificare la ricerca nel campo, anche acquistando start up in giro per il mondo. Se guardiamo ai brevetti sull’AI, i 2/3 sono localizzati in Asia, con il Giappone in testa, seguono gli Stati Uniti (17%), mentre la UE arriva solo al 12% del totale. Non è una sorpresa che l’Asia sia capofila in questo campo, potendo contare su governi assai più dirigisti di quelli occidentali, su imprese di colossali dimensioni e su un’etica collettivista che modella una forza lavoro disposta ad essere dominata da meccanismi imposti dall’alto. Negli Stati Uniti, invece, lo strapotere delle imprese dell’AI deriva più dalla loro proiezione internazionale che da un vero sostegno interno e dalla mancanza di reali alternative per sostenere il capitalismo americano in difficoltà. È ovvio, in ogni caso, che l’Unione Europea debba cercare di incentivare di più la ricerca sull’AI.
Arriviamo però a comprendere perché sia solo in Europa che i gravi rischi dell’AI vengano seriamente studiati. I principali fra questi sono i seguenti: l’uso dell’AI per scopi militari, per mettere le persone alla mercé di manipolazioni altrui, per creare dipendenza nei modelli di consumo, di gioco, di svago fino a perdere la libertà; ma anche per creare un’armata di disoccupati da sfruttare con bassi salari. Il rischio peggiore, però, è certamente quello di perdere il controllo dell’AI, che potrebbe arrivare a dominare e distruggere l’uomo.
Alla fine del 2018, la Commissione Europea ha formato un gruppo di esperti di alto livello che ha appena pubblicato (8 aprile 2019) un rapporto di 41 pagine dal titolo Ethics guidelines for trustworthy AI (Linee guida etiche per Intelligenze artificiali affidabili). Secondo questo rapporto, l’AI deve obbedire ai seguenti principi: a) rispetto per l’autonomia umana; b) prevenzione del danno; c) equità e capacità esplicativa. Per realizzare questi principi, il gruppo identifica i seguenti sette requisiti: 1) l’uomo deve restare in comando e in controllo; 2) la struttura tecnica deve essere robusta e sicura; 3) il governo dei dati e della privacy deve essere assicurato; 4) ci deve essere trasparenza; 5) occorre garantire la diversità, la non-discriminazione e l’equità; 6) il benessere ecologico e sociale deve stare in prima linea; 7) la responsabilità (accountability) del sistema deve essere identificabile.
Sono tre le principali conclusioni che si traggono da questo lavoro, che si offre come un primo manifesto di discussione allo scopo di suggerire una legislazione europea.
La prima è che, come è ormai chiaro che un’economia sostenibile non possa prescindere dall’etica, anche la tecnica non si può sottrarre a un’etica che fissi gli obiettivi irrinunciabili da parte di una società che voglia preservare la sua sostenibilità. Non tutto quello che la tecnologia permette di fare va accettato, come non tutto quello che l’economia permette di fare va considerato desiderabile.
La seconda conclusione è che solo l’Europa potrà portare avanti con decisione un’operazione come quella qui delineata di mettere la tecnologia “sotto controllo”, perché ancora forti in Europa sono le convinzioni relative alla centralità della persona umana: libertà, uguaglianza e fraternità. A ben guardare, i principi e i requisiti formulati dal gruppo di esperti sopra richiamato rispondono a questa concezione dell’uomo, una concezione che non è più molto in auge negli Stati Uniti, speriamo per motivi contingenti, ma che non è mai stata presente nei sistemi asiatici, che hanno sempre privilegiato le strutture verticali di comando, tipicamente contrarie alla libertà e all’uguaglianza, e quindi anche alla fraternità.
L’ultima conclusione è di carattere più generale. Se, come ho sopra detto, il progresso dell’AI è inevitabile, allora è urgente fare un’operazione nel campo dell’istruzione. Quando all’epoca della prima rivoluzione industriale le macchine sostituirono lavoro artigianale ci fu la rivolta dei “luddisti”, operai che distruggevano le macchine responsabili del loro spiazzamento lavorativo. Naturalmente, la storia non si fermò. Anche oggi, tuttavia, in questo e in tanti altri campi, la tentazione della “rivolta” senza sbocco può essere forte. Occorre allora diffondere la comprensione dell’AI, in modo che da un lato ciascuno sia in grado di utilizzare i nuovi strumenti a proprio vantaggio e dall’altro si diffonda la consapevolezza dei rischi e l’opinione pubblica sia a favore di leggi che cerchino di evitarli. Il grande scienziato Stephen Hawking ha ammonito, insieme a tanti altri, che l’AI può mettere la parola fine all’umanità.
Come oggi si è diffusa la consapevolezza che occorre imparare l’inglese, che viene insegnato già nelle scuole elementari, ritengo che l’AI debba entrare in tutti i livelli e tipi di scuola, nei suoi principi fondamentali e nelle sue applicazioni più comuni.
(Tratto da www.politicainsieme.com)
Il problema di fondo è il seguente: la rivoluzione digitale e l’introduzione delle applicazioni AI (per esempio nel mondo creditizio i sistemi di scoring che hanno una funzione predittiva sul comportamento dell’affidato: esistono già da tempo e migliorano continuamente) non sono che veicolate dal mercato; ed è naturale. La diffusione di quell’utilissimo oggetto rotondo che rotola non dipese dalla volontà superiore di qualche imperatore o di qualche gran sacerdote ma dall’umile esperienza quotidiana dei carovanieri che riuscivano a stipare su un un solo carro trainato da un solo animale la stessa quantità di merci che in precedenza erano costretti a caricare su decine di bestie. Sono i fruitori (il mercato) a decretare il successo di una tecnologia. In che modo gli Stati – singolarmente considerati o federati fra di essi – potranno governare queste scoperte, indirizzarle moderarne o ottimizzarne gli impatti (pensiamo soprattutto al dato occupazionale!) è IL problema dei prossimi decenni. Positivo che ci si sia mossi a livello Europeo. Anche se questa Europa è ahimè debole e spesso cerca di fare del male a se stessa. Da queste tecnologie i cui risvolti applicativi sono leggeri, manovrabili da chiunque ma proprio per questo meno suscettibili di controllo (a differenza delle tecnologie pesanti come il nucleare) possono derivare grandi vantaggi (per esempio in campo ambientale: lo smart work, l’ufficio virtuale per esempio ridurrebbe di molto gli spostamenti e il consumo di CO2; ma si venderebbero meno mezzi di trasporto e si distruggerebbero posti di lavoro…) ma anche svantaggi irrimediabili (ancora la distruzione del lavoro e la riduzione della tutela della privacy su cui giustamente l’Europa ha legiferato di recente).