Intelligenza Artificiale: il lato oscuro

Intelligenza Artificiale: il lato oscuro verso il futuro

Intelligenza Artificiale: il lato oscuro sembra dirigersi verso il futuro.

Ciò che è stato concepito come un bene per l’umanità, potrebbe andare verso un’altra direzione.

Intelligenza Artificiale: il lato oscuro e l’interazione nel mondo

L’IA sta già riconfigurando e plasmando il mondo in maniera evidente; apportando dei benefici alla qualità della vita. Ma chi può decidere se stiamo andando verso l’idillio o l’abisso?

I dati ormai, guidano il nostro ecosistema digitale globale. E, le tecnologie basate sull’IA, ci mostrano dispositivi di ultima generazione, come ad esempio gli smartphone.

Ma l’intelligenza artificiale oggi è ovunque. Le stesse “città intelligenti”, influenzano le nostre vite e il modo in cui viviamo. Il nostro interagire con questi sistemi coinvolge le persone sempre di più. Quest’aspetto ne denota come, le stesse decisioni che prendiamo si basano proprio su una nostra volontà di interagire con l’IA.

Ad esempio, dalle diagnosi mediche o verdetti giudiziari, tutto si collega a questo fattore.

Il problema fondamentale, per quanto deducibile, sta tutto nell’uso che noi facciamo dell’IA; insomma, se questo scenario è utopico o distopico dipende dalla nostra prospettiva.

Dei potenziali rischi causati da IA, si parla spesso. Web e media, sono in una diatriba scissa tra il bene e il male.

Inoltre, a rafforzare le voci di chi sostiene come l’IA sia potenzialmente dannosa, spunta la tecnologia rivoluzionaria; Quella che produce “robot killer” (si fa per dire) e disoccupazione di massa. Un aspetto preoccupante che coinvolge molto l’opinione comune.

In molti, sono allarmati per la paura scaturita del pensiero che l’estinzione umana è vicina.

Previsioni più ottimistiche sostengono che l’IA aggiungerà 15 trilioni di dollari all’economia mondiale. E alla fine ci condurrà a una sorta di nirvana sociale. Ma entro il 2030.

Dobbiamo certamente considerare l’impatto che tali tecnologie stanno avendo sulle nostre società. Un timore importante è che i sistemi d’intelligenza artificiale rinforzano i giudizi sociali esistenti. Tuttavia anche con effetti dannosi.

Effetti dannosi dell’IA:  la causa è nei sistemi matematici

Tra gli esempi che si possono fare, c’è quello sulle traduzioni automatiche. In pratica, l’attenzione che si è concentrata in conformità a questo fenomeno, spiega come i risultati producono esito sessista. O peggio, le persone di colore le classifica come “gorilla”.

Il problema è che il sistema impiegato nell’IA, usa un modello matematico (come le reti neurali). Questi identifica grandi schemi in serie di dati da addestramento. Se dunque, in qualunque modo i dati sono distorti, inevitabilmente i suoi giudizi o pregiudizi intrinseci saranno assimilati e compresi. Subendo quindi un ulteriore “addestramento”.

Si spiega in questo modo un aspetto che evidenzia il lato meno brillante di IA. La tecnologia autonoma, va quindi verso la potenziale emarginazione di gruppi. Come minoranze etniche, donne e anziani. Ciò comporta, per quanto ovvio, una sorta di squilibrio sociale.

Un altro esempio

Se i sistemi d’intelligenza artificiale sono “istruiti” sui dati di arresto della polizia, qualsiasi pregiudizio (conscio o inconscio) manifestato su un modulo, potrebbe essere replicato.  Questo, basandosi su un sistema IA “di polizia predittiva”. Centrato, quindi, sulla “presunta previsione” di ciò che accadrà. Ma ciò che si prevede non ha sempre correlazione tra i fatti.

Riconoscendo quindi, le gravi implicazioni di ciò, varie organizzazioni, hanno recentemente consigliato di addestrare tutti i complessi strutturali d’intelligenza artificiale su dati imparziali.

Le linee guida etiche pubblicate all’inizio del 2019 dalla Commissione Europea, hanno offerto la seguente raccomandazione.

Quando sono raccolti dati, che possono contenere distorsioni, imprecisioni, errori; ed ancora errori costruiti socialmente,  devono essere assolutamente visionati prima.  In anticipo sulla formazione, a prescindere dal tipo di set di dati.

Intelligenza Artificiale: il lato oscuro come trattare con dati distorti?

Tutto ciò suona abbastanza sensato. Sfortunatamente, a volte è impossibile garantire che determinati set di dati siano imparziali prima dell’allenamento. Un esempio concreto dovrebbe chiarire questo.

Tutti i sistemi di traduzione automatica all’avanguardia (come Google Translate) sono formati su coppie di frasi.

Un sistema inglese-francese utilizza dati che associano frasi inglesi (“lei è alta”) con frasi francesi equivalenti (“elle est grande”).

Potrebbero esserci 500 milioni di tali abbinamenti in un dato; o insieme di dati di allenamento. E quindi un miliardo di frasi separate in totale.

In altre parole: tutti i pregiudizi legati al genere dovrebbero essere rimossi da ogni set di dati di questo tipo. Questo se volessimo impedire al sistema risultante di produrre soluzioni sessiste.

Un Esempio.

Input : le donne hanno iniziato l’incontro. Hanno lavorato in modo efficiente.

Uscita: Les femmes ont commencé la reunion. Il travillé efficacement.

La traduzione in francese è stata generata utilizzando Google Translate l’11 ottobre 2019 ed è errata.

Ilsè il pronome soggetto maschile plurale in francese. E appare qui, nonostante il contesto indichi chiaramente “le donne” come citazione. Questo è un classico esempio del default maschile; preferito dal sistema automatizzato a causa di errori nei dati di allenamento.

Problemi reali: a chi spetta di agire

Purtroppo, c’è chi sostiene come non sia realistico richiedere che tutti i set di dati siano imparziali prima; e che vengano creati i sistemi di intelligenza artificiale.

Tali requisiti di alto livello di solito presuppongono che IA denoti un gruppo omogeneo di modelli matematici. E di seguito approcci algoritmici.

Inoltre, diverse attività d’intelligenza artificiale richiedono tipi di sistemi molto diversi. Minimizzare l’intera portata di questa diversità, nasconde i problemi reali; posti da dati di addestramento, profondamente distorti.

Questo non è visto positivamente, poiché significa che altre soluzioni al problema della distorsione dei dati, sono trascurate.

Il pregiudizio in un sistema di traduzione automatica istruito, può essere sostanzialmente ridotto. Questo se il sistema è adattato dopo che è stato addestrato sul set di dati più grande. E può essere fatto usando un set di dati molto più piccolo.

Sfortunatamente, queste tecniche sono raramente discusse da chi ha il compito di sviluppare linee guida e quadri legislativi per la ricerca sull’IA.

Se i sistemi si rinforzano semplicemente con gli squilibri sociali esistenti, allora ostacolano piuttosto che facilitare un cambiamento sociale positivo.

Gli sviluppatori di IA devono vigilare molto più attentamente. Sia sulle conseguenze sociali sia sui sistemi che costruiscono.

In aggiunta, chi scrive sull’IA deve capire più in dettaglio come i suoi apparati sono effettivamente progettati e costruiti.

Articolo consigliato: Istruzione e Alzheimer sono collegate tra loro?