La verità non esiste, affermazione che starebbe benissimo fra i proclami distruttivi del cattivo, in certi film di un tempo, in cui Bene e Male si combattevano a suon di principi lampanti e dichiarazioni inequivocabili, e si capiva subito per chi fare il tifo, come spettatori, e, tra l’altro, il Bene trionfava sempre. Oggi non è più così, e tutto quello che accade nei vari ambiti della gestione biopolitica e geopolitica continua a darne una tragica, diciamo pure ostentata, conferma. È di questi giorni la notizia che DARPA, il reparto di ricerca e sviluppo del Pentagono, sta portando avanti un progetto noto come In the Moment, «che mira a sviluppare una tecnologia che sia in grado di prendere decisioni rapide in situazioni che potrebbero causare a un qualsiasi essere umano momenti di esitazione» (L’Indipendente). La realizzazione è stimata in tre, quattro anni. L’idea è che un’Intelligenza artificiale possa essere molto più adeguata nel prendere decisioni in momenti in cui ground truth doesn’t exist: come si fa, infatti, a esercitare un arbitrio consapevole se non esiste una verità di riferimento, se non ci sono dei principi attendibili, delle circostanze determinanti, detta in breve, se il Bene e il Male non esistono più, soprattutto in ambito bellico? Ci si affida a una IA, almeno questa è l’idea del Pentagono, che da tempo lavora sulle neurotecnologie in grado di potenziare il flusso di informazioni in ingresso e uscita dal cervello umano, come nel più datato programma N3.

LO SVILUPPO DEL PROGETTO ITM

In pratica, secondo i ricercatori le operazioni militari (combattimento, interventi medico-sanitari, soccorso in caso di disastri) richiedono un processo decisionale complesso e rapido in situazioni dinamiche in cui spesso non esiste un’unica risposta giusta, soprattutto se a decidere è un essere umano, per sua natura suggestionato e condizionato dai suoi limiti umani. Due comandanti esperti che affrontano lo stesso scenario sul campo di battaglia, per esempio, possono prendere decisioni tattiche diverse quando si trovano di fronte a opzioni difficili. I sistemi di IA, che abbiano esperienza di affiancamento degli esseri umani, possono ovviare a questa  variabilità decisionale, sostituendo gli uomini e aggirando i loro limiti. Ciononostante, perché la cosa funzioni, ed è ben specificato nel progetto, è vitale costruire un’adeguata fiducia umana nelle capacità dell’IA: quei comandanti devono fidarsi ed essere sicuri che la IA sia in grado di prendere le decisioni adeguate. Catturare le caratteristiche chiave alla base del processo decisionale umano in ambienti dinamici e rappresentare quei dati nei decisori algoritmici è un elemento essenziale per garantire che gli algoritmi facciano scelte affidabili in circostanze difficili. Si tratta solo di questo, in pratica: algoritmi, un qualcosa che ormai siamo abituati a sentir nominare; noi flussi di dati in costante contatto con le IA dei nostri smartphone.

SCELTE DISUMANIZZATE O DISUMANE?

Ebbene, come detto, DARPA ha annunciato il programma In the Moment (ITM), che cerca di quantificare l’allineamento degli algoritmi con i decisori umani, il tutto inserito in contesti in cui, sempre secondo i ricercatori, non esista una risposta data, in cui manchi, quindi, un substrato di valori di riferimento, una verità cui fare ricorso per dare un valore definitivo alle scelte. Lo scopo dell’ITM è quello di valutare e costruire «decisori algoritmici di fiducia» per le operazioni più critiche del Dipartimento della Difesa: «ITM è diverso dai tipici approcci di sviluppo dell’IA che richiedono l’accordo umano sui risultati giusti», ha detto Matt Turek, responsabile del programma, «La mancanza di una risposta giusta in scenari difficili ci impedisce di usare tecniche convenzionali di valutazione dell’IA, che implicitamente richiedono che l’essere umano sia d’accordo, che possa condividere la scelta». In pratica ITM è progettato per prendere decisioni non necessariamente condivise – o condivisibili – con gli esseri umani coinvolti, laddove la verità oggettiva non sia disponibile, e l’incertezza, la pressione del tempo e i valori contrastanti impediscano scelte immediate ed efficaci, ovviamente dal punto di vista bellico, almeno in questo caso, ma è facile ampliare lo spettro ad altri ambiti della società, e perfino della quotidianità. Sembra di essere tornati ai tempi di Burrhus Frederic Skinner (1904-1990), comportamentista che proponeva di eliminare i docenti umani perché incapaci, a suo dire, di prendere decisioni imparziali rispetto agli allievi.

DEETICIZZAZIONE E COLLETTIVISMO

Si tratta dell’ennesima operazione al microscopio in cui gli esseri umani vengono osservati in situazioni al limite, per poi essere indirizzati o sostituiti nelle loro decisioni? Certamente, un progetto come questo ha delle implicazioni etiche spaventose, del resto l’etica non è nemmeno prevista nel ragionamento degli sviluppatori. È facile immaginare che, laddove un comandante dovesse fermarsi davanti a un essere umano, una IA potrebbe calcolarne il valore in termini di produttività, riabilitazione, riassegnazione in campo, spese mediche o, anche, colore della pelle e dati genomici per decidere se valga o meno la pena risparmiarlo, sacrificarlo o altro; od anche se una IA dovesse decidere che valga la pena sacrificare una cittadina di 10.000 abitanti per vincere una guerra e decidesse di premere il bottone rosso, chi potrebbe contestarne l’assolutismo a-morale e deeticizzato? E ancora, le schiere di soldati-robot (i famosi gregari robotici), che hanno frequentato i nostri incubi fantascientifici da Terminator in poi, diventerebbero talmente plausibili che la fantasia si deprimerebbe, avendo ormai assolto al suo compito di esorcizzare paure, diventando inconfutabile predizione.

BENEFICI INGIUSTIFICABILI

Sulle implicazioni dell’uso di IA e delle cosiddette «armi autonome» si discute sempre molto poco. In un recente articolo, pubblicato su The Atlantic, il giornalista di inchiesta Kai-Fu Lee si interroga proprio sui pericoli dell’utilizzo di questo tipo di tecnologia nei contesti bellici: «le armi autonome possono essere utili, apportare dei benefici, possono salvare la vita dei soldati, aiutarli a colpire solo i combattenti ed evitare di uccidere inavvertitamente forze amiche, bambini e civili (in modo simile a come un veicolo può frenare per il conducente quando una collisione è imminente). Le armi autonome possono anche essere usate in modo difensivo contro assassini e criminali, ma i lati negativi e le responsabilità superano di gran lunga questi benefici. La più forte di queste responsabilità è morale – quasi tutti i sistemi etici e religiosi vedono l’uccisione di una vita umana come un atto controverso che richiede una forte giustificazione e controllo. Il segretario generale delle Nazioni Unite António Guterres ha dichiarato: “La prospettiva di macchine con la discrezione e il potere di togliere la vita umana è moralmente ripugnante”».

LA VIOLAZIONE DELL’INVIOLABILE

Guterres si rende forse conto che a quel punto la violazione di ogni inviolabile, per dirla alla Fusaro, non avrebbe più argini. Ma forse è già così, se siamo qui a parlarne. Senza radici etiche qualunque decisione diventa giustificabile, soprattutto quelle emesse in nome di quel presunto bene collettivo che abbiamo già visto in campo come motore per imporre decisioni mediche più che discutibili, se non antiscientifiche, nel caso dei sieri genici utilizzati come vaccini anti-Covid.
Hegel (1770-1831) scrisse che l’etico ha un contenuto stabile, ed è per questo che tutto ciò che richiama etica e verità va dissolto, o almeno diluito, in vista di una disumanizzazione delle scelte e, in definitiva, della Storia.

Fonti di riferimento:

Developing Algorithms that Make Decisions Aligned with Human Experts

The Third Revolution in Warfare

 

APPROFONDIMENTO

Da Il Pentagono si prepara a introdurre le macchine nella catena di comando militare, pubblicato su L’Indipendente: «Gli esseri umani sono passionali, sono portati all’errore e rischiano sempre di farsi prendere dal panico nei momenti meno opportuni, dunque la Difesa statunitense sta valutando di sostituire parzialmente la catena di comando militare a stelle e strisce con intelligenze artificiali prive di quella scomoda empatia che causa profondo disagio alle strategie belliche. Per far sì che il “sogno” si avveri, il Pentagono ha schierato in campo la Defense Advanced Research Projects Agency (DARPA), la quale ha dato il via al programma In the Moment (ITM) attraverso cui selezionare delle proposte papabili che possano essere sviluppate nei prossimi tre o quattro anni».

Condividi:
Facebooktwitterredditpinterestlinkedinmail

Leave A Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *