https://www.lindipendente.online/202...ando-militare/

Gli esseri umani sono passionali, sono portati all’errore e rischiano sempre di farsi prendere dal panico nei momenti meno opportuni, dunque la Difesa statunitense sta valutando di sostituire parzialmente la catena di comando militare a stelle e strisce con intelligenze artificiali prive di quella scomoda empatia che causa profondo disagio alle strategie belliche. Per far sì che il “sogno” si avveri, il Pentagono ha schierato in campo la Defense Advanced Research Projects Agency (DARPA), la quale ha dato il via al programma In the Moment (ITM) attraverso cui selezionare delle proposte papabili che possano essere sviluppate nei prossimi tre o quattro anni. «Le decisioni difficili sono quelle su cui le entità con potere decisionali faticano a trovare punti d’accordo, non esiste una soluzione definitivamente giusta e l’incertezza, le pressioni temporali e i conflitti valoriali impongono delle sfide significative», ha sottolineato il program manager di ITM Matt Turek nello spiegare quali siano gli ostacoli che la macchina dovrà superare. In pratica, si prevede che l’IA sia in grado di sviluppare una priorità di intervento ispirata al triage ospedaliero, così da stabilire ove e come sia più opportuno concentrare gli sforzi militari. I documenti ufficiali raccontano di «deleghe» decisionali, quindi si prevede di concedere al cervello digitale un certo livello di potere esecutivo, anche se l’entità di tale potere è ancora oggi da definire. Le ricerche su In the Moment dovranno concentrarsi in ogni caso sul raffinare una struttura che possa gestire due frangenti diversi: uno andrà a determinare le dinamiche decisioni riguardanti le piccole unità speciali schiacciate dalla minaccia avversaria, l’altro le dinamiche reattive a eventi disastrosi e di portata massiva. Sebbene la Difesa si sia ben vista da citare apertamente l’episodio, quest’ultima categoria fa tornare alla mente la disastrosa fuga dall’Afghanistan e il controverso bombardamento del 29 agosto 2021 che ha colpito degli innocenti che cercavano disperatamente di fare scorte nel bel mezzo di una Kabul preda dell’avvento dei talebani. Allora morirono dieci civili – sette dei quali bambini -, tuttavia nessuno dei militari coinvolti nel misfatto è stato considerato responsabile dell’errore e men che meno è stato punito per il sangue innocente che è stato versato, questo perché ufficialmente la Difesa USA disconosce si sia verificato alcun errore, stabilendo anzi che, tenendo conto del contesto, la catena di comando abbia agito al meglio delle proprie possibilità. Il senso è che fosse più tollerabile il massacro di una decina di normali cittadini che il rischio di trovarsi al centro di un attacco dinamitardo perpetrato per mano di Daesh, il quale avrebbe potuto virtualmente causare ancora più danni. La creatura partorita da ITM potrebbe dunque presto compiere questo genere di decisioni eticamente strazianti, cosa che andrebbe peraltro a imporre un ulteriore margine di ambiguità nel decifrare le responsabilità di un eventuale incidente bellico. Qualora una IA decidesse di lanciare colpi di mortaio su di una scuola, chi si farebbe carico della mattanza? I programmatori che hanno curato il machine learning, i militari che ne hanno supervisionato l’uso o magari il Governo stesso?
Per ora non esiste una posizione ufficiale che vada a chiarire questo importante dubbio e una simile mancanza va ad acuire le preoccupazioni di una fetta considerevole di analisti tech, i quali sono ben consapevoli che le cosiddette intelligenze artificiali siano ancora oggi inaffidabili, rese vulnerabili da errori d’addestramento che generano terribili distorsioni dei processi analitici.