Embedded Agency >

L’intelligenza artificiale in guerra

Valutazione attuale:  / 0
ScarsoOttimo 
Il conflitto in Ucraina anticipato l'uso dell'intelligenza artificiale in guerra: la Russia, ad esempio, utilizza le cosiddette "munizioni vaganti" (o "droni kamikaze") contro l'Ucraina: un mix tra un drone "normale" e un razzo in grado di colpire un'area specifica, cercando e determinando autonomamente il bersaglio. il primo caso registrato di un sistema autonomo che ha ucciso una persona senza il coinvolgimento di un operatore, tuttavia, si è verificato nella primavera del 2020 in Libia (secondo le Nazioni Unite). Software come Chat GPT l’ha fatta conoscere al grande pubblico ma l’intelligenza artificiale non è una scoperta recente, anzi la utilizziamo quotidianamente da diverso tempo (quando usiamo Google Maps o quando parliamo con gli assistenti vociali, ad esempio). Il termine stesso di "Intelligenza artificiale" è stato utilizzato in relazione ai vari software sin dagli anni Cinquanta del secolo scorso, ma dall'inizio degli anni 2000, l'Ia ha fatto passi da gigante. In 200 anni, gli esperti considerano quattro grandi rivoluzioni: l’introduzione delle macchine meccaniche, poi quelle elettromeccaniche, l’avvento del digitale e l’intelligenza artificiale. Michael Horowitz, professore all’Università della Pennsylvania, paragona l’intelligenza artificiale alla scoperta del motore a combustione interna o dell’elettricità, dividendo le sue applicazioni militari in tre categorie: la prima consiste nel permettere alle macchine di funzionare senza supervisione umana, la seconda nel processare e interpretare ampi volumi di dati, e la terza nel contribuire, o addirittura nel dirigere in prima persona, le attività belliche di comando e controllo. 
Durante il Web Summit sulle tecnologie che si è tenuto a Lisbona, Stephen Hawking ha dichiarato: “Il successo nella creazione di un AI efficace potrebbe essere il più grande evento nella storia della nostra civiltà, o il peggiore, non lo sappiamo; quindi, non possiamo sapere se saremo infinitamente aiutati dall'AI, o distrutti da essa”. Elon Musk, coinvolto inizialmente nel progetto “OpenAI”, un’azienda di intelligenza artificiale fondata nel 2015 a San Francisco, ha definito l’intelligenza artificiale “un rischio per l’umanità”. L’intelligenza artificiale è “pronta a cambiare la natura stessa del campo di battaglia del futuro”, ha dichiarato il dipartimento della difesa degli Stati Uniti nel suo primo documento strategico relativo all’intelligenza artificiale, del febbraio 2019. Nell’estate 2018 il Pentagono ha lanciato il Centro di coordinamento per l’intelligenza artificiale (Jaic) e quest’anno a marzo si è riunita per la prima volta la Commissione per la sicurezza nazionale sull’intelligenza artificiale. Ha avuto luogo all’Aia, in Olanda, il primo vertice globale sull'intelligenza artificiale responsabile nel dominio militare (REAIM), che ha visto la partecipazione di rappresentanti di oltre 60 paesi, inclusa la Cina. Non è stata invitata la Russia, mentre l’Ucraina non ha partecipato. Un primo risultato è stato ottenuto con la firma di un accordo per mettere l'uso responsabile dell'IA in cima all'agenda politica, firmato dalla maggior parte dei partecipanti, confermando l’impegno nello sviluppo e utilizzo dell'IA militare in conformità con "obblighi legali internazionali e in un modo che non comprometta la sicurezza, la stabilità e la responsabilità internazionali”. L'amministratore delegato di Palantir, azienda statunitense specializzata nelle nuove tecnologie e nell'analisi di big data che ha partecipato al REAIM, ha parlato del coinvolgimento della propria azienda nel conflitto in Ucraina: “Siamo responsabili della maggior parte degli attacchi” ha detto Alex Karp di Palantir. La sua impresa sfrutta l'intelligenza artificiale per colpire obiettivi russi. Fra i servizi di Palantir la possibilità di analizzare i movimenti satellitari e i feed dei social media per aiutare a visualizzare la posizione di un nemico. Secondo Vincent Boulanin, direttore dello Stockholm Peace Research Institute (SIPRI), vi è sempre rischio teorico che il robot esegua un'azione che non ci si aspetta, noto come il “problema della scatola nera”.  è necessario insegnare ai militari a non affidarsi troppo all'Ia: non è un "robot che non sbaglia mai", ma un ordinario sistema creato dall'uomo che ha i suoi limiti e svantaggi. Vi è poi un rischio potenziale legato alla diffusione di queste tecnologie al di fuori dell’ambito militare e consegnarlo alla criminalità. 
 
di Daniele Leonardi