Vai al contenuto

Droni militari, la partnership tra l'A.I. di Google e il Pentagono

Google sta collaborando con il Pentagono e la notizia ha mandato su tutte le furie i suoi dipendenti. Perché? La collaborazione sarebbe stata tenuta segreta per diverso tempo, e conosciuta solo ad una stretta cerchia di collaboratori. I lavoratori infatti giudicano la partnership ambigua, si chiedono quale sia lo scopo a livello etico dello sviluppo dell’intelligenza artificiale a scopo militare e se c’è il rischio di uccidere vite umane. Può servire quindi l’A.I. del drone a scopi esclusivamente militari?

Il progetto Maven

Il progetto in questione si chiama Project Maven (anche conosciuto come AWCFT: Algorithmic Warfare Cross-Functional Team) ed è appunto stato creato per implementare i droni militari di prossima generazione. Nella nota ufficiale del Pentagono si parla di “accelerare l’integrazione delle tecnologie per il machine learning e l’elaborazione dei big data da parte del Ministero della Difesa degli Stati Uniti”. Google si starebbe occupando dell’analisi di numerosissimi video effettuati proprio dai droni durante alcune perlustrazioni militari. Si tratta dell’utilizzo di Tensor Flow, la piattaforma OpenSource di Google, che il Pentagono sfrutta, a quanto pare, per riconoscere gli oggetti non classificati e che userebbe l’A.I. per analizzare questa grande quantità di dati proveniente proprio dai filmati.

Leggi anche: Il nuovo browser di Google ti mostra cos’è l’Intelligenza Artificiale

L’uso militare del machine learning

Ciò è quanto riportato ufficialmente dalle parti chiamate in causa, ma il blog Gizmodo ha riportato pochi giorni fa la notizia della rivolta dei dipendenti. Questi ultimi si sarebbero infatti alquanto irritati una volta saputo della partnership e avrebbero manifestato il loro disappunto per il coinvolgimento della compagnia nel Project Maven. A zDnet parla un portavoce di Google, dichiarando che questo specifico progetto non è “per usi offensivi o militari. L’uso militare del machine learning solleva naturalmente delle preoccupazioni valide. Stiamo attivamente discutendo di questo importante argomento internamente con altri, mentre continuiamo a sviluppare politiche a salvaguardia per lo sviluppo e l’uso delle nostre tecnologie di deep learning”.

intelligenza-artificiale-ai
Leggi anche: Pericoli dell’Intelligenza Artificiale: rischi sicurezza informatica

Ma la collaborazione tra Google e le agenzie governative non è certo recente, anzi dura già da moto tempo. La questione resta quella se l’A.I. venga utilizzata solo per compiti e scopi esclusivi di sorveglianza, oppure per dotare i droni di avanzate capacità di attacco autonomo grazie al riconoscimento di obiettivi sensibili. Per adesso, l’obiettivo conosciuto è quello di dotare i droni della capacità di riconoscere oggetti appartenenti ad più di 38 categorie classificate e non di far diventare i droni vere e proprie armi intelligenti.

La collaborazione, seppur tecnica, è bastata ad indignare non solo i dipendenti Google ma anche i tecnici specializzati che auspicano armonia e sviluppo nel mondo digitale, non certo applicato all’ambito militare.

Leggi anche: La Difesa sceglie Ste S.p.A. per le simulazioni virtuali anti-terrorismo nell’area di Brunico
AutoML intelligenza artificiale google