― Advertisement ―

spot_img
HomeTecnologiaLa divisione AI top secret di Google esorta l'azienda a cancellare i...

La divisione AI top secret di Google esorta l'azienda a cancellare i contratti militari – Firstpost

DeepMind, un laboratorio di intelligenza artificiale top secret sotto l'egida di Google, è noto per i suoi sviluppi di intelligenza artificiale all'avanguardia. Tuttavia, i dipendenti sostengono che il coinvolgimento dell'azienda con entità militari contraddice i principi dell'intelligenza artificiale di Google.
Per saperne di più

La divisione di intelligenza artificiale di Google, DeepMind, sta affrontando disordini interni dopo che circa 200 dipendenti hanno firmato una lettera chiedendo che l'azienda rescinda i suoi contratti con le organizzazioni militari.

La lettera, redatta il 16 maggio 2023, rappresenta circa il 5% della forza lavoro di DeepMind e riflette la crescente preoccupazione all'interno del laboratorio di intelligenza artificiale riguardo alle implicazioni etiche dell'utilizzo della propria tecnologia per scopi militari.

DeepMind, un laboratorio di intelligenza artificiale top secret che opera sotto l'egida di Google, è noto per i suoi sviluppi di intelligenza artificiale all'avanguardia. Tuttavia, i dipendenti sostengono che il coinvolgimento dell'azienda con entità militari contraddice i principi dell'intelligenza artificiale di Google. La lettera sottolinea che la questione non riguarda la geopolitica di un conflitto specifico, ma piuttosto le implicazioni etiche dell’uso dell’intelligenza artificiale nelle applicazioni militari.

I dipendenti hanno esortato la leadership di DeepMind a negare agli utenti militari l'accesso alla sua tecnologia di intelligenza artificiale e a creare un nuovo organo di governo all'interno dell'azienda per garantire che la tecnologia non venga utilizzata per scopi militari in futuro.

Le preoccupazioni all'interno di DeepMind sono state alimentate dalle notizie secondo cui la tecnologia di intelligenza artificiale sviluppata dai laboratori sta diventando disponibile per le organizzazioni militari attraverso i contratti di cloud computing di Google. Secondo un rapporto pubblicato dalla rivista Time, i contratti di Google con l'esercito americano e l'esercito israeliano danno a queste organizzazioni l'accesso a servizi di cloud computing che possono includere la tecnologia di intelligenza artificiale prodotta da DeepMind.

READ  Blizzard annuncia un nuovo gioco di sopravvivenza mentre si sta ancora liberando da molteplici controversie

Questa rivelazione ha sollevato significative preoccupazioni etiche tra i dipendenti di DeepMind, i quali ritengono che tali contratti violino l’impegno dell’azienda nello sviluppo di un’intelligenza artificiale etica.

Questa non è la prima volta che Google si trova ad affrontare proteste interne sui suoi contratti militari. La partnership dell'azienda con il governo israeliano, nota come Project Nimbus, è stata particolarmente controversa.

Il progetto Nimbus, che prevede la fornitura di servizi cloud al governo israeliano, ha attirato le critiche dei dipendenti preoccupati per il potenziale utilizzo della tecnologia di Google in contesti politici e militari sensibili. All’inizio di quest’anno, secondo quanto riferito, Google ha licenziato dozzine di dipendenti che si erano espressi contro il progetto.

La lettera dei dipendenti di DeepMind sottolinea le preoccupazioni sull'impatto dei contratti militari sulla reputazione di Google come leader nell'intelligenza artificiale etica e responsabile. I dipendenti sostengono che qualsiasi coinvolgimento nella produzione militare e di armi mina la missione dell'azienda ed è in conflitto con i principi dichiarati dell'IA. Indicano il precedente slogan di Google, “Don't Be Evil”, come promemoria dell'impegno dell'azienda verso pratiche etiche.

Nonostante queste preoccupazioni, Google non ha ancora fornito una risposta concreta alle richieste dei dipendenti. Quattro dipendenti, senza nome, hanno dichiarato al TIME di non aver ricevuto alcuna risposta significativa dalla leadership e di sentirsi sempre più frustrati. In risposta al rapporto, Google ha dichiarato di rispettare i principi dell’intelligenza artificiale e che il suo contratto con il governo israeliano non riguarda carichi di lavoro altamente sensibili, classificati o militari legati ad armi o servizi di intelligence. Tuttavia, negli ultimi mesi la partnership con il governo israeliano è stata oggetto di crescente attenzione.

READ  Apple presenta i nuovi chip M3, MacBook e iMac

Google ha acquisito DeepMind nel 2014 con la promessa che la sua tecnologia AI non sarebbe mai stata utilizzata per scopi militari o di sorveglianza.

Per molti anni DeepMind ha operato con una certa indipendenza da Google, consentendole di concentrarsi sullo sviluppo di un’intelligenza artificiale etica. Tuttavia, con l’intensificarsi della corsa globale per il dominio dell’IA, l’autonomia di DeepMind è stata ridotta e i suoi leader hanno faticato a mantenere gli impegni etici originali del laboratorio.

Le tensioni interne a DeepMind evidenziano le sfide più ampie che le aziende tecnologiche devono affrontare nel tentativo di affrontare le implicazioni etiche dello sviluppo dell’intelligenza artificiale. Man mano che la tecnologia dell’intelligenza artificiale diventa sempre più potente e diversificata, il rischio che venga utilizzata in modo improprio per applicazioni militari e di sorveglianza è diventata una delle principali preoccupazioni.

La lettera inviata dai dipendenti di DeepMind ricorda che i principi etici che guidano lo sviluppo dell’intelligenza artificiale devono essere rispettati, anche se la tecnologia diventa sempre più integrata in tutti i settori, compresa la difesa.

Per Google, la sfida che deve affrontare è bilanciare i propri interessi commerciali con il proprio impegno verso pratiche etiche di intelligenza artificiale. Il crescente malcontento tra i dipendenti di DeepMind suggerisce che la leadership dell’azienda potrebbe dover intraprendere azioni più decisive per affrontare queste preoccupazioni e garantire che la sua tecnologia AI venga utilizzata in modo coerente con i principi dichiarati.