Google’s updated, public AI ethics policy removes its promise that it won’t use the technology to pursue applications for weapons and surveillance.
In a previous version of the principles seen by CNN on the internet archive Wayback Machine, the company included applications it won’t pursue. One such category was weapons or other technology intended to injure people. Another was technology used to surveil beyond international norms.
That language is gone on the updated principles page.
Google first published its AI Principles in 2018, years before the technology became almost ubiquitous. Google’s update is a sharp reversal in values from those original published principles.
Question: Are you worried about AI being used for bad things?
La politica etica di Google sull’IA, aggiornata e resa pubblica, elimina la promessa di non utilizzare la tecnologia per applicazioni di armi e sorveglianza.
In una versione precedente dei principi, visionata dalla CNN sull’archivio internet Wayback Machine, l’azienda includeva le applicazioni che non avrebbe perseguito. Una di queste categorie era costituita da armi o altre tecnologie destinate a ferire le persone. Un’altra era la tecnologia usata per sorvegliare al di là delle norme internazionali.
Nella pagina aggiornata dei principi questo linguaggio è scomparso.
Google ha pubblicato i suoi Principi sull’IA per la prima volta nel 2018, anni prima che la tecnologia diventasse quasi onnipresente. L’aggiornamento di Google rappresenta una brusca inversione di valori rispetto ai principi originali pubblicati.
Domanda: Siete preoccupati che l’IA venga usata per cose cattive?
