Google actualizó este martes sus principios sobre el uso de la inteligencia artificial (IA) y eliminó su compromiso previo de no desarrollar tecnologías para aplicaciones militares o de vigilancia que contravengan normas internacionales o derechos humanos. La compañía dejó fuera las restricciones que antes limitaban el uso de la IA en armamento o en sistemas que pudieran causar daño generalizado.
La versión anterior de estas normas, que aún se encuentra en el archivo de Internet, establecía límites explícitos sobre el desarrollo de herramientas de IA con posibles aplicaciones bélicas. Sin embargo, la nueva política no menciona estos principios, lo que ha generado inquietud sobre el rumbo que tomará la empresa en sectores sensibles como el de defensa y seguridad.
En un comunicado publicado en su blog, Demis Hassabis, jefe de IA de Google, y James Manyika, vicepresidente senior de tecnología y sociedad, explicaron la postura de la compañía, señalando que las democracias deben liderar el desarrollo de la inteligencia artificial bajo valores como la libertad y el respeto a los derechos humanos. Sin embargo, el cambio en las guías éticas sugiere una mayor flexibilidad en la aplicación de esta tecnología.
Especialistas en ética digital y derechos humanos han manifestado su preocupación por la decisión de Google, advirtiendo que podría abrir la puerta a desarrollos que antes se consideraban inaceptables. A medida que la IA avanza y su impacto en la sociedad crece, el debate sobre su regulación y uso responsable se vuelve cada vez más urgente.