En una decisión que representa un cambio importante en su polÃtica de ética en inteligencia artificial (IA), Google ha retirado de sus guÃas la prohibición explÃcita de emplear su tecnologÃa en aplicaciones vinculadas a armamento y vigilancia. Esta alteración, hecha pública el 4 de febrero de 2025, ha desatado un extenso debate sobre las consecuencias éticas y sociales de la IA en entornos militares y de seguridad.
Cambio en las Normativas de IA de Google
En 2018, Google fijó una serie de principios éticos para orientar el desarrollo y la aplicación de su tecnologÃa de IA. Dentro de estos principios se incluÃa el compromiso de evitar diseñar o implementar IA para:
- Aplicaciones que pudieran causar o tengan tendencia a causar daño generalizado.
- Armas u otras tecnologÃas cuyo objetivo principal o uso sea provocar o facilitar directamente daño a personas.
- TecnologÃas que recojan o usen información para vigilancia que infrinja normas aceptadas internacionalmente.
- TecnologÃas cuyo propósito vaya en contra de principios ampliamente reconocidos del derecho internacional y de los derechos humanos.
Estas normas se implementaron tras las crÃticas internas y externas que la empresa enfrentó por su involucramiento en el Proyecto Maven, una iniciativa del Departamento de Defensa de Estados Unidos que utilizaba IA para analizar imágenes de drones. La controversia llevó a Google a no renovar el contrato, estableciendo lÃmites claros sobre el uso de su tecnologÃa en contextos militares y de vigilancia.
Actualización de los Principios Éticos
El 4 de febrero de 2025, Google comunicó una revisión de sus principios de IA, retirando las restricciones especÃficas mencionadas previamente. En su lugar, la empresa subrayó la importancia de una adecuada supervisión humana, la debida diligencia y la alineación con el derecho internacional y los derechos humanos en el desarrollo y uso de su tecnologÃa. En una entrada del blog oficial de la compañÃa, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnologÃa y sociedad de Google, destacaron:
«Consideramos que las democracias deberÃan liderar el desarrollo de la IA, guiadas por valores esenciales como la libertad, la igualdad y el respeto por los derechos humanos. Y pensamos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberÃan colaborar para … .»
Consecuencias y Respuestas
La eliminación de las restricciones especÃficas ha generado preocupaciones entre empleados y expertos en ética tecnológica. Algunos trabajadores de Google manifestaron su inquietud por la falta de participación del personal en esta decisión, temiendo que la empresa pueda sacrificar sus principios éticos en beneficio de intereses comerciales o polÃticos. Parul Koul, ingeniera de software en Google y presidenta de la Alphabet Workers Union, expresó:
«Es sumamente preocupante ver a Google abandonar su compromiso con el uso ético de la tecnologÃa de IA sin incluir a sus empleados ni al público en general, pese al sentimiento persistente entre los trabajadores de que la empresa no deberÃa involucrarse en el negocio de la guerra.»
Además, expertos en ética de la IA han advertido sobre los peligros de desarrollar sistemas de armas autónomas y han abogado por el establecimiento de controles globales para regular su uso. Stuart Russell, cientÃfico informático británico, ha señalado los riesgos asociados con el desarrollo de sistemas de armas autónomas y ha defendido la necesidad de un sistema de control global.
Antecedentes y Perspectivas Futuras
Contexto y Perspectivas Futuras
Este cambio en la polÃtica de Google se produce en un momento de creciente competencia global por el liderazgo en IA y en medio de debates sobre cómo gobernar esta tecnologÃa emergente. La empresa ha enfatizado la necesidad de que las democracias lideren el desarrollo de la IA, … . Sin embargo, la eliminación de prohibiciones especÃficas plantea preguntas sobre cómo Google equilibrará sus objetivos comerciales con las consideraciones éticas y sociales en el desarrollo y la aplicación de la IA.


