En una actualización reciente de sus pautas éticas, una empresa tecnológica de renombre ha eliminado su compromiso anterior de no emplear la inteligencia artificial (IA) en aplicaciones vinculadas a armas o vigilancia que puedan violar normas internacionales o derechos humanos. Hasta hace poco, la polÃtica de la compañÃa impidÃa el desarrollo de tecnologÃas que pudieran generar daño en general, incluyendo armamento, alineándose con principios internacionales de derechos humanos.
Este cambio ha provocado variadas reacciones, tanto en el interior como en el exterior de la compañÃa. Algunos trabajadores han manifestado su preocupación en foros internos, cuestionando el rumbo que está tomando la empresa. Un ejemplo de ello es la plataforma interna Memegen, donde se han compartido memes y comentarios crÃticos sobre la decisión, reflejando preocupaciones acerca del uso de la IA en contextos militares y de vigilancia.
La revisión de las normas ocurre en un marco de intensificada competencia mundial por el dominio en IA. Los directivos de la compañÃa sostienen que las democracias deben encabezar el desarrollo de la IA, guiándose por principios esenciales como la libertad, la igualdad y el respeto a los derechos humanos. También destacan la relevancia de la cooperación entre empresas, gobiernos y organizaciones afines a estos valores, para desarrollar una IA que salvaguarde a las personas, fomente el crecimiento global y apoye la seguridad nacional.
Esta decisión representa un cambio importante respecto a la postura asumida en 2018, cuando la compañÃa prohibió el uso de su tecnologÃa de IA en armamento luego de protestas internas por un contrato con el Departamento de Defensa de Estados Unidos para analizar videos de drones. Desde aquel entonces, la tecnologÃa ha progresado significativamente, y la IA se ha transformado en una herramienta omnipresente en numerosas aplicaciones, desde teléfonos móviles hasta internet.
La supresión de la prohibición pone a la empresa en sintonÃa con otras del sector tecnológico que admiten ciertas aplicaciones militares de sus tecnologÃas. Por ejemplo, desarrolladores de IA como Meta y OpenAI han autorizado el uso de sus tecnologÃas en contextos militares. Esta tendencia refleja una revisión de las polÃticas corporativas en reacción a las dinámicas geopolÃticas y los avances tecnológicos actuales.
La eliminación de la prohibición alinea a la empresa con otras en el sector tecnológico que permiten ciertas aplicaciones militares de sus tecnologÃas. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido el uso de sus tecnologÃas en contextos militares. Esta tendencia refleja una reevaluación de las polÃticas corporativas en respuesta a las dinámicas geopolÃticas y los avances tecnológicos actuales.
Sin embargo, esta decisión también ha suscitado preocupaciones entre expertos y defensores de la ética en la IA. Algunos argumentan que el desarrollo de sistemas de armas autónomas y herramientas de vigilancia impulsadas por IA podrÃa tener implicaciones éticas y de derechos humanos significativas. La comunidad cientÃfica ha advertido sobre los riesgos asociados con el desarrollo de armas autónomas y ha abogado por un sistema de control global para mitigar posibles amenazas.


