En una decisión que representa un cambio importante en su política de ética en inteligencia artificial (IA), Google ha retirado de sus guías la prohibición explícita de emplear su tecnología en aplicaciones vinculadas a armamento y vigilancia. Esta alteración, hecha pública el 4 de febrero de 2025, ha desatado un extenso debate sobre las consecuencias éticas y sociales de la IA en entornos militares y de seguridad.
Cambio en las Normativas de IA de Google
En 2018, Google definió una serie de pautas éticas para orientar el desarrollo y uso de su tecnología de IA. Dentro de estos principios, se incluía el compromiso de no crear ni implementar IA para:
En 2018, Google estableció una serie de principios éticos para guiar el desarrollo y la implementación de su tecnología de IA. Entre estos principios se encontraba el compromiso de no diseñar ni desplegar IA para:
Actualización de los Principios Éticos
El 4 de febrero de 2025, Google comunicó una revisión de sus principios de IA, retirando las restricciones específicas mencionadas previamente. En su lugar, la empresa subrayó la importancia de una adecuada supervisión humana, la debida diligencia y la alineación con el derecho internacional y los derechos humanos en el desarrollo y uso de su tecnología. En una entrada del blog oficial de la compañía, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad de Google, destacaron:
«Consideramos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores esenciales como la libertad, la igualdad y el respeto por los derechos humanos. Y pensamos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían colaborar para … .»
Consecuencias y Respuestas
La eliminación de las restricciones específicas ha generado preocupaciones entre empleados y expertos en ética tecnológica. Algunos trabajadores de Google manifestaron su inquietud por la falta de participación del personal en esta decisión, temiendo que la empresa pueda sacrificar sus principios éticos en beneficio de intereses comerciales o políticos. Parul Koul, ingeniera de software en Google y presidenta de la Alphabet Workers Union, expresó:
La eliminación de las prohibiciones específicas ha suscitado preocupaciones entre empleados y expertos en ética tecnológica. Algunos empleados de Google expresaron su inquietud por la falta de participación de los trabajadores en la decisión y temen que la empresa pueda comprometer sus principios éticos en favor de intereses comerciales o políticos. Parul Koul, ingeniera de software en Google y presidenta de la Alphabet Workers Union, comentó:
Antecedentes y Proyecciones Futuras
Contexto y Perspectivas Futuras
Este cambio en la política de Google se produce en un momento de creciente competencia global por el liderazgo en IA y en medio de debates sobre cómo gobernar esta tecnología emergente. La empresa ha enfatizado la necesidad de que las democracias lideren el desarrollo de la IA, … . Sin embargo, la eliminación de prohibiciones específicas plantea preguntas sobre cómo Google equilibrará sus objetivos comerciales con las consideraciones éticas y sociales en el desarrollo y la aplicación de la IA.