Google facilita al Pentágono el uso de su IA para tareas militares pese a preocupaciones internas

Google ha suscrito un nuevo acuerdo con el Departamento de Defensa de los Estados Unidos (DoD) que autoriza el uso de sus modelos de inteligencia artificial (IA) para “cualquier fin gubernamental legítimo”, según informó The Information. Con esta firma, la compañía de Sundar Pichai se une a OpenAI y xAI, que ya permiten que sus tecnologías se empleen en proyectos clasificados, pese a las inquietudes expresadas por organizaciones, expertos y empleados sobre seguridad y privacidad.

“Nos enorgullece formar parte de un amplio consorcio de laboratorios de IA y empresas de computación en la nube que brindan servicios e infraestructura en apoyo de la seguridad nacional”, declaró un portavoz de Google, citado en el reporte. El vocero añadió que el nuevo pacto constituye una revisión de un contrato de hasta 200 millones de dólares firmado en 2025, mediante el cual la empresa presta apoyo a la Oficina del Director de Inteligencia Digital y Artificial del DoD.

Condiciones del acuerdo y restricciones

Según una fuente anónima citada por The Information, el acuerdo exige a Google colaborar con el denominado “Departamento de Guerra” para ajustar la configuración y los filtros de seguridad de sus sistemas de IA de manera que cumplan con los requerimientos del gobierno. El documento incluye una cláusula que establece que “las partes acuerdan que el sistema de IA no está destinado a, ni debe usarse para, vigilancia masiva interna o armas autónomas (incluida la selección de objetivos) sin supervisión y control humanos adecuados”. No obstante, el mismo texto indica que Google no podrá bloquear o vetar decisiones operativas legítimas del gobierno, lo que sugiere que dichas restricciones no serían legalmente vinculantes.

El portavoz de Google reiteró el compromiso de la compañía con el consenso entre los sectores público y privado, afirmando que la IA “no debe emplearse para vigilancia masiva interna ni para armamento autónomo sin supervisión humana”.

El uso de IA en proyectos clasificados ha generado preocupación entre los empleados de Google. Poco antes de que se anunciara la revisión del contrato, The Washington Post informó que más de 600 trabajadores firmaron una carta dirigida a Sundar Pichai solicitando frenar cualquier colaboración con el Pentágono que facilite usos clasificados de la tecnología. Los firmantes advirtieron que dichos sistemas “pueden centralizar el poder y cometer errores”, y exigieron garantizar que la IA se utilice “en beneficio de la humanidad y no con fines inhumanos o altamente dañinos”, como la optimización de armas letales o la vigilancia masiva.

Puntos Clave
  • Información destacada sobre Google facilita al Pentágono el uso de su IA para tareas militares pese a preocupaciones internas
  • Detalles relevantes del tema
  • Puntos importantes a considerar
  • Conclusiones principales

“La única forma de asegurarnos de que Google no se asocie con esos perjuicios es rechazar cualquier carga de trabajo clasificada. De lo contrario, esos usos podrían ocurrir sin nuestro conocimiento ni la capacidad de impedirlos”, declararon los empleados disconformes.

Esta postura refleja una creciente inquietud en la industria tecnológica respecto a los riesgos asociados al uso militar de la IA. Anthropic, por ejemplo, mantiene una disputa con el Pentágono después de ser señalada como un “riesgo para la cadena de suministro” por negarse a flexibilizar sus políticas sobre uso militar.

En un contexto similar, centenares de empleados de Google y OpenAI firmaron previamente una carta abierta instando a sus líderes a adoptar una posición comparable a la de Anthropic frente a las exigencias del Departamento de Defensa. Según la misiva, las autoridades estadounidenses estaban negociando con varias compañías tecnológicas para que aceptaran condiciones que Anthropic había rechazado, intentando dividir a las empresas y presionar a cada una de forma individual.

Semanas después, OpenAI formalizó un acuerdo con el DoD para facilitar el uso de sus sistemas de IA en redes militares clasificadas. La compañía asegura que su contrato difiere del caso de Anthropic por dos razones principales: primero, incluye una cláusula explícita que prohíbe el uso de IA en vigilancia doméstica masiva; segundo, limita el empleo de la tecnología en armas totalmente autónomas al requerir que el modelo se ejecute exclusivamente en infraestructuras de nube, impidiendo su instalación directa en dispositivos físicos.

El acuerdo también establece que el Departamento de Defensa podrá emplear el sistema de IA para todos los fines lícitos, de acuerdo con la legislación vigente, los requisitos operativos y los protocolos de seguridad y supervisión aplicables. Cualquier uso en sistemas autónomos o semiautónomos deberá someterse previamente a rigurosos procesos de verificación, validación y pruebas antes de su despliegue.

Jeremy Lewin, subsecretario de Asistencia Exterior, Asuntos Humanitarios y Libertad Religiosa, comentó en redes sociales que “para evitar dudas, el contrato de OpenAI con el Departamento de Defensa se basa en el principio fundamental de ‘todo uso legal’, en el que el DoD ha insistido legítimamente”. El funcionario explicó que este enfoque traslada la responsabilidad de determinar la ética y seguridad del uso de la IA al marco democrático y a sus leyes, y no al criterio de un director ejecutivo o a políticas internas de una empresa tecnológica. Según la información disponible, el acuerdo revisado de Google parece alinearse con una lógica similar.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir