Subscribe

🚨 Google ya no prohíbe IA en armas 🤖⚠️

4 minutes read
117 Views

Google elimina su compromiso de no usar IA en armas: ¿Qué hay detrás de este cambio?.

Google ha actualizado sus principios éticos sobre inteligencia artificial (IA), eliminando la restricción que impedía el uso de esta tecnología en armas y sistemas de vigilancia con posibles riesgos para los derechos humanos.

La versión anterior de sus normas establecía que la empresa no diseñaría ni desplegaría IA con el fin de causar daño directo a las personas. También se comprometía a evitar el desarrollo de tecnologías de vigilancia que violaran normas internacionales. Sin embargo, estos principios han sido eliminados en la actualización reciente.

La nueva política de Google sobre IA se basa en tres pilares fundamentales:

Innovación audaz
Desarrollo e implementación responsables
Progreso colaborativo

No obstante, ya no se menciona la prohibición del uso de IA para fines bélicos o de vigilancia, lo que ha generado inquietud en expertos y activistas.

Google defiende su decisión con enfoque en seguridad nacional

Demis Hassabis, jefe de inteligencia artificial de Google, y James Manyika, vicepresidente sénior de tecnología y sociedad, explicaron que los cambios reflejan la rápida evolución de la IA y la creciente competencia global en esta área.

Según ellos, las democracias deben liderar el desarrollo de la inteligencia artificial, asegurando que se guíe por valores fundamentales como la libertad, la igualdad y los derechos humanos. También señalaron que las empresas, gobiernos y organizaciones que comparten estos valores deben colaborar para garantizar que la IA proteja a las personas, impulse el crecimiento global y refuerce la seguridad nacional.

El documento actualizado indica que Google aplicará “mecanismos adecuados de supervisión humana” y considerará la retroalimentación de los usuarios para alinear la IA con la responsabilidad social y los principios internacionales. Además, promete implementar “un diseño riguroso, pruebas, monitoreo y salvaguardas” para minimizar cualquier posible daño.

Expertos alertan sobre el riesgo de tecnología letal

A pesar de las garantías de Google, algunos expertos advierten sobre los riesgos de este cambio en sus políticas. Margaret Mitchell, exlíder del equipo de IA ética de la empresa, expresó su preocupación en una entrevista con Bloomberg.

“Eliminar esa restricción es borrar el trabajo de muchas personas en ética de IA y activismo dentro de Google”, declaró Mitchell. “Lo más preocupante es que esto sugiere que la empresa podría desarrollar tecnología capaz de matar personas”.

Google y sus antecedentes con el Departamento de Defensa de EE.UU.

El cambio de política de Google recuerda el caso del Proyecto Maven en 2018, cuando la compañía colaboró con el Departamento de Defensa de Estados Unidos para desarrollar inteligencia artificial destinada a analizar imágenes de drones militares.

Este contrato generó protestas dentro de Google. Miles de empleados firmaron una petición exigiendo la cancelación del acuerdo, argumentando preocupaciones éticas sobre el uso de IA en aplicaciones militares. Como resultado, Google estableció restricciones más estrictas sobre el uso de su tecnología en armamento, normas que ahora han sido modificadas.

Consecuencias y preguntas abiertas

Este cambio en la política de Google genera incertidumbre sobre el futuro del uso de la IA en aplicaciones militares y de vigilancia. Mientras la empresa insiste en que mantendrá un enfoque responsable, críticos temen que la falta de una prohibición explícita abra la puerta a un uso más agresivo de la inteligencia artificial en escenarios bélicos y de seguridad.

📢 ¿Qué opinas de esta decisión de Google? Déjanos tu comentario.

🔹 Para más noticias de tecnología y ética digital, sigue a Mundo ACR.