Las tecnológicas buscan combatir la manipulación electoral a través de la inteligencia artificial

En un movimiento sin precedentes, 20 de las empresas tecnológicas más influyentes del mundo, incluidas gigantes como Google, Microsoft, Meta y OpenAI, han unido fuerzas para combatir la manipulación electoral a través de la inteligencia artificial (IA).

Este acuerdo, denominado ‘AI Elections Accord’, fue anunciado durante la Conferencia de Seguridad de Múnich, Alemania, con el objetivo de luchar contra el uso de ‘deepfakes’ en las elecciones programadas este año en más de 40 países, donde más de 4.000 millones de personas ejercerán su derecho al voto.

El término ‘deepfake’ hace referencia a la manipulación altamente realista de contenido multimedia mediante herramientas de IA, capaces de alterar la apariencia, voz o acciones de personas reales, generando incertidumbre sobre la autenticidad del contenido.

La preocupación central de este acuerdo es prevenir el uso fraudulento de IA que involucre la imagen y voz de candidatos políticos y funcionarios electorales, asegurando así que los votantes puedan elegir libremente y sin manipulaciones quién los gobierna.

Compromisos y desafíos del acuerdo

Microsoft, uno de los firmantes clave, ha destacado que la IA representa una nueva forma de manipulación, potencialmente más peligrosa.

La compañía citó ejemplos recientes de este tipo de fraude, como las llamadas automáticas durante las primarias de New Hampshire en Estados Unidos, que imitaban la voz del presidente Joe Biden, y la circulación de vídeos ‘deepfake’ del primer ministro británico, Rishi Sunak, en el Reino Unido. Estos incidentes subrayan la expansión del problema y los riesgos asociados para los votantes.

El acuerdo establece una serie de compromisos por parte de las empresas tecnológicas para fomentar el uso legítimo de la IA.

Lo anterior incluye el fortalecimiento de las arquitecturas de seguridad para detectar y prevenir el uso malintencionado de estas tecnologías, así como la promoción de la autenticidad del contenido generado, mediante la inclusión de señales que indiquen su procedencia, como marcas de agua y metadatos de la Coalición para la Procedencia y Autenticidad de Contenido (C2PA).

Además, el pacto busca fomentar la transparencia y aumentar la resiliencia de la sociedad frente a las falsificaciones, respetando la libertad de expresión pero protegiendo el derecho de los ciudadanos a estar debidamente informados.

Se alienta a las empresas del sector a colaborar con organizaciones de la sociedad civil, académicos y otros expertos para desarrollar programas públicos y soluciones basadas en IA, incluidas herramientas de código abierto, que contribuyan a proteger el debate público y defender la integridad del proceso democrático.

Fuente: eltiempo.com