Inteligencia Artificial

Firmas tecnológicas acuerdan combatir deepfake electorales

Ya son 16 compañías, que se niegan, entre las que destacan Amazon, TikTok y Snapchat; quieren estadísticas más justas para un mejor futuro

Firmas tecnológicas acuerdan combatir deepfake electorales
Firmas tecnológicas acuerdan combatir deepfake electorales Foto: Especial

Este 2024, en más de 40 países, cerca de 4 mil millones de personas ejercerán su derecho al voto, incluido México. La manipulación es una de las máximas preocupaciones no sólo de las autoridades, sino también de empresas tecnológicas que son de renombre a nivel mundial.

El uso de la Inteligencia Artificial para crear imágenes, videos y notas falsas, conocidas como deepfakes, alrededor de las elecciones programadas en varias partes del mundo, provoca la creación de acuerdos que combatan la manipulación electoral este año. Google, Microsoft, Meta, OpenAI y más firmaron el AI Elections Accord, un acuerdo de seguridad para evitar el mal uso de la Inteligencia Artificial.

Este acuerdo, anunciado durante la Conferencia de Seguridad de Múnich, en Alemania, también lo firmaron 16 empresas más, entre las que están Amazon, Nokia, LinkedIn, Tiktok y Snapchat.

Según Microsoft, la IA “está generando una forma de manipulación nueva y peligrosa” y que lo que quieren con este acuerdo es que “los votantes conserven el derecho de elegir quién los gobierna”. Se puede usar en mensajes en los que se maneje la imagen y la voz de los candidatos y candidatas, a fin de enviar un mensaje distinto para provocar menos simpatía y cambio de votos en los procesos electorales.

Entre los casos más sonados está el de New Hampshire, en Estados Unidos. Durante las elecciones primarias, los y las votantes recibieron llamadas telefónicas en las que se usaba la IA para falsificar la voz y las palabras del actual presidente, Joe Biden. Al ser el sector tecnológico el que se ve involucrado en este tipo de manipulación, decidieron crear este acuerdo para reducir esta clase de deepfakes.

El acuerdo al que llegaron supone centrarse en fortalecer las arquitecturas de seguridad para detectar y prevenir el uso malintencionado de sus propias tecnologías, así como la promoción de la autenticidad del contenido generado, a través de señales que indiquen la procedencia.