Imagen de freepik
Imagen de freepik

Se acercan las elecciones y, como bien se sabe, ahora la tecnología ronda como punto de inicio en cuanto a la búsqueda de información. Es por ello que se ha realizado un acuerdo: veinte compañías tecnológicas, entre ellas 4 grandes e importantes como Microsoft, Meta, Google y Amazon, firmaron un compromiso conjunto para combatir la desinformación, particularmente la generada con Inteligencia Artificial, en las próximas elecciones de 2024, no solo en Estados Unidos, sino en todo el mundo.

El acuerdo es conocido como: “La industria tecnológica contra el uso engañoso de la IA en las elecciones de 2024”, según el comunicado conjunto de las empresas. A este acuerdo se unieron empresas como Adobe, Inteligencia artificial como OpenAI, Anthropic, la app de chats Snapchat, la plataforma de videos TikTok y hasta la popular X (antes Twitter) de Elon Musk.

Este compromiso habla de 8 puntos, entre ellos se incluye la detección y eliminación de audios, videos e imágenes que simulen ser actores relevantes en esas elecciones, así como los contenidos que generen falsos datos para los electores sobre los procesos de votación.

En este 2024 se espera que 40 países del mundo realicen el proceso de elecciones, y las personas que hacen uso de la red son altamente influenciadas por los contenidos que se pueden generar.



La gran parte tiene acceso a estas redes, dado que la gran cantidad de noticias falsas que circulan crecen hasta un 900% año tras año.

El presidente de la Conferencia de Seguridad de Múnich, el embajador Christopher Heusgen, señaló que “Las elecciones son la esencia de la democracia (y este acuerdo) es un paso decisivo para avanzar en la integridad de las elecciones, incrementar la resiliencia social y crear prácticas de confianza tecnológica» Con lo mencionado anteriormente; Las empresas se centrarán en la transparencia de sus políticas de cara a los usuarios, y trabajarán para educar al público sobre cómo evitar ser engañado con imágenes falsas generadas por IA.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí