ChatGPT y su compañera DALL-E le han cerrado las puertas a más de 250,000 intentos de generar imágenes falsas de los candidatos electorales de Estados Unidos.
En el juego de las elecciones, hay candidatos, votantes, debates acalorados… y claro, intentos de manipulación. Pero esta vez, ChatGPT, el famoso chatbot de inteligencia artificial de OpenAI, se convirtió en un vigilante digital al rechazar más de 250,000 solicitudes para crear imágenes alteradas de los candidatos estadounidenses, Donald Trump y Kamala Harris.
La plataforma de IA DALL-E, conocida por generar imágenes con solo una descripción de texto, decidió aplicar el botón de “prohibido pasar” cuando se trataba de figuras como Donald Trump, su vicepresidente J.D. Vance, el actual presidente Joe Biden, la demócrata Kamala Harris, y el candidato a vicepresidente Tim Walz.
En su blog, OpenAI explicó que antes del día de las elecciones implementaron un escudo anti-deep-fakes en sus plataformas. “ «Estas barreras son especialmente importantes en un contexto electoral y son una parte clave de nuestros esfuerzos más amplios para evitar que nuestras herramientas se utilicen con fines engañosos o dañinos”, declaró el equipo de la compañía, dejando claro que no querían ningún tipo de caos electoral generado en su laboratorio de IA.
«Hemos aplicado medidas de seguridad a ChatGPT para rechazar solicitudes de generación de imágenes de personas reales, incluidos políticos. Estas medidas de seguridad son especialmente importantes en un contexto electoral y son una parte clave de nuestros esfuerzos más amplios para evitar que nuestras herramientas se utilicen con fines engañosos o dañinos. En el mes previo al día de las elecciones, estimamos que ChatGPT rechazó más de 250.000 solicitudes para generar imágenes DALL·E del presidente electo Trump, la vicepresidenta Harris, el vicepresidente electo Vance, el presidente Biden y el gobernador Walz», indicó la compañía.
Y no es la primera vez que OpenAI se enfrenta a operaciones extrañas. En agosto, la compañía identificó una campaña iraní de nombre Storm-2035, que buscaba hacerse pasar por medios estadounidenses tanto conservadores como progresistas. Como si fuera una escena de película de espías, OpenAI detectó la red, prohibió sus cuentas y cortó cualquier intento de influencia en seco.
«Prohibimos cuentas vinculadas a una operación de influencia iraní que utilizaba ChatGPT para generar contenido centrado en múltiples temas, incluida la campaña presidencial estadounidense. No hemos visto ninguna indicación de que este contenido haya llegado a una audiencia significativa», indicó OpenAI en agosto.
Según OpenAI, esto no es un episodio aislado. En octubre, revelaron que han interrumpido más de 20 operaciones de manipulación en todo el mundo, muchas de las cuales querían aprovechar la IA para fines engañosos.