WASHINGTON
A primera vista, las imágenes que circulan en línea que muestran al expresidente Donald Trump rodeado de grupos de negros sonriendo y riendo no parecen nada fuera de lo común, pero una mirada más cercana es reveladora.
La iluminación extraña y los detalles demasiado perfectos proporcionan pistas del hecho de que todos fueron generados mediante inteligencia artificial. Las fotos, que no han sido vinculadas con la campaña de Trump, surgieron mientras Trump busca ganarse a los votantes negros que, según las encuestas, siguen siendo leales al presidente Joe Biden.
Las imágenes fabricadas, destacadas en una investigación reciente de la BBC, proporcionan evidencia adicional para respaldar las advertencias de que el uso de imágenes generadas por IA solo aumentará a medida que se acerquen las elecciones generales de noviembre. Los expertos dijeron que resaltan el peligro de que cualquier grupo (latinos, mujeres, votantes masculinos mayores) pueda ser blanco de imágenes realistas destinadas a engañar y confundir , así como a demostrar la necesidad de una regulación en torno a esta tecnología.
En un informe publicado esta semana, investigadores de la organización sin fines de lucro Center for Countering Digital Hate utilizaron varios programas populares de inteligencia artificial para mostrar lo fácil que es crear deepfakes realistasque puedan engañar a los votantes . Los investigadores pudieron generar imágenes de Trump reuniéndose con agentes rusos, Bidenllenando una urna y miembros de milicias armadas en los lugares de votación, a pesar de que muchos de estos programas de inteligencia artificial dicen que tienen reglas para prohibir este tipo de contenido.
El centro analizó algunos de los deepfakes recientes de Trump y los votantes negros y determinó que al menos uno fue creado originalmente como una sátira pero ahora estaba siendo compartido por los partidarios de Trump como evidencia de su apoyo entre los negros.
Las plataformas de redes sociales y las empresas de inteligencia artificial deben hacer más para proteger a los usuarios de los efectos nocivos de la inteligencia artificial, dijo Imran Ahmed, director ejecutivo y fundador del centro.
"Si una imagen vale más que mil palabras, entonces estos generadores de imágenes peligrosamente susceptibles, junto con los sombríos esfuerzos de moderación de contenido de las principales redes sociales, representan una herramienta tan poderosa como nunca antes hemos visto para que los malos actores engañen a los votantes", dijo Ahmed. . "Esta es una llamada de atención para las empresas de inteligencia artificial, las plataformas de redes sociales y los legisladores: actúen ahora o pongan en riesgo la democracia estadounidense".
Las imágenes provocaron alarma tanto en la derecha como en la izquierda porque podrían engañar a la gente sobre el apoyo del ex presidente entre los afroamericanos. Algunos en la órbita de Trump han expresado frustración por la circulación de imágenes falsas, creyendo que las escenas fabricadas socavan el acercamiento republicano a los votantes negros.
"Si ves una foto de Trump con gente negra y no la ves publicada en una campaña oficial o en una página sustituta, no sucedió", dijo Diante Johnson, presidente de la Federación Conservadora Negra. "No tiene sentido pensar que la campaña de Trump tendría que utilizar IA para mostrar su apoyo a los negros".
Los expertos esperan esfuerzos adicionales para utilizar deepfakes generados por IA para apuntar a bloques de votantes específicos en estados clave, como latinos, mujeres, estadounidenses de origen asiático y conservadores de mayor edad, o cualquier otro grupo demográfico que una campaña espera atraer, engañar o asustar. Con docenas de países celebrando elecciones este año, los desafíos que plantean los deepfakes son un problema global.
En enero, los votantes de New Hampshire recibieron una llamada automática que imitaba la voz de Biden y les decía, falsamente, que si votaban en las primarias de ese estado no serían elegibles para votar en las elecciones generales. Más tarde, un consultor político reconoció haber creado la llamada automática , que puede ser el primer intento conocido de utilizar IA para interferir con una elección estadounidense.
Dicho contenido puede tener un efecto corrosivo incluso cuando no se cree en él, según un estudio de febrero realizado por investigadores de la Universidad de Stanford que examina los impactos potenciales de la IA en las comunidades negras. Cuando las personas se dan cuenta de que no pueden confiar en las imágenes que ven en línea, pueden comenzar a descartar fuentes legítimas de información .
"A medida que el contenido generado por IA se vuelve más frecuente y difícil de distinguir del contenido generado por humanos, las personas pueden volverse más escépticas y desconfiadas de la información que reciben", escribieron los investigadores.
Incluso si no logra engañar a un gran número de votantes, el contenido generado por IA sobre votaciones, candidatos y elecciones puede hacer que a cualquiera le resulte más difícil distinguir la realidad de la ficción, lo que hace que descarten fuentes legítimas de información y alimenta una pérdida de información. confianza que está socavando la fe en la democracia y al mismo tiempo ampliando la polarización política.
Si bien las afirmaciones falsas sobre candidatos y elecciones no son nada nuevo, la IA hace que sea más rápido, más barato y más fácil que nunca crear imágenes, videos y audio realistas. Cuando se publican en plataformas de redes sociales como TikTok, Facebook o X, los deepfakes de IA pueden llegar a millones de personas antes de que las empresas de tecnología , los funcionarios gubernamentales o los medios de comunicación legítimos se den cuenta de su existencia.
“La IA simplemente aceleró e impulsó la desinformación”, dijo Joe Paul, un ejecutivo de negocios y defensor que ha trabajado para aumentar el acceso digital entre las comunidades de color. Paul señaló que las comunidades negras a menudo tienen “esta historia de desconfianza” con las principales instituciones, incluidas la política y los medios, que hacen que las comunidades negras sean más escépticas respecto de las narrativas públicas sobre ellas, así como de la verificación de datos destinada a informar a la comunidad.
La alfabetización digital y las habilidades de pensamiento crítico son una defensa contra la información errónea generada por la IA, afirmó Paul. “El objetivo es capacitar a las personas para que evalúen críticamente la información que encuentran en línea. La capacidad de pensar críticamente es un arte perdido en todas las comunidades, no sólo en las comunidades negras”.
Fuente: AP
Comments