Por Redacción
[email protected]
A pocos días de las elecciones presidenciales en Estados Unidos, la comunidad latina enfrenta una oleada de mensajes publicitarios y mensajes políticos en español generados por inteligencia artificial (IA).
Estos sistemas automatizados de chat están creando y difundiendo información errónea sobre los derechos de los votantes en español, una tendencia que alarma a grupos defensores de los derechos electorales.
Los modelos de inteligencia artificial están distribuyendo un alto volumen de contenido incorrecto sobre las elecciones, con una mayor frecuencia de errores en español que en inglés. Esto complica la calidad de la información recibida por los votantes latinos, una comunidad de rápido crecimiento e influencia creciente, según un estudio de dos organizaciones periodísticas sin fines de lucro. Los defensores de derechos electorales temen que esta tecnología amplifique la desinformación en español, aumentando las barreras informativas para los votantes hispanohablantes, quienes están siendo cortejados por ambos partidos.
Como parte de sus esfuerzos para atraer a los latinos, la candidata demócrata, la vicepresidenta Kamala Harris, tiene programado un evento en Las Vegas junto a la cantante Jennifer López y la banda Maná. Mientras tanto, el expresidente Donald Trump, quien busca regresar a la Casa Blanca, se reunió el martes con votantes en una comunidad hispana de Pensilvania, pocos días después de que en uno de sus eventos en Nueva York se hicieran comentarios despectivos hacia Puerto Rico.
El análisis fue realizado en conjunto por Proof News, Factchequeado y el Science, Technology and Social Values Lab del Institute for Advanced Study. Estas organizaciones evaluaron cómo algunos de los modelos de IA más usados respondían a preguntas sobre elecciones y analizaron las respuestas obtenidas. El estudio concluyó que más de la mitad de las respuestas generadas en español contenían información incorrecta, en comparación con el 43% de las respuestas en inglés.
Entre los sistemas analizados, el modelo Llama 3, de Meta, que impulsa el asistente de IA de WhatsApp y Facebook Messenger, mostró un desempeño particularmente deficiente, con casi dos tercios de sus respuestas en español incorrectas. Una de las preguntas a la IA solicitaba la definición de “votante solo federal”, un término específico para Arizona que se refiere a personas que solo pueden votar en elecciones federales, ya que no han proporcionado prueba de ciudadanía. Sin embargo, el modelo Llama 3 respondió equivocadamente que estos votantes son residentes de territorios de Estados Unidos, como Puerto Rico o Guam, quienes en realidad no pueden votar en elecciones presidenciales.
Otro modelo, Claude, de la empresa Anthropic, respondió de manera confusa sobre el mismo término, indicando que los usuarios deberían contactar a autoridades electorales en “su país o región”, como México o Venezuela. El modelo Gemini, de Google, también falló al ofrecer una definición sin sentido sobre el Colegio Electoral, relacionándolo con la “manipulación del voto”.
Un portavoz de Meta afirmó que el modelo Llama 3 fue diseñado para que desarrolladores creen aplicaciones y destacó que Meta está trabajando en mejorar la precisión de sus respuestas en temas sensibles como el de las elecciones. Alex Sanderford, encargado de políticas de Anthropic, indicó que su empresa ha implementado cambios para redirigir consultas sobre elecciones a fuentes autorizadas. Google no ofreció comentarios.
Durante meses, defensores del derecho al voto han advertido sobre la avalancha de desinformación en español. Lydia Guzmán, quien dirige una campaña para votantes latinos en la organización Chicanos Por La Causa, sostuvo que estos hallazgos refuerzan la necesidad de que los votantes verifiquen las fuentes de información. “Es importante que cada votante busque información en varias fuentes y consulte a organizaciones creíbles para recibir datos precisos”, expresó Guzmán.
Los modelos de IA, también conocidos como modelos de lenguaje a gran escala o LLM por sus siglas en inglés, se entrenan con grandes cantidades de información en línea, lo que los hace propensos a errores, ya que a menudo generan respuestas sin lógica. Incluso aquellos votantes que no usan chatbots podrían verse afectados por aplicaciones y sitios web que dependen de estos modelos.
Los errores en las respuestas de IA pueden tener un impacto significativo en estados con alta población hispana como Arizona, Nevada, Florida y California. En California, por ejemplo, un tercio de los votantes elegibles son latinos, y uno de cada cinco votantes únicamente habla español, según el Instituto de Política Latina de UCLA.
Rommell López, asistente legal y votante independiente en California, señaló que frecuentemente se enfrenta a respuestas contradictorias generadas por IA al intentar verificar información en redes sociales. Ante afirmaciones sin fundamento sobre inmigrantes, decidió confiar en su propio criterio. “Podemos usar la tecnología, pero no al 100%”, afirmó López, residente de Los Ángeles de 46 años. “Al final del día, son solo máquinas”.