Cuando investigadores, funcionarios electorales y expertos en inteligencia artificial hicieron preguntas a los chatbots sobre las elecciones, las respuestas los sorprendieron.
El Proyecto de Democracia de IA, una asociación entre el Instituto de Estudios Avanzados y Noticias basadas en Evidencia, ha reunido a expertos para examinar la validez y el daño potencial y el sesgo de los chatbots de IA a medida que más personas comienzan a usarlos para guiar sus búsquedas en Internet.
Sus resultados, en los que aproximadamente la mitad de las respuestas de los modelos de IA eran incorrectas, generaron preocupación entre algunos funcionarios de que el mayor uso de la inteligencia artificial podría conducir a la supresión de votantes.
Las empresas detrás de los chatbots dicen que sus plataformas redirigen a los usuarios a fuentes oficiales para obtener información electoral y que son cautelosos a medida que avanza la IA. Mientras tanto, los funcionarios estatales y federales están buscando formas de regular las plataformas y su posible influencia en las elecciones.
‘da miedo’
Como parte del estudio AI Democracy Projects, el Secretario de Estado de Nevada, Cisco Aguilar, analizó más de cerca algunos de los mensajes que daban los modelos de IA cuando se les preguntaba sobre los procesos electorales estatales.
Los modelos no dijeron que Nevada permitiera el registro de votantes el mismo día, diciendo incorrectamente que la fecha límite de registro era semanas antes de las elecciones. Un modelo de IA mostró que las personas recientemente liberadas de prisión necesitarían pasar por un proceso extenso antes de recuperar sus derechos de voto, a pesar de que Nevada restablece automáticamente los derechos de voto cuando las personas salen de prisión.
«Cuando digo que da miedo, tengo una visión muy limitada del término ‘horror'», dijo Aguilar al Review-Journal. «El temor es que alguien quede excluido de la votación. Este es terrible.»
La información que dieron los modelos de IA no siempre fue incorrecta, pero no fue completamente precisa y no mostró el panorama completo, dijo Aguilar.
Perdido en la traducción
Cuando los funcionarios pidieron a los chatbots que tradujeran información relacionada con las elecciones del inglés al español, la voz en español sonó feliz y solemne, dijo Aguilar. Cuando se tradujo del inglés al hindi, la información resultó tan seria que podría asustar a alguien y no votar, dijo.
«Y al ser Nevada una comunidad tan diversa, las personas y los votantes potenciales probablemente usarán estos sistemas para traducir información y… estos sistemas tienen que tener mucho cuidado con la elección de voz y palabras», dijo Aguilar.
Haciendolo
Alondra Nelson, investigadora del Instituto de Estudios Avanzados y exdirectora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, dijo que el AI Democracy Project descubrió que los modelos de IA a veces respondían con verdades a medias y, a veces, con afirmaciones completamente inventadas. , como un sitio web falso que parecía una fuente confiable, dijo Nelson.
En un caso, un chatbot dijo que un código postal con una gran población afroamericana no tenía un lugar para votar, dijo Nelson. En otro, cuando los investigadores preguntaron si alguien podía votar por mensaje de texto, el chatbot dijo que sí, aunque no está permitido en ningún estado, dijo Nelson.
El resultado de esa desinformación es la supresión de votantes, dijo Nelson.
«Nadie tiene la intención de hacer nada malo, pero algún tipo de masa crítica de mala información es profunda, profundamente destructiva y socava los procesos democráticos, los procesos electorales y cosas así», dijo Nelson.
Usando IA
Hay muchos datos que muestran cuántas personas recurren a los chatbots de IA como fuente de información, pero una encuesta del Pew Research Center realizada a 11.000 adultos en 2022 encontró que el 27 por ciento de los estadounidenses dijeron que los usan al menos varias veces al día. otro 28 por ciento la contacta una vez al día.
Una encuesta realizada en noviembre de 2023 entre alrededor de 1.000 adultos en Estados Unidos encontró que solo el 14 por ciento probablemente usaría IA para obtener información sobre las próximas elecciones presidenciales. Según la encuesta UChicago Harris/AP-NORC, a muchos les preocupaba que la IA aumentara la difusión de desinformación electoral.
Pero incluso si algunas personas no usan productos de inteligencia artificial, los modelos básicos para chatbots están integrados en otros productos, dijo Nelson, como Microsoft Office Suite y Bing. Si las empresas están construyendo sobre una base débil o líquida, entonces eso es un gran desafío, dijo Nelson.
‘Ve con cuidado’
Las empresas de inteligencia artificial dicen que su objetivo es evitar la propagación de desinformación y están entrenando sus sistemas para dirigir a los usuarios a las mejores fuentes cuando hagan preguntas relacionadas con las elecciones.
Meta, que ejecuta su propio modelo MetaAI, dirige a las personas a recursos específicos del estado donde los usuarios pueden encontrar información autorizada, según el portavoz Daniel Roberts.
Anthropic, una startup de inteligencia artificial, está tomando medidas para evitar el uso indebido de sus sistemas de inteligencia artificial, como prohibir las campañas políticas, probar el modelo contra posibles manipulaciones electorales y dirigir a los usuarios a información informada por los votantes, según un portavoz.
Un portavoz de Anthropic dijo en un comunicado: «Dada la novedad de la IA productiva, estamos tomando medidas cuidadosas para limitar ciertos casos de uso político según nuestra Política de uso aceptable». El modelo Claude de Anthropic «a menudo no está lo suficientemente entrenado para proporcionar información en tiempo real sobre opciones específicas y los modelos de lenguaje grandes a veces pueden ‘alucinar’ información inexacta», dijo el portavoz.
OpenAI tiene políticas similares y prohíbe a las personas crear aplicaciones para campañas políticas y lobby en ChatGPT. Tampoco permite a los usuarios crear chatbots que pretendan ser personas reales, según su blog electoral, al que una portavoz se refirió al Review-Journal para obtener información.
Alineación de IA
Antes de las primarias presidenciales de 2024 en New Hampshire, una llamada automática utilizó inteligencia artificial para rastrear el voto del presidente Joe Biden, instando a los votantes a mantenerse al margen de las primarias y reservar sus votos para noviembre. El incidente generó más preocupaciones sobre el impacto de la IA en las elecciones y aumentó la sensación de urgencia para implementar la regulación.
La Comisión Federal de Comunicaciones aprobó en febrero un fallo que prohibía la tecnología de clonación de voz en llamadas automáticas, brindando a los fiscales generales estatales nuevas herramientas para perseguir a los malos actores que utilizan la IA en llamadas automáticas con fines nefastos.
Tanto los funcionarios estatales como federales de Nevada están explorando otras formas de regular la inteligencia artificial en situaciones especiales relacionadas con las elecciones.
El representante demócrata de Nevada Steven Horsford, que preside el Caucus Negro del Congreso, lanzó la serie de IA del caucus el mes pasado examinando los beneficios y avances de la IA, así como sus desafíos e impacto en los estadounidenses negros.
A través de esas series, Horsford y el Caucus Negro del Congreso identificarán la legislación que debe desarrollarse.
«Más aplicación de la ley, no menos»
Un proyecto de ley que podría desinformar a los votantes es la Ley de Mejora del Derecho al Voto John Lewis, dijo Horsford al Review-Journal. La ley tiene como objetivo poner fin a la discriminación electoral y podría incluir esfuerzos para desinformar y engañar a los votantes con IA.
«Tenemos estas nuevas tecnologías, estas nuevas plataformas, donde ya hemos visto esfuerzos para desinformar e impulsar campañas de desinformación, especialmente entre los votantes de color y los votantes mayores», dijo. «Y es por eso que necesitamos más aplicación de la ley, no menos».
Nelson, quien supervisó la Declaración de Derechos de la IA en la Casa Blanca, dijo que el Congreso podría enviar una fuerte señal a la Comisión Federal Electoral y otras agencias reguladoras de que las autoridades existentes y las leyes que hacen cumplir también se aplican a la IA.
Aguilar está monitoreando las leyes en otros estados y planea presentar un paquete en la próxima sesión legislativa sobre la regulación, dijo.
Mientras continúa la temporada electoral de 2024, la oficina del secretario de estado de Nevada trabajará para disipar la información errónea que genera, dijo Aguilar. También trabajará con la unidad electoral del estado para evaluar las reclamaciones. El grupo de trabajo incluye a Metro, el FBI, Seguridad Nacional y otros que tienen herramientas y recursos para evaluar el contenido, dijo.
«No se trata de política partidista», dijo Aguilar. «Todo se reduce a garantizar que los votantes tengan la información más precisa para tomar una decisión informada».
Póngase en contacto con Jessica Hill en jehill@reviewjournal.com. Terminación @jess_hillyeah en X.