- Google ahora limita la información relacionada con las elecciones proporcionada por su chatbot de inteligencia artificial, Gemini.
- Las iniciativas de Google incluyen una estrategia más amplia para combatir la desinformación con políticas publicitarias más estrictas y apoyo a colectivos de verificación de datos antes de elecciones importantes.
- Google y otros gigantes tecnológicos enfrentan el desafío de equilibrar la nueva tecnología con la necesidad de proteger la integridad electoral.
Google ha anunciado restricciones sobre los tipos de consultas relacionadas con las elecciones que su chatbot de inteligencia artificial, Gemini, puede procesar, especialmente en regiones que celebran elecciones este año. El objetivo de esta medida es impedir la difusión de información sobre candidatos políticos, partidos y otros temas políticos.
En su sitio web, el equipo de Google en India anunció a través de una publicación de blog que estas restricciones se están implementando en India, en anticipación a las elecciones que están programadas para comenzar en abril. La decisión es parte del esfuerzo más amplio de Google para reducir una mayor controversia sobre la tecnología de inteligencia artificial.
Gemini y la IA de Google: un enfoque cuidadoso de las elecciones
Al enfatizar su compromiso con el uso responsable de la IA productiva, Google afirmó que está implementando estas restricciones como medida de precaución contra un problema crítico. La empresa enfatiza su compromiso de proporcionar información precisa para este tipo de preguntas y aumenta activamente su protección.
Aquél bbc Señaló que esta iniciativa es consistente con las estrategias que Google anunció el año pasado con respecto a su enfoque de participación electoral. Google explicó bbc«Como compartimos en diciembre pasado, en preparación para las numerosas elecciones que tendrán lugar en todo el mundo en 2024 y por precaución, estamos limitando los tipos de preguntas relacionadas con las elecciones a las que Gemini devolverá respuestas».
Se espera que este año se celebren elecciones en muchos países, incluidos Estados Unidos, Reino Unido y Sudáfrica. Google enfatiza la importancia de proteger la integridad electoral evitando el uso indebido de sus productos y servicios. La empresa ha establecido políticas integrales para garantizar la seguridad de sus plataformas y aplica estos estándares de manera uniforme en todo el contenido.
Google también está introduciendo sus propios modelos y políticas de inteligencia artificial, como los que se encuentran en las pautas comunitarias de YouTube y las políticas de contenido político para anunciantes, para combatir la información errónea que podría socavar los procesos democráticos.
La urgencia de estas acciones se ve impulsada por los rápidos avances en inteligencia artificial, que han generado preocupaciones globales sobre la desinformación, lo que ha llevado a un mayor escrutinio regulatorio. Recientemente, India ordenó a las empresas de tecnología que solicitaran aprobación antes de implementar herramientas de inteligencia artificial consideradas «no confiables» o bajo prueba.
El compromiso de Google de abordar estas preocupaciones se demostró aún más en febrero cuando se disculpó después de que un generador de imágenes de IA representara incorrectamente a un grupo de padres fundadores estadounidenses y soldados alemanes de la Segunda Guerra Mundial, que son los esfuerzos continuos de la compañía para gestionar las complejidades de la fabricación de IA de manera responsable.
Evaluación de chatbots de IA: precisión de la información electoral
Un nuevo artículo de Proof News evalúa críticamente la precisión y confiabilidad de los principales chatbots de IA, como GPT-4 de OpenAI, a la hora de proporcionar información electoral precisa. La investigación fue motivada por casos en los que los modelos de IA proporcionaron respuestas incorrectas a consultas directas y verificadas sobre las regulaciones electorales, como la prohibición de usar ropa relacionada con la campaña en los lugares de votación en algunos estados, incluido Texas.
A pesar de las reglas claras, los modelos de inteligencia artificial como GPT-4 sugirieron erróneamente que usar un sombrero MAGA está permitido para votar en Texas. Este problema prevaleció en los cinco modelos de IA probados, incluidos Claude de Anthropic, Gemini de Google, Llama 2 de Meta y Mixtral de Mistral.
AI Democracy Projects, en colaboración con más de 40 funcionarios electorales y expertos en IA, evaluó estos modelos para 26 preguntas de votantes potenciales sobre sesgo, precisión, integridad y sesgo. Los resultados fueron preocupantes: aproximadamente la mitad de las respuestas del modelo eran incorrectas y más de un tercio se consideraban incompletas o perjudiciales. Aunque GPT-4 mostró una precisión ligeramente mejor que sus homólogos, los resultados generales indicaron un problema significativo con la capacidad de la IA para proporcionar información electoral confiable.
Los errores van desde mentiras completas, como Llama 2 de Meta, que afirma que los californianos pueden votar mediante mensajes de texto, hasta información engañosa sobre temas complejos, como acusaciones de fraude electoral en Georgia. Estos errores resaltan las dificultades de los chatbots de IA para gestionar adecuadamente la información electoral importante y matizada.
El estudio arroja dudas sobre la preparación de los chatbots de IA para difundir adecuadamente información matizada, especialmente en entornos críticos como las elecciones. Pone en duda el compromiso de las empresas de IA con sus compromisos con la integridad de la información y la reducción de la desinformación. A pesar de la promesa de OpenAI de dirigir a los usuarios a fuentes legítimas de información electoral, el estudio encontró que GPT-4 no cumplió con eso, y algunos encuestados incluso indicaron que los procesos de votación eran defectuosos.
Las reacciones de las empresas a estos hallazgos reconocen los desafíos inherentes a la hora de garantizar la autenticidad del contenido generado por IA, especialmente a través de API ampliamente utilizadas por los desarrolladores. Si bien algunas empresas, como Anthropic, han iniciado medidas para redirigir a los usuarios a fuentes confiables, la efectividad de dichas medidas, especialmente cuando se accede a ellas a través de API, aún no está clara.
Esta prueba marca un momento importante en el desarrollo de la tecnología de inteligencia artificial y su papel en la difusión de información confidencial, como los detalles electorales. Destaca la necesidad de mejoras continuas en los modelos de IA, directrices de uso claras y responsables para los desarrolladores y protección contra la desinformación, que son esenciales para la integración responsable de las tecnologías de IA en la sociedad.
De cara al futuro: el papel de la IA en futuras elecciones
Google amplió su compromiso con la transparencia electoral y destacó políticas estrictas para anuncios relacionados con las elecciones en sus plataformas. Los anunciantes que quieran publicar anuncios electorales deben someterse a una verificación de identidad, obtener acreditación cuando sea necesario y asegurarse de que los anuncios revelen claramente sus fuentes de financiación.
Antes de las elecciones generales, Google apoya a Shakti, el Colectivo de Verificación de Datos Electorales de la India, formado por editores de noticias y verificadores de datos unidos para luchar contra la desinformación en línea, incluidas las mentiras descaradas. El objetivo de esta iniciativa es aumentar la detección de información errónea y crear un repositorio común para resolver problemas de desinformación a escala.