Géminis abandonado en el polvo

Como se ha informado ampliamente, Google recientemente impidió que su chatbot Gemini creara imágenes de personas después de que el bot se negó a mostrar imágenes blancas. Los usuarios de Gemini han visto resultados que incluyen a padres fundadores nativos americanos, nazis negros y asiáticos y soldados romanos negros. Ese y otros resultados ridículos se volvieron virales, lo que llevó a Google a disculparse.

Según un artículo publicado por Google, las técnicas de personalización del chatbot tenían como objetivo aumentar la diversidad. Estas técnicas, que la empresa utiliza para modificar el resultado de modelos de aprendizaje automático como Gemini, dieron como resultado que el chatbot evitara la retroalimentación que estereotipadamente produciría tales resultados al retratar a blancos y hombres.

Google dedicó una sección del artículo a cómo Gemini evitará el «daño representacional», es decir, producir resultados de imagen que refuercen los estereotipos. La empresa detalló cómo busca encontrar «nuevas formas de medir los prejuicios y los estereotipos, que vayan más allá de los binarios de género y los estereotipos comunes». Estas mediciones de «sesgo» claramente no tienen en cuenta si un algoritmo determinado haría que las imágenes de Gemini fueran históricamente precisas. En cambio, evaluaron en qué medida un algoritmo reduciría la probabilidad del chatbot de devolver imágenes estereotípicamente blancas y masculinas.

Estos parámetros fueron responsables de los resultados sin precedentes de Gemini. Según el algoritmo de Google, no importaba si, como historia, los nazis o los padres fundadores eran 100 por ciento blancos. El código avanzado de Google marcará dichos resultados como «estereotípicos» y los actualizará para que sean más «diferentes».

Google insiste en que «lo hará mejor», pero es posible que las respuestas a su producto de inteligencia artificial para zurdos ya estén a la vista. Los modelos de aprendizaje automático como Claude de Anthropic, Grok de X y Zephyr 7B Beta son casi políticamente neutrales, según un informe del científico de datos David Rozado. Que los desarrolladores creen alternativas más centralizadas tiene sentido dados los incentivos. Después de todo, un modelo centrista sería más consistente con las creencias de los usuarios (sin mencionar la realidad objetiva) que el creado por el equipo de «IA Responsable» de Google.

Mientras la IA permanezca relativamente libre de interferencia y centralización gubernamental, quienes produzcan modelos de aprendizaje automático tendrán un incentivo para producir un producto menos ideológico. Siempre que esos incentivos permanezcan intactos, los ingenieros podrán producir grandes modelos de lenguaje y sistemas de inteligencia artificial de todo tipo que reflejen las opiniones de la mayoría. Como dijo el «Dios de la IA» Yann LeCun:

No podemos conseguir esos sistemas de varias empresas de la costa oeste de Estados Unidos. Esos sistemas constituirán el depósito de todo el conocimiento humano. Y no podemos tenerlo controlado por un número pequeño, ¿verdad? Debería ser diferente, por la misma razón los medios deberían ser diferentes.

Pero la colusión entre el gobierno y la industria amenaza esta diversidad. Como señaló Google en su documento, la compañía está construyendo su programa de IA en áreas «dentro del marco de las Tareas de la Casa Blanca, la Orden Ejecutiva de los Estados Unidos sobre Inteligencia Artificial Segura y Confiable y la Declaración Bletchley» consultadas con los grupos. La decisión de Google de lanzar Gemini se basó en un punto de vista de extrema izquierda, es decir, en la política de Estados Unidos y el Reino Unido.

Para frustrar tales intentos de llegar a un compromiso en el futuro, la Cámara de Representantes debería utilizar sus poderes de supervisión para llamar la atención del público sobre ellos. El litigio resultante y la respuesta pública pueden desalentar un acuerdo de este tipo en el futuro. Los esfuerzos de transparencia y una agenda de reformas más amplia permitirán a los desarrolladores crear formas mejores (y más precisas) de inteligencia artificial.

Foto de Rafael Henrique/SOPA Images/LightRocket vía Getty Images

Donación

periódico de la ciudad es una publicación del Instituto de Estudios Políticos de Manhattan (MI), un grupo de expertos líder en libre mercado. ¿Quieres apoyar la revista? Como organización sin fines de lucro 501(c)(3), las donaciones para apoyar a MI y al City Journal son totalmente deducibles de impuestos según la ley (EIN #13-2912529).

Puede interesarte

Microsoft está integrando Copilot AI en el Explorador de archivos de Windows 11

Lo que necesitas saber Microsoft pronto podrá integrar Copilot AI en el menú contextual del …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *