El director ejecutivo de Google, Sundar Pichai, criticó el mes pasado errores «totalmente inaceptables» de la aplicación Gemini AI de su compañía, después de que errores como fotos de soldados nazis étnicamente diversos la obligaron a impedir temporalmente que los usuarios crearan imágenes de personas.
Mejore sus habilidades tecnológicas con cursos de alto valor
presentación universitaria | Curso | Sitio web |
---|---|---|
Escuela de Negocios India | Certificado Profesional ISB en Gestión de Productos | visita |
IIM Kozhikode | IIMK Ciencia de datos avanzada para gerentes | visita |
Escuela de Negocios India | Gestión de productos ISB | visita |
Los usuarios de las redes sociales se burlaron y criticaron a Google por imágenes históricamente inexactas, como las que muestran a un senador estadounidense negro del siglo XIX, cuando el primer senador de este tipo no fue elegido hasta 1992.
«Definitivamente arruinamos la generación de imágenes», dijo el cofundador de Google, Sergey Brin, en un reciente «hackathon» de IA, y agregó que la compañía debería haber probado Gemini más a fondo.
Las personas entrevistadas en el famoso festival de arte y tecnología South by Southwest en Austin dijeron que el tropiezo de Gemini pone de relieve el poder imparable de varias empresas en plataformas de inteligencia artificial preparadas para cambiar la forma en que las personas viven y trabajan.
Joshua Weaver, abogado y empresario tecnológico, dijo: «Básicamente, fue muy ‘despertado’, que es por lo que Google ha pasado en su esfuerzo por ser inclusivo y diverso».
Descubre historias de tu interés
Google corrigió rápidamente sus errores, pero el problema subyacente persiste, dijo Charlie Burgoyne, director ejecutivo del laboratorio de ciencias aplicadas Valkyrie en Texas. Comparó la solución Gemini de Google con poner una curita en una herida de bala.
Si bien Google ha tenido durante mucho tiempo el lujo de perfeccionar sus productos, ahora está involucrado en una carrera de IA con Microsoft, OpenAI, Anthropic y otros, señaló Weaver, y agregó: «Son aquellos que saben cómo moverse, se mueven más rápido».
Los errores cometidos en un intento de generar sensibilidad cultural son puntos álgidos, especialmente dada la marcada división política en Estados Unidos, una situación exacerbada por la plataforma X de Elon Musk, anteriormente Twitter.
«La gente en Twitter está muy feliz de celebrar cualquier cosa vergonzosa que suceda en la tecnología», dijo Weaver, añadiendo que la reacción ante la metedura de pata nazi fue «abrumadora».
La vulnerabilidad, sin embargo, puso en duda el nivel de control que tienen sobre la información quienes utilizan herramientas de inteligencia artificial, continuó.
Durante la próxima década, la cantidad de información (o desinformación) generada por la IA podría eclipsar la generada por los humanos, dijo Weaver, lo que significa que aquellos que controlen las salvaguardas de la IA tendrán un gran impacto en el mundo, dijo Weaver.
Polarización de entrada, polarización de salida
Karen Palmer, una galardonada creadora de realidad mixta de Interactive Films Ltd., dijo que puede imaginar un futuro en el que alguien se suba a un robo-taxi y, «si la IA te sigue y cree que tienes violaciones graves en tu contra, «… lo llevarán a la comisaría local», no es lo que quiere decir.
La IA se entrena con montañas de datos y puede trabajar en una amplia gama de tareas, desde generar imágenes o sonidos hasta determinar quién obtiene un préstamo o si un escaneo médico detecta cáncer.
Pero esos datos provienen de un mundo de prejuicios culturales, desinformación y desigualdad social (sin mencionar el contenido en línea que puede incluir chats aleatorios entre amigos o publicaciones deliberadamente exageradas y provocativas) y los modelos de inteligencia artificial pueden detectar esos errores.
Con Gemini, los ingenieros de Google intentaron reequilibrar los algoritmos para proporcionar resultados que reflejen mejor la diversidad humana.
El intento fracasó.
«Puede ser realmente complicado, matizado y sutil descubrir dónde está la parte interesada y cómo está involucrada», dijo el abogado de tecnología Alex Shahrestani, socio gerente del bufete de abogados Promise Legal para empresas de tecnología.
Él y otros creen que incluso los ingenieros bien intencionados que participan en el entrenamiento de la IA no logran aportar su propia experiencia de vida y sus prejuicios subconscientes al proceso.
Burgoyne de Valkyrie también criticó una gran tecnología por mantener el funcionamiento interno de la IA productiva oculto en «cajas negras», para que los usuarios no puedan descubrir ningún aliado oculto.
«Las implicaciones de los resultados excedieron con creces nuestra comprensión de la metodología», dijo.
Expertos y activistas piden más diversidad en los equipos que crean IA y herramientas relacionadas, y mayor transparencia sobre cómo funcionan, especialmente cuando los algoritmos reescriben las solicitudes de los usuarios para «optimizar» los resultados.
Un desafío es cómo construir adecuadamente desde las perspectivas de las muchas y diversas comunidades del mundo, dijo aquí Jason Lewis del Centro de Recursos Futuros Indígenas y grupos relacionados.
En Indigenous AI, Jason trabaja con comunidades indígenas remotas para diseñar algoritmos que utilicen sus datos de manera ética y al mismo tiempo expresen sus perspectivas sobre el mundo, algo que siempre ha considerado la «presunción» de los grandes líderes tecnológicos.
Su trabajo contrasta «mucho con la retórica de Silicon Valley, donde es de arriba hacia abajo: ‘Oh, estamos haciendo esto porque vamos a beneficiar a toda la humanidad'», le dijo al grupo, ¿verdad?
Su audiencia se rió.