¿Juego limpio? Abordar las limitaciones de sesgo en el análisis de big data impulsado por IA

El sesgo en los datos y algoritmos de IA ocurre principalmente cuando los datos subyacentes utilizados para entrenar el modelo de IA son demasiado detallados. Una forma de sesgo de la IA es cuando los datos utilizados para entrenar modelos de IA pueden estar inherentemente sesgados debido a la forma en que se recopilaron. Si los datos seleccionados para el entrenamiento son inexactos, incompletos o inconsistentes de alguna manera, de modo que no representan a la población a la que debe servir, entonces el modelo de IA puede desarrollar un sesgo sobre esta base. Un buen ejemplo es cuando los sistemas de reconocimiento facial se entrenan con un conjunto de datos que es predominantemente de una raza o género, entonces el sistema será mejor para reconocer rostros del grupo sesgado, y tal vez para personas de diferentes grupos raciales o de género. otros.

Las injusticias sociales históricas, así como las desigualdades, a menudo se reflejan en los datos, y pueden reflejarse en datos de alquileres, registros de préstamos o datos de justicia penal, lo que lleva a modelos de IA que perpetúan las disparidades existentes. De hecho, los propios algoritmos pueden hacer predicciones cuando hacen predicciones sobre muestras en los datos de entrenamiento, pero sin darse cuenta aumentan los sesgos existentes. Por ejemplo, un sistema de inteligencia artificial entrenado para filtrar solicitudes de empleo en función de decisiones históricas de contratación puede seleccionar solo candidatos que posean ciertas características y excluir a otros.

Otros ejemplos de sesgo pueden ocurrir en el aprendizaje supervisado, cuando los operadores humanos etiquetan los datos utilizados para el entrenamiento, y el sesgo del preprocesamiento de datos, así como el sesgo del ciclo de retroalimentación, también tienen el potencial de introducir problemas. Si los pasos de preprocesamiento de datos (limpieza de datos, normalización y selección de características) no se realizan con cuidado, pueden eliminar información relevante o reforzar los sesgos existentes por parte del operador. La desventaja del circuito de retroalimentación es que cuando el operador o usuario final está predispuesto hacia un determinado resultado, le dice a la IA que el resultado es «correcto» y la entrena para elegir esos resultados. La IA seguirá evaluando los resultados como ‘correctos’ y el operador seguirá evaluándolos como ‘correctos’, incluso si no lo son, creando un ciclo continuo de resultados incorrectos.

Una preocupación algo más reciente, que posiblemente sea la herramienta más accesible que ha surgido, es que cuando los sistemas de IA generativa (GAI) tienen dificultades para comprender las preguntas, esto puede llevar a una mala interpretación de las preguntas, lo que a su vez puede llevar a que se proporcionen respuestas incorrectas; un fenómeno conocido como alucinación por IA.

Las causas de las alucinaciones, donde los algoritmos de inteligencia artificial y las redes neuronales de aprendizaje profundo no coinciden con los datos con los que fueron entrenados, o incluso muestran un patrón discernible, son variadas e involucran factores más allá de la programación, como información de entrada, clasificación incorrecta, insuficiente. datos. capacitación, y desafíos en la interpretación de preguntas en diferentes idiomas, o su conciliación. Y sin limitaciones a un tipo de datos específico, puede tomar la forma de una variedad de formatos de datos sintéticos, incluidos texto, imágenes, audio, video y código informático.

Justicia por diseño

Para superar los sesgos y preservar la equidad en el análisis de big data mejorado con IA, se necesita un enfoque progresivo, mediante el cual los principios de equidad por diseño puedan guiar el desarrollo de sistemas de IA que tengan menos probabilidades de introducir sesgos.

Garantizar que los datos de entrenamiento sean diversos y representativos de la población a la que servirá el sistema de IA reduce el riesgo de una representación insuficiente o excesiva de ciertos grupos, mientras que revisar periódicamente los sistemas de IA ayudará a identificar y corregir sesgos.

– Thomas Pramotedham, director ejecutivo de Presight

Afortunadamente, existen formas de desarrollar algoritmos que trabajen activamente para reducir el sesgo. Por ejemplo, técnicas como la eliminación del sesgo adversarial tienen como objetivo reducir el sesgo en las predicciones del modelo. Y también podemos hacer que los sistemas de IA sean más transparentes y descriptivos, permitiendo a los usuarios y a las partes interesadas obtener información sobre cómo se toman las decisiones, lo que puede ayudar a identificar y abordar los prejuicios.

Al introducir diversidad en los equipos que desarrollan sistemas de IA, brindando diferentes perspectivas, podemos ayudar a identificar problemas de manera más efectiva, y alentar a los usuarios a brindar comentarios sobre los resultados del sistema de IA puede ser invaluable para solucionar problemas.

El camino por delante

Garantizar la equidad en el análisis de big data mejorado con IA es un camino continuo, y hay varias direcciones prometedoras, desde marcos regulatorios y capacitación ética en IA, hasta herramientas de reducción de sesgos y evaluaciones de impacto de sesgos.

Un primer paso relativamente fácil para abordar el sesgo puede ser la cooperación y la colaboración (entre gobiernos, empresas de tecnología y grupos de defensa), donde las mejores prácticas, recursos y datos compartidos pueden acelerar el progreso.

Los gobiernos y las agencias reguladoras reconocen cada vez más la importancia de abordar la IA sesgada y ya se han tomado medidas para participar en el desarrollo de un marco regulatorio integral. A principios de noviembre, Gran Bretaña, Estados Unidos, China y miembros de la Unión Europea firmaron la Declaración Bletchley para regular y prevenir los riesgos potenciales de la tecnología de IA, así como un código de conducta para las empresas involucradas en la construcción de algunos de los sistemas más avanzados. También están firmados los relacionados con la IA.

Y esto se produjo a raíz de que el presidente de los EE. UU. firmara una Orden Ejecutiva sobre el desarrollo y uso seguro y confiable de la IA, ya que el uso irresponsable tiene el potencial de «aumentar los daños sociales como el fraude, la discriminación, los prejuicios y la desinformación; quitar el poder y quitar poder a los trabajadores; sofocar la competencia; y plantear amenazas a la seguridad nacional».

Las potencias mundiales, entonces, están viendo cómo la IA puede usarse en un grado dañino y están tomando medidas activas para limitarla. Como ocho principios rectores, aunque sea para los Estados Unidos de América, de la administración del presidente Biden: 1) que debe ser segura y protegida; 2) promover la innovación, la competencia y la cooperación responsable; 3) requiere un compromiso de apoyar a los trabajadores estadounidenses; 4) ser coherente con el compromiso de promover la igualdad y los derechos civiles; 5) que se deben proteger los intereses de quienes usan, interactúan o compran IA y productos habilitados para IA; 6) se deben proteger la privacidad y las libertades civiles; 7) gestionar los riesgos y aumentar la capacidad de los gobiernos nacionales para regular, gestionar y apoyar el uso responsable de la IA; 8) impedir el desarrollo social, económico y tecnológico global.

Pero también es necesario fomentar la educación y la formación éticas en IA, incluida la educación de los profesionales, desarrolladores y usuarios de la IA sobre los efectos secundarios y cómo abordarlos. Y la investigación y el desarrollo continuos de bibliotecas y herramientas de reducción de sesgos serán cruciales, al igual que la adopción de evaluaciones estandarizadas del impacto de los sesgos para ayudar a las organizaciones a medir el impacto potencial de sus sistemas de inteligencia artificial en diferentes grupos demográficos.

Superar este desequilibrio tecnológico es un desafío complejo y multifacético y requiere un esfuerzo colectivo. Sin embargo, es importante destacar que el desafío no es insuperable y, si nos centramos de frente y garantizamos la equidad en el análisis de big data impulsado por la IA, el camino hacia un futuro de IA imparcial está claramente a nuestro alcance.

El autor es el director ejecutivo de Presight.

Puede interesarte

Dos graduados de LaGrange College comparten un vínculo de por vida – LaGrange Daily News

Dos graduados de LaGrange College comparten un vínculo de por vida Publicado a las 9:30 …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *