¿Quiere implementar una IA productiva? ¡Esas son buenas noticias! Puede contarse entre la mayoría de los tomadores de decisiones de TI que también han visto el potencial de esta tecnología transformadora. Si bien GenAI tiene el potencial de agregar eficiencias significativas a su negocio, también presenta su propio conjunto de desafíos que deben superarse.
Estos son los 10 principales desafíos para la implementación de GenAI, en orden descendente de importancia.
1. Datos incorrectos
El desafío número uno en la implementación de GenAI son los datos incorrectos. Si no puede estar seguro de que sus datos sean precisos, de que estén bien secuenciados y de que estén seguros y protegidos, entonces ya está detrás de la bola ocho incluso antes de comenzar.
Si bien parece que vivimos en una nueva era, ¡la era de la IA hará realidad tus sueños más locos! – Ese viejo axioma de «basura entra, basura sale» sigue siendo tan cierto como siempre.
Si bien la gestión de datos probablemente seguirá siendo un desafío para siempre, hay novedades positivas en el horizonte. Desde los primeros días del auge del big data hace 15 años, las empresas han estado trabajando para arreglar sus bases de datos para poder construir cosas más grandes y mejores sobre ellas.
Las inversiones en gestión de datos ahora están dando sus frutos para las empresas que las realizaron, ya que esas organizaciones están bien posicionadas para beneficiarse inmediatamente de GenAI, gracias a la calidad de sus datos mejor que el promedio.
2. Cuestiones legales y regulatorias
Lo que se puede hacer legalmente con la IA y lo que no es un tema de controversia en este momento. Se están creando nuevas leyes y regulaciones para limitar hasta dónde pueden llegar las organizaciones con la IA, por lo que nos encontramos en una zona gris en lo que respecta a la adopción empresarial de la IA.
La Unión Europea avanza constantemente hacia una legislación más restrictiva. La nueva ley, denominada Ley de IA, prohibirá las formas más peligrosas de IA, como el reconocimiento facial general, y exigirá a las empresas que la utilicen para otros usos menos intrusivos pero aún potencialmente dañinos, como el uso de IA para la contratación o conseguir admisiones universitarias.
Estados Unidos está tratando de ponerse al día con sus socios de la UE en la regulación de la IA, por lo que hay una mentalidad del salvaje oeste en los 50 estados. El presidente Joe Biden firmó una orden ejecutiva en octubre ordenando a las agencias federales que comenzaran a establecer regulaciones, pero no tendrán fuerza de ley.
Esta inseguridad jurídica es motivo de preocupación para las grandes empresas, que dudan en gastar grandes sumas de dinero para desarrollar una tecnología de inteligencia artificial en el extranjero que podría prohibirse o regularse fuertemente poco después de su lanzamiento. Por tanto, muchas aplicaciones de IA están dirigidas a usuarios domésticos.
3. Falta de capacidad de procesamiento
Los usuarios no solo necesitan GPU potentes para entrenar modelos GenAI, sino que también las necesitan para renderizar. La enorme demanda de las últimas GPU de Nvidia ha superado la oferta por un margen enorme. Es importante para las grandes empresas que tienen la presencia de comprar GPU en la nube y también para los accionistas de Nvidia, pero es importante para las pequeñas y medianas empresas y las nuevas empresas que necesitan tiempo de GPU para implementar GenAI. La necesidad no es tan grande.
La gran compresión de la GPU, como cable HPC El editor Doug Eadline lo ha calificado como que no es probable que desaparezca pronto; ciertamente no en la primera mitad de 2024. Mientras tanto, Nvidia y sus competidores están trabajando arduamente para crear nuevos diseños de chips que puedan entrenar y ejecutar LLM de manera más eficiente. , lleva tiempo analizar los diseños y llevarlos a la fábrica.
En lugar de ejecutar LLM, muchas empresas están migrando a modelos de lenguaje más pequeños que no tienen las demandas de recursos de los modelos más grandes. También hay esfuerzos para reducir el tamaño de los LLM mediante agregación y cuantificación.
4. Explicación e interpretación
La explicación y la interpretación también fueron problemas antes de que GenAI se convirtiera en la pesadilla de las salas de juntas corporativas. Incluso hace apenas cinco años, las empresas estaban pensando mucho y rápidamente sobre cómo lidiar con el aprendizaje profundo, el subconjunto del aprendizaje automático que utiliza técnicas de redes neuronales para extraer patrones de una gran cantidad de datos.
En muchos casos, las empresas optaron por simplificar los sistemas de producción basados en algoritmos de aprendizaje automático, incluso si el aprendizaje profundo pudiera proporcionar una mayor precisión, porque no podían explicar cómo el sistema de aprendizaje profundo llegó a su respuesta.
Los modelos de lenguaje a gran escala (LLM) basados en GenAI son una forma de red neuronal y, por supuesto, se entrenan con grandes cantidades de datos (en el caso de GPT-4, esencialmente toda la Internet pública).
Esto plantea un problema importante a la hora de explicar cómo obtuvo el LLM su respuesta. No existe una forma correcta de afrontar este desafío. Están surgiendo algunos métodos, pero son un poco complicados. Esta sigue siendo un área de investigación activa en el mundo académico y en los departamentos de I+D de empresas y gobiernos.
5. Realidad y alucinaciones
No importa qué tan buena sea su aplicación GenAI, hará que esas cosas sucedan, o «alucinará», por así decirlo. Algunos expertos dicen que la alucinación es normal para cualquier IA que se supone debe crear, o crear, algo que no existía antes, como una oración o una imagen.
Si bien los expertos dicen que las alucinaciones nunca se erradicarán por completo, la buena noticia es que la tasa de alucinaciones ha disminuido. La versión anterior del GPT de OpenAI tenía tasas de error del orden del 20%. Actualmente se estima que esta cifra es inferior al 10%.
Existen técnicas para reducir la tendencia de los modelos de IA a alucinar, como comparar los resultados de un modelo de IA con otro, lo que puede reducir la tasa por debajo del 1%. Hasta dónde se llegará para reducir las alucinaciones depende en gran medida del caso de uso real, pero es algo que un desarrollador de IA debería considerar.
6. Falta de habilidades de IA
Como ocurre con cualquier tecnología nueva, los desarrolladores necesitarán un nuevo conjunto de habilidades con las que desarrollarse. Este es ciertamente el caso de GenAI, que introdujo un nuevo conjunto de tecnologías con las que los desarrolladores deberían familiarizarse. Pero hay algunas advertencias importantes.
No hace falta decir que saber cómo ingresar una base de datos existente en LLM y extraer de ella las respuestas apropiadas, sin violar los requisitos regulatorios, éticos, de seguridad y de privacidad, requiere cierta habilidad. La ingeniería ágil ha despegado tan rápidamente que la ingeniería ágil se ha convertido en la profesión mejor pagada en TI, con una compensación promedio de más de 300.000 dólares, según una encuesta salarial.
Sin embargo, en cierto modo, GenAI requiere menos habilidades científicas de datos de alto nivel que antes para crear e implementar aplicaciones de IA, especialmente cuando se utiliza un LLM prediseñado como GPT-4. En estos casos, un poco de conocimiento de Python es suficiente para salir adelante.
7. Seguridad y privacidad
Las aplicaciones GenAI funcionan al instante. Sin algún tipo de entrada, no se generará ningún resultado. Sin controles establecidos, no hay nada que impida que un empleado solicite una aplicación GenAI con datos confidenciales.
Por ejemplo, un informe publicado en junio pasado encontró que el 15% de los trabajadores ocultan regularmente datos confidenciales en ChatGPT. Muchas grandes empresas, incluidas Samsung, Apple, Accenture, Bank of America, JPMorgan Chase, Citigroup, Northrup Grumman, Verizon, Goldman Sachs y Wells Fargo, han prohibido el uso de ChatGPT en sus empresas.
Y una vez que los datos se ingresan en LLM, el usuario no tiene garantía de dónde terminarán. Por ejemplo, OpenAI les dice a los usuarios que utiliza sus aportaciones para entrenar sus modelos. Si no desea que los datos del modelo caduquen, debe comprar una licencia empresarial. Los ciberdelincuentes son cada vez más expertos en extraer datos confidenciales del modelo. Esa es la razón por la que la fuga de datos se incluyó entre las 10 principales amenazas a la seguridad del Open Web Application Security Project (OWASP).
Aunque los datos del modelo en sí son cerrados, existen otras debilidades. A través de las direcciones IP, la configuración del navegador y el historial de navegación, la aplicación GenAI puede potencialmente recopilar otra información sobre usted, incluidas creencias políticas u orientación sexual, todo sin su consentimiento, según una empresa de VPN llamada Internet Access Private.
8. Preocupaciones éticas
Incluso antes de que GenAI irrumpiera en escena a finales de 2022, el campo de la ética de la IA estaba creciendo rápidamente. Sin embargo, ahora que la GenAI ocupa un lugar central en el manual de estrategias de todas las empresas para 2024, la importancia de la ética de la IA ha crecido exponencialmente.
Muchas empresas luchan con algunas preguntas importantes sobre la implementación de la IA, incluido cómo lidiar con modelos de aprendizaje automático sesgados, cómo obtener el consentimiento y cómo garantizar que los modelos sean transparentes y justos. Éstas no son cuestiones triviales, por lo que la ética sigue siendo una cuestión importante.
Deloitte, uno de los líderes de la industria en el pensamiento sobre la ética en la IA, creó su AI Trust Framework en 2020 para ayudar a guiar la toma de decisiones éticas en la IA. La directriz, dirigida por Beena Ammanath, directora ejecutiva del Deloitte AI Institute, sigue siendo aplicable a GenAI.
9. Alto costo
Dependiendo de cómo se desarrollen las aplicaciones GenAI, el costo puede ser una gran parte de la ecuación. McKinsey divide el gasto en genAI en tres arquetipos. Aquellos que consuman la aplicación genAI prediseñada gastarán entre 0,5 y 2 millones de dólares. Los formadores, que ajustan los LLM existentes para su caso de uso específico, costarán entre 2 y 10 millones de dólares. Los desarrolladores que reconstruyan los modelos base (como OpenAI) gastarán entre 5 y 200 millones de dólares.
Es importante señalar que el costo de las GPU para la formación de LLM es solo el comienzo. En la mayoría de los casos, los requisitos de hardware para el acceso a datos en un LLM capacitado excederán los requisitos de hardware para su capacitación. También existe el elemento humano de crear una aplicación GenAI, especialmente si se requiere visualización de datos a largo plazo.
10. Ausencia de Acuerdo Administrativo
Cuando se trata de crear e implementar soluciones de IA, muchos gerentes están entusiasmados, pero muchos no están tan entusiasmados. Esto no es una sorpresa, considerando lo disruptiva que es la ola actual de soluciones de IA. Por ejemplo, una encuesta reciente de EY a líderes tecnológicos en servicios financieros encontró que el 36% dijo que la falta de un compromiso claro por parte del liderazgo era la mayor barrera para la adopción de la IA.
Los rendimientos potenciales de las inversiones en GenAI son enormes, pero hay barras de error que hay que tener en cuenta. Un estudio reciente de HFS Research encontró que, para muchos, el retorno de la inversión de GenAI sigue sin estar claro, especialmente con modelos de precios que cambian rápidamente.
La adopción de GenAI aumentará en 2024, a medida que las empresas busquen obtener una ventaja competitiva. Las empresas que finalmente tengan éxito serán las que superen estos obstáculos y logren implementar aplicaciones GenAI que sean legales, seguras, precisas, efectivas y que no cuesten mucho dinero.
Artículos relacionados:
GenAI niega la exageración del pop de burbujas
Predicciones de GenAI para 2024: segunda parte
Nuevos datos revelan la realidad de la adopción de la IA generativa en la empresa
Habilidades de IA, gestión de datos, calidad de datos, ética, interpretación, GenAI, IA generativa, GPU, alucinaciones, modelo de lenguaje grande, limitaciones, privacidad, ingeniería rápida, seguridad, éxito, transparencia