El lobby relacionado con la inteligencia artificial alcanzó un nuevo nivel en 2023, con la participación de más de 450 organizaciones. Según las revelaciones de lobby federal analizadas por OpenSecrets en nombre de CNBC, eso representa un aumento del 185% con respecto al año anterior, cuando solo 158 organizaciones lo hicieron.
El aumento del lobby de la IA se produce en medio de crecientes llamados a la regulación de la IA y un impulso de la administración Biden para comenzar a codificar esas reglas. Entre las empresas que comenzaron a presionar en 2023 para opinar sobre cómo la regulación podría afectar sus negocios se encuentra el propietario de TikTok, ByteDance. tesla, Spotify, comprar, Pinterest, Samsung, Palantir, NVIDIA, buzón, Instacart, PuertaDashAntrópico y OpenAI.
Cientos de organizaciones presionaron a favor de la IA el año pasado, desde grandes empresas tecnológicas y de IA hasta empresas farmacéuticas, de seguros, financieras, académicas, de telecomunicaciones y más. Hasta 2017, el número de organizaciones que reportaron lobbying con IA se mantuvo en un solo dígito, según el análisis, pero la práctica creció de manera lenta pero segura en los años siguientes, explotándose en 2023.
Más de 330 organizaciones que presionaron sobre la IA el año pasado no habían hecho lo mismo en 2022. Los datos mostraron una variedad de industrias como nuevos participantes en el lobby de la IA: empresas de chips como AMD y TSMCfirmas de inversión como Andreessen Horowitz, empresas biofarmacéuticas como AstraZeneca, conglomerados como disney y empresas de datos de entrenamiento de IA como Appen.
Las organizaciones que han informado haber ejercido presión sobre cuestiones de IA durante el año pasado también generalmente están presionando al gobierno sobre muchas otras cuestiones. En total, informaron haber gastado un total de más de $ 957 millones presionando al gobierno federal en 2023 en temas que incluyen, entre otros, la inteligencia artificial, según OpenSecrets.
En octubre, el presidente Biden emitió una orden ejecutiva sobre IA, la primera acción del gobierno estadounidense de este tipo, que requiere nuevas evaluaciones de seguridad, orientación sobre igualdad y derechos civiles e investigaciones sobre el impacto de la IA en el mercado laboral. La orden encargó al Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. el desarrollo de pautas para evaluar ciertos modelos de IA, incluidos entornos de prueba para ellos, y fue en parte responsable de desarrollar «estándares armonizados» para la IA.
Tras la publicación de la orden ejecutiva, una oleada de legisladores, grupos industriales, grupos de derechos civiles, sindicatos y otros comenzaron a profundizar en el documento de 111 páginas, destacando prioridades, cronogramas y, a sus ojos, resultados detallados. de destacada actividad.
Un debate central es la cuestión de la equidad de la IA. Varios líderes de la sociedad civil dijeron a CNBC en noviembre que la orden no va lo suficientemente lejos como para identificar y abordar los daños en el mundo real derivados de los modelos de IA, particularmente aquellos que afectan a las comunidades marginadas. Pero dijeron que era un paso significativo en el camino.
Desde diciembre, el NIST ha estado recopilando comentarios públicos de empresas e individuos sobre cómo desarrollar mejor estas reglas, y planea finalizar el período de comentarios públicos después del viernes 2 de febrero. En su Solicitud de Información, el Instituto pidió específicamente a los encuestados que opinaran. desarrollar estándares de IA responsables, formar equipos de IA, gestionar los riesgos de la IA productiva y ayudar a reducir el riesgo de «contenido sintético» (es decir, información falsa y engañosa).
– Mary Catherine Wellons y Megan Cassella de CNBC contribuyeron al informe.