Los chatbots prometen un futuro que nunca se realizará

Hablar con su computadora ha sido el sueño de futuristas y tecnólogos durante décadas. Cuando miras el estado de la técnica en 2004, es sorprendente lo lejos que hemos llegado. Ahora tenemos miles de millones de dispositivos a nuestro alcance y hogares que escuchan nuestras preguntas y hacen todo lo posible para responderlas. Pero a pesar de todo el tiempo, dinero y esfuerzo, los chatbots de todo tipo no se han apoderado del mundo como pretendían sus creadores. Son milagros. También son aburridos. Y cabe preguntarse por qué.

Chatbot es un término que abarca muchos sistemas, desde asistentes de voz hasta inteligencia artificial y todo lo demás. Hablar con su computadora en los viejos tiempos no tan buenos significaba escribir en una ventana y ver cómo la máquina intentaba hacer un facsímil de la acción conversacional en lugar de la acción real. El viejo truco de ELIZA (1964 a 1967) de actualizar las entradas de los usuarios en forma de preguntas ayudó a vender este rendimiento. Y esto continuó hasta el chatbot SmarterChild en 2001. Otra rama de este trabajo fue la digitalización analógica con motores de voz a texto, como el decepcionante pero a veces maravilloso producto de Nuance.

En 2011, las ideas de ese trabajo inicial se combinaron para crear Siri para el iPhone 4S, que silenciosamente se basó en el trabajo de Nuance. El fundador de Amazon, Jeff Bezos, vio la promesa de Siri desde el principio y lanzó un proyecto interno masivo para crear un competidor local. En 2014 llegó Alexa, seguida de Cortana y Google Assistant en los años siguientes. La informática en lenguaje natural ahora está disponible en innumerables teléfonos inteligentes y dispositivos domésticos inteligentes.

Las empresas se muestran en gran medida reacias a ser específicas sobre el costo de construir nuevos proyectos, pero la conversación se ha vuelto costosa. Forbes informó en 2011 que la compra inicial de Siri valoró a Apple en 200 millones de dólares. En 2018, El periodico de Wall Street Dave Limp informó que el equipo de Alexa de Amazon tiene más de 10.000 empleados. UNO Business Insider Una historia de 2022 sugirió que la empresa perdió más de 10 mil millones de dólares en el desarrollo de Alexa. El año pasado, La información Afirmó que Apple está gastando ahora un millón de dólares al día en el desarrollo de la IA.

Entonces, ¿para qué utilizamos esta costosa tecnología? Encienda y apague sus bombillas inteligentes, reproduzca música, responda al timbre y tal vez obtenga puntuaciones de ejercicio. En el caso de la IA, los resultados de búsqueda web pueden ser menos concisos (o una imagen de sujetos humanos con varios dedos). Ciertamente no obtendrás mucho en cuanto a interacción significativa o extracción de datos importantes de estas cosas. Porque en casi todas las situaciones, su comprensión es confusa y lucha con los matices del habla humana. Y esto no es algo aislado. En 2021, Bloomberg Según los datos internos de Amazon, hasta una cuarta parte de los compradores dejan de usar la unidad Alexa por completo dentro de la segunda semana después de tener una.

El objetivo frecuentemente declarado ha sido hacer que estas plataformas sean conversacionalmente inteligentes, respondiendo a sus preguntas y respondiendo a sus pedidos. Pero si bien puede hacer algunas cosas básicas bastante bien, como comprender principalmente cuándo le pides que atenúe las luces, todo lo demás no es tan simple. El lenguaje natural engaña a los usuarios haciéndoles pensar que los sistemas son más sofisticados de lo que realmente son. Entonces, cuando llega el momento de hacer una pregunta compleja, es probable que obtenga las primeras líneas de una página de Wikipedia, destruyendo su confianza en su capacidad para hacer algo más que reproducir música o encender el termostato.

Se supone que las IA productivas superpuestas a estas interfaces de lenguaje natural resolverán todos los problemas actualmente asociados con la voz. Sí, por un lado, estos sistemas serán mejores para simular una conversación realista y tratar de darte lo que deseas. Pero, por otro lado, cuando realmente miras lo que sale del otro lado, a menudo es una locura. Estos sistemas señalan las interacciones en la superficie pero no pueden hacer nada más importante. No olvides cuando Deportes Ilustrados Intentó utilizar contenido generado por IA que afirmaba audazmente que el voleibol puede ser «peligroso, especialmente sin una pelota real para practicar». No es sorprendente que muchos de estos sistemas, como Bloomberg reportado el año pasado, sustentado por mano de obra humana mal remunerada.

Por supuesto, los impulsores de forma sugerirán que aún estamos en los primeros días y, como dijo recientemente el director ejecutivo de OpenAI, Sam Altman, todavía necesitamos miles de millones de dólares más para la investigación y el desarrollo de chips. Pero esto es una burla de las décadas de desarrollo y de los miles de millones de dólares ya gastados para llegar hoy aquí. Pero no se trata sólo de dinero o fichas: el año pasado, Los New York Times informó que las demandas de energía de la IA por sí solas podrían alcanzar los 134 teravatios hora por año para 2027. Debido a la urgente necesidad de reducir el consumo de electricidad y hacer las cosas más eficientes, no augura nada bueno para el futuro de su desarrollo ni para nuestro futuro. ester

Hemos tenido 20 años de progreso, pero los chatbots todavía se están poniendo al día de una manera que nos dijeron que no lo harían. Al principio, es porque simplemente les cuesta entender lo que queremos, pero incluso si se resuelve, ¿de repente los abrazaremos? Después de todo, el problema fundamental persiste: simplemente no confiamos en estas plataformas, tanto porque no confiamos en su capacidad para hacer lo que queremos que hagan como por las motivaciones de sus creadores.

Uno de los ejemplos más duraderos de informática en lenguaje natural en la ficción, y citado con frecuencia por los desarrolladores del mundo real, es la computadora de Star Trek: la próxima generación. Pero incluso allí, con un asistente de voz que parece tener algo parecido a la inteligencia general, no se puede confiar en que dirija el barco por sí solo. Un miembro de la tripulación todavía se sienta en cada estación, cumpliendo las órdenes del capitán y, en general, llevando a cabo la misión. Incluso en un futuro tan avanzado que esté desprovisto de necesidades materiales, los seres todavía anhelan una sensación de control.


Banner del 20 aniversario de Engadget

Celebrar 20 aniversario de EngadgetAnalizamos los productos y servicios que han cambiado la industria desde el 2 de marzo de 2004.

Este artículo contiene enlaces de afiliados; Si hace clic en dicho complemento y realiza una compra, es posible que ganemos una comisión.

Puede interesarte

Todo lo que hay que saber sobre el nuevo chatbot de Elon Musk, Grok-1

Theo Wargo / IMAGEN DE ALAMBRE Están sucediendo muchas cosas en el campo de la …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *