Home Tecnología Los agentes de IA están a punto de chocar contra un muro...

Los agentes de IA están a punto de chocar contra un muro matemático, según un estudio

24
0

La tecnología subyacente detrás de la mayoría de los modelos de inteligencia synthetic ampliamente disponibles son los grandes modelos de lenguaje, una forma de aprendizaje automático y procesamiento del lenguaje. La apuesta que están haciendo la mayoría de las empresas de IA es que los LLM, si reciben suficientes datos, lograrán algo así como autonomía complete para pensar y funcionar de manera comparable a los humanos, pero con aún más conocimiento colectivo. Resulta que apostar por un crecimiento infinito podría no tener grandes probabilidades de dar resultados. A nuevo estudio afirma mostrar una prueba matemática de que “los LLM son incapaces de llevar a cabo tareas computacionales y de agencia más allá de una cierta complejidad”.

El artículo, publicado por los investigadores padre e hijo Vishal Sikka y Varin Sikka y aparecido recientemente por Wired después de su publicación inicial pasó desapercibida, tiene una conclusión bastante easy, aunque hay un poco de matemáticas complicadas para llegar a ella. Resumido de la manera más easy posible, razona que ciertas indicaciones o tareas proporcionadas a un LLM requerirán un cálculo más complejo que el que el modelo es capaz de procesar, y cuando eso sucede, el modelo no completará la acción solicitada o realizará la tarea incorrectamente.

La premisa básica de la investigación realmente arroja un poco de agua fría sobre la concept de que la IA agente, modelos a los que se les pueden asignar tareas de varios pasos que se completan de forma completamente autónoma sin supervisión humana, serán el vehículo para lograr la inteligencia synthetic basic. Eso no quiere decir que la tecnología no tenga una función o no vaya a mejorar, pero sí impone un límite mucho más bajo a lo que es posible que lo que a las empresas de IA les gustaría reconocer cuando dicen que “el cielo es el límite”.

Los investigadores no son los primeros en sugerir que los LLM pueden no ser tan buenos como parecen, aunque su investigación pone matemáticas reales detrás de la sensación que muchos escépticos de la IA han expresado. El año pasado, investigadores de Apple publicó un artículo que concluyó que los LLM no son capaces de razonar o pensar realmente, a pesar de crear la apariencia de hacerlo. Benjamin Riley, fundador de la empresa Cognitive Resonance, escribió el año pasado que debido a la forma en que funcionan los LLM, nunca alcanzarán realmente lo que consideramos “inteligencia”. Otros estudios han probado los límites de los modelos de IA impulsados ​​por LLM para ver si son capaces de producir resultados creativos novedosos. con resultados bastante aburridos.

Pero si nada de esto es convincente y lo tuyo son las ecuaciones matemáticas elaboradas, entonces el estudio de los Sikkas puede ser la prueba que necesitas. Todo esto es parte de un creciente conjunto de evidencia que sugiere que sea lo que sea que la IA sea capaz de hacer en su forma precise, es casi seguro que no será la tecnología que superará la inteligencia humana para finales de este año, como dijo Elon Musk. reclamado recientemente.

avotas