Home Tecnología Te ruego que dejes de antropomorfizar la IA. He aquí por qué...

Te ruego que dejes de antropomorfizar la IA. He aquí por qué es perjudicial

46
0

En la carrera por hacer que los modelos de IA parezcan cada vez más impresionantes, las empresas de tecnología han adoptado un enfoque teatral del lenguaje. Siguen hablando de la IA como si fuera una persona. No sólo sobre el “pensamiento” o la “planificación” de la IA (esas palabras ya son complicadas), sino que ahora están discutiendo una El “alma” del modelo de IA y cómo los modelos “confiesan”, “quieren”, “planean” o “se sienten inseguros”.

Esto no es una floritura de advertising inofensiva. Antropomorfizar la IA es engañoso, irresponsable y, en última instancia, corrosivo para la comprensión que tiene el público de una tecnología que ya lucha con la transparencia, en un momento en el que la claridad es lo más importante.

Las investigaciones de las grandes empresas de IA, destinadas a arrojar luz sobre el comportamiento de la IA generativa, a menudo se formulan de manera que oscurecen más que iluminan. Tomemos, por ejemplo, una publicación reciente de OpenAI que detalla su trabajo para lograr que sus modelos “confiesen” sus errores o atajos. Es un experimento valioso que investiga cómo un chatbot informa ciertos “malos comportamientos”, como alucinaciones e intrigas. Pero la descripción que hace OpenAI del proceso como una “confesión” implica que hay un elemento psicológico detrás de los resultados de un modelo de lenguaje grande.

Quizás eso se deba al reconocimiento de lo difícil que es para un LLM lograr una verdadera transparencia. Hemos visto que, por ejemplo, los modelos de IA no pueden demostrar de manera confiable su trabajo en actividades como resolviendo sudokus.

Hay una brecha entre qué La IA puede generar y cómo lo genera, que es exactamente por qué esta terminología humana es tan peligrosa. Podríamos estar discutiendo los límites y peligros reales de esta tecnología, pero los términos que etiquetan a la IA como seres conscientes solo minimizan las preocupaciones o pasan por alto los riesgos.


No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.


La IA no tiene alma.

Los sistemas de IA no tienen alma, motivos, sentimientos ni ethical. No “confiesan” porque se sienten obligados por la honestidad, como tampoco una calculadora “se disculpa” cuando presiona la tecla equivocada. Estos sistemas generan patrones de texto basados ​​en relaciones estadísticas aprendidas de vastos conjuntos de datos.

Eso es todo.

Todo lo que parece humano es la proyección de nuestra vida inside en un espejo muy sofisticado.

La antropomorfización de la IA da a la gente una thought equivocada sobre lo que realmente son estos sistemas. Y eso tiene consecuencias. Cuando comenzamos a asignar conciencia e inteligencia emocional a una entidad donde no existe ninguna, comenzamos a confiar en la IA de una manera en la que nunca se debería confiar.

Hoy en día, más personas recurren a “Physician ChatGPT” para orientación médica en lugar de depender de médicos calificados y con licencia. Otros están recurriendo a respuestas generadas por IA en áreas como finanzas, salud emocional y relaciones interpersonales. Algunos se están formando dependientes. pseudo-amistad con chatbots y acudir a ellos en busca de orientación, asumiendo que todo lo que un LLM escupe es “lo suficientemente bueno” para informar sus decisiones y acciones.

Cómo deberíamos hablar de IA

Cuando las empresas se inclinan hacia el lenguaje antropomórfico, desdibujan la línea entre simulación y sensibilidad. La terminología infla expectativas, genera miedo y distrae la atención de los problemas reales que realmente merecen nuestra atención: sesgo en los conjuntos de datos, uso indebido por parte de malos actores, seguridad, confiabilidad y concentración de poder. Ninguno de esos temas requiere metáforas místicas.

Tomemos como ejemplo la reciente filtración de Anthropic de su “documento del alma,” utilizado para entrenar el carácter, la autopercepción y la identidad de Claude Opus 4.5. Esta estrafalaria pieza de documentación interna nunca tuvo la intención de hacer una afirmación metafísica, más bien como si sus ingenieros estuvieran improvisando una guía de depuración. Sin embargo, el lenguaje que estas empresas usan a puerta cerrada inevitablemente se filtra en la forma en que la población basic habla de ellos. Y una vez que ese lenguaje se mantiene, moldea nuestros pensamientos sobre la tecnología, así como también cómo nos comportamos en torno a ella.

O tome la investigación de OpenAI en Investigación “intrigante” de IAdonde un puñado de respuestas raras pero engañosas llevaron a algunos investigadores a concluir que los modelos ocultaban intencionalmente ciertas capacidades. Examinar los resultados de la IA es una buena práctica; dar a entender que los chatbots pueden tener motivos o estrategias propias no lo es. El informe de OpenAI en realidad decía que estos comportamientos fueron el resultado de datos de entrenamiento y ciertas tendencias, no signos de engaño. Pero debido a que usó la palabra “intrigación”, la conversación giró hacia la preocupación de que la IA fuera una especie de agente intrigante.

Hay palabras mejores, más precisas y más técnicas. En lugar de “alma”, hable de la arquitectura o la formación de un modelo. En lugar de “confesión”, llámelo informe de errores o comprobaciones de coherencia interna. En lugar de decir “esquemas” de un modelo, describa su proceso de optimización. Deberíamos referirnos a la IA utilizando términos como tendencias, resultados, representaciones, optimizadores, actualizaciones de modelos o dinámicas de entrenamiento. No son tan dramáticos como “alma” o “confesión”, pero tienen la ventaja de estar basados ​​en la realidad.

Para ser justos, hay razones por las que estos comportamientos de LLM parecen humanos: las empresas los entrenaron para imitarnos.

Como dicen los autores del artículo de 2021 “Sobre los peligros de los loros estocásticos” señaló, los sistemas creados para replicar el lenguaje y la comunicación humanos finalmente lo reflejarán: nuestra verborrea, sintaxis, tono y tenor. La semejanza no implica una verdadera comprensión. Significa que el modelo está realizando aquello para lo que fue optimizado. Cuando un chatbot imita de manera tan convincente como los chatbots ahora pueden hacerlo, terminamos leyendo la humanidad en la máquina, aunque tal cosa no esté presente.

El lenguaje da forma a la percepción pública. Cuando las palabras son descuidadas, mágicas o intencionalmente antropomórficas, el público termina con una imagen distorsionada. Esa distorsión beneficia sólo a un grupo: las empresas de inteligencia synthetic que se benefician de los LLM y parecen más capaces, útiles y humanas de lo que realmente son.

Si las empresas de IA quieren generar confianza pública, el primer paso es easy. Dejen de tratar a los modelos de lenguaje como seres místicos con alma. Ellos no tienen sentimientos, nosotros sí. Nuestras palabras deben reflejar eso, no oscurecerlo.

Lea también: En la period de la IA, ¿cómo es el significado?



avotas