Home Tecnología He estudiado la IA durante décadas: por qué hay que ser cortés...

He estudiado la IA durante décadas: por qué hay que ser cortés con los chatbots (y no es por el bien de la IA)

30
0

akinbostanci/E+/Getty Pictures

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • La forma en que se habla con la IA puede influir en la forma en que se trata a las personas.
  • La mala educación con las máquinas puede normalizar el comportamiento impulsado por órdenes.
  • La cortesía hacia la IA tiene que ver realmente con la autodisciplina y el bienestar.

En 2018, una madre de Lynn, Massachusetts, llamada Lauren Johnson, con una niña de seis años llamada Alexa, creó un sitio net. alexa es humana.

En él, cube: “Imagínese que su hijo está siendo acosado, pero no puede ayudarlo. Imagínese si el acoso continúa desde la escuela, la casa, el automóvil y las tiendas, y no puede encontrar un lugar seguro. Think about que se convierte en completos desconocidos que acosan continuamente a su hijo en público. Imagínense. No tenemos que hacerlo”.

La pequeña Alexa de Massachusetts no está sola. A Artículo del Washington Post de 2021 por Alexa Juliana Ard (ahora se hace llamar principalmente Juliana), destacó cómo las personas llamadas Alexa están sufriendo insultos, comentarios degradantes, siendo tratadas como sirvientes e incluso sus empleadores las obligan a cambiar sus nombres para no interferir con los dispositivos de Alexa en sus oficinas.

Normalización del mando

Las personas no solo tratan a los Alexa humanos como robots, sino que también están aprendiendo lo que los científicos llaman “normalización del comando”.

Además: 10 trucos de ChatGPT que uso para obtener los mejores resultados y más rápido

Investigadores de la Facultad de Medicina Clínica de la Universidad de Cambridge informe que interactuar con asistentes de voz de IA como Alexa durante el desarrollo de la primera infancia permite la falta de cortesía y la erosión de la empatía, cuando los niños se acostumbran a dar órdenes.

En otras palabras, como afirma el inversor en tecnología Hunter Stroll. lo describió“Amazon Echo es mágico. También está convirtiendo a mi hijo en un imbécil”.

Básicamente, el hecho de que estos asistentes de IA sean máquinas hace que esté bien ser grosero con ellos. Ciertamente son Lo suficientemente frustrante a veces como para que la mala educación parezca justificada.. Pero también hay otras implicaciones.

Por ejemplo, A UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) informe publicado antes de la pandemia muestra cómo la prevalencia de identidades femeninas en los asistentes de IA “refuerza los prejuicios de género y alienta a los usuarios a tratar a las entidades femeninas como subordinadas”.

Efecto desinhibición on-line

Pero este comportamiento no se limita a la interacción entre humanos y IA. Ya en 2004, el psicólogo John Suler publicó un artículo titulado “El efecto desinhibición online” en el diario CiberPsicología y Comportamiento.

En él, analizó por qué las personas se comportan de manera diferente en línea que cuando interactúan cara a cara. Sostiene que factores como el anonimato, la invisibilidad y la falta de consecuencias sociales inmediatas reducen las restricciones psicológicas y dan a las personas la sensación de que está bien comportarse con más hostilidad o grosería.

Ahora, acerquémonos al día de hoy, cuando no solo tenemos asistentes de comando y respuesta como Siri y Alexa, sino que tenemos chatbots completos como ChatGPT y herramientas de inteligencia synthetic como Claude Code. Aquí, El efecto desinhibición online. puede estar en plena floración.

Mi interés en esto no es realmente cómo hablamos con nuestras IA. Más bien, se trata de lo que nos condiciona a hacer hablar con las IA cuando nos comunicamos en common.

La ventana de Overton

El Ventana Overton es un concepto político y psicológico descrito originalmente a mediados de la década de 1990 por Joseph P. Overton en el Centro Mackinac de Políticas Públicas. Originalmente se propuso para describir la variedad de concepts que el público considera aceptables y, por lo tanto, que los políticos pueden promover con seguridad.

Sin embargo, con el tiempo, la ventana de Overton se ha utilizado para describir cómo se amplía o se cut back el alcance de aquello con lo que nos sentimos cómodos, ya sea relacionado con la política o no. A medida que la ventana se expande, comportamientos o conceptos con los que de otro modo nos habríamos sentido incómodos en el pasado ahora se vuelven comunes y aceptables.

Además: ¿Quieres mejores respuestas de ChatGPT? Pruebe este sorprendente truco, dicen los investigadores

Mi preocupación, y el impulso de este artículo, es que la forma en que nos comportamos e interactuamos con las IA puede influir en cómo nos comportamos e interactuamos con otros humanos. Después de todo, la experiencia de chatear con un chatbot no es tan diferente a la experiencia de chatear con un colega, cliente o jefe a través de Slack.

Perdí la calma con ChatGPT el año pasado cuando me llevó a una madriguera profundamente frustrante. No estoy orgulloso de esa experiencia. Me permito usar malas palabras y demostrar molestia a la IA de una manera que espero nunca haber hecho con un colega. De hecho, fue esa experiencia la que inspiró las prácticas de comportamiento que exploraré en el resto de este artículo.

Por qué siempre soy cortés con las IA

Mi preocupación es que alguna combinación de la normalización del comando y el efecto de desinhibición en línea practicado regularmente con IA podría expandir mi ventana Overton de comportamiento practicado y, por lo tanto, filtrarse en cómo me comporto con otros humanos.

No quiero acostumbrarme hasta el punto en que sea regular o aceptable comportarme de manera grosera con mis IA. Más concretamente, quiero mantener mi práctica de ser cortés, respetuoso y amigable con los humanos con los que interactúo, y la forma más fácil de mantener eso es comportarme de la misma manera con los robots.

Además: realicé 4 años de desarrollo de productos en 4 días por $ 200 y todavía estoy atónito.

Cambiar de contexto entre ser cortés con los colegas y exigir con las IA parece bastante fácil. Pero, como fatiga de decisióndonde demasiadas decisiones te desgastan psychological y emocionalmente, el cambio de contexto entre la IA y los contextos humanos también puede ser agotador.

No quiero agregar la carga psychological (y el riesgo de comportamiento) de tener que recordar que ahora estoy hablando con mi cliente y necesito ser cortés, versus ahora estoy hablando con la IA y puedo soltar cualquier mal humor que haya reprimido.

Además: Claude Code ganó la sorprendente suma de mil millones de dólares en 6 meses, y mi propia aplicación para iPhone codificada con IA muestra por qué

Otra razón por la que me esfuerzo por ser siempre cortés con las IA es que me mantiene en una mentalidad de investigación colaborativa, en la que trato a una IA como a un miembro más del equipo. He tenido un enorme éxito al utilizar ese enfoque con OpenAI Codex para crear cuatro potentes complementos de seguridad de WordPress, y con Claude Code para crear una aplicación de iPhone compleja y única para administrar el flujo de trabajo y el inventario de filamentos de mi impresora 3D.

Además, el mal humor requiere un peaje mental todo por sí solo. Puede provocar mayor ansiedad, depresión, baja autoestima, falta de concentración, agotamiento emocional, poca satisfacción con la vida e incluso síntomas físicos como dolor de cabeza, fatiga, insomnio, presión arterial alta y un sistema inmunológico debilitado.

Mantener la calma y seguir adelante, ya sea con personas o con IA, es mejor para mi salud física y psychological. Si un poco de cortesía hacia una máquina insensible puede ayudarme a mantenerme cuerdo y saludable, ¿qué es lo que no puedo amar?

¿Pero le importa a la IA?

¿Las herramientas de IA tienen diferentes características de rendimiento cuando se las trata con cortesía? Los estudios no están de acuerdo. Como issue de confusión en la premisa de este artículo, Lance Whitney de ZDNET escribió sobre un estudio realizado por investigadores de la Universidad Penn State que mostró cómo algunas IA pueden ser más precisas cuando se les habla de manera más grosera.

Por otra parte, un estudio presentado En la Conferencia de 2024 sobre métodos empíricos en el procesamiento del lenguaje pure, celebrada por investigadores de la Universidad Waseda de Tokio, se descubrió que la cortesía moderada a veces puede aumentar el cumplimiento y la eficacia de la IA. Sin embargo, los investigadores advierten que el exceso de cortesía y servilismo pueden dar lugar a resultados más negativos.

Finalmente, el New York Occasions informes que Sam Altman, director ejecutivo de OpenAI, afirmó que la empresa incurre en un costo multimillonario porque algunas personas usan “por favor” y “gracias” en los chats de IA. Esto se debe a que cada token tiene una carga de procesamiento sustancial. Esa carga adicional puede conducir al uso de recursos energéticos e hídricos adicionales.

Me imagino que si te sientes cómodo con el uso de recursos al pedirle a una IA que hable como un pirata, probablemente deberías aceptar usar un poco más de energía y agua para seguir siendo humano.

se trata de personas

En realidad, mi verdadera conclusión no tiene nada que ver con la utilización de los recursos de la IA, ni siquiera con el rendimiento de la IA. Mi conclusión es que siempre quiero ser cortés al hablar con las IA porque es mejor para mis relaciones con otros humanos, mi rendimiento cognitivo private y mi bienestar common.

En pocas palabras: ser cortés con las IA no se trata de las IA. Se trata de personas. Como el bardo de Avon escribió“Esto sobre todo: sé sincero contigo mismo, y debe seguir, como la noche el día, que no podrás ser falso con ningún hombre”.

¿Qué pasa contigo? ¿Se muestra cortés o directo al interactuar con herramientas de inteligencia synthetic? ¿Eso ha cambiado la forma en que se comunica con personas en otros lugares? ¿Le preocupa que los hábitos formados con chatbots o asistentes de voz puedan extenderse al trabajo, la familia o las conversaciones en línea?

Si tiene hijos, ¿ha pensado en lo que podría enseñarles el uso de asistentes controlados por comandos? ¿Ha notado alguna diferencia en su propia concentración, estado de ánimo o productividad en función de cómo interactúa con la IA? ¿Y la thought de que la cortesía tiene un costo actual de recursos cambia tu forma de pensar al respecto? Háganos saber en los comentarios a continuación.


Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanaly sígueme en Twitter/X en @DavidGewirtzen Fb en Facebook.com/DavidGewirtzen Instagram en Instagram.com/DavidGewirtzen Bluesky en @DavidGewirtz.comy en YouTube en YouTube.com/DavidGewirtzTV.



avotas