Home Tecnología Siga estos 8 consejos de expertos en seguridad para mantenerse seguro al...

Siga estos 8 consejos de expertos en seguridad para mantenerse seguro al utilizar chatbots de IA

32
0

Chatear con IA sigue siendo un fenómeno relativamente nuevo.

Aunque recurre a los chatbots para concepts de recetas, planificación de viajes y respuestas rápidas es inofensivo (en su mayor parte), hay muchas cuestiones de las que hay que tener cuidado cuando se trata de la seguridad de la IA.

A menudo compartimos información muy private en línea, pero las mismas protecciones de confidencialidad (las que disfruta con abogados humanos, terapeutas y médicos, no se aplican a Chatbots de IA. Muchos usuarios emplean ChatGPT como digital entrenador de vidacompartiendo datos y problemas personales y profesionales a través de la aplicación o programa. También hay un riesgo cognitivo asociado con el uso de un modelo de lenguaje grande, a medida que más estudios comienzan a examinar cómo la dependencia de los chatbots afecta la retención de la memoria, la creatividad y la fluidez en la escritura.

Aquí tienes una guía para tener cuidado con los chatbots. Le explicaremos por qué es importante evitar la entrega de datos confidenciales, cómo afrontar los problemas de salud psychological y qué puede hacer para prevenir la atrofia cognitiva a largo plazo debido a no ejercitar ciertas partes de su cerebro.


No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.


1. Trate los chatbots de IA como entornos públicos

Recuerde que los chatbots de IA son “entornos públicos”, no conversaciones privadas, cube Mateo popainvestigador cibernético y director ejecutivo de CNC Intelligence.

Atlas de IA

CNET

“Si tenemos esto en cuenta, será menos possible que compartamos datos confidenciales que puedan volverse visibles para otros”, afirma Stern.

Dado que los historiales de los chatbots se pueden buscar en línea, Stern cube que le preocupa que los motores de búsqueda indexen sus conversaciones.

Evite compartir información de identificación private, como su nombre completo, dirección, detalles financieros, datos comerciales y resultados médicos. Cuanto más compartas, más personalizados serán tus resultados. Claro, eso podría parecer algo bueno en la superficie.

Pero entregar datos confidenciales a una empresa de tecnología debería hacerle reflexionar. Incluso si esos detalles no se pueden buscar públicamente, nunca se sabe qué información comprarán y venderán los corredores de datos sobre usted.

2. No compartas demasiado tu estado psychological

Una imagen que muestra la pantalla de un teléfono con cuadros de chat entre una persona y un robot, rodeada de gráficos y cuadros.

Arthobbit/Getty Photos

Los chatbots pueden ser asistentes útiles, pero no son tus amigos, cube Elie Berrebyjefe de búsqueda de search engine marketing y IA en Adorama. Sugiere “guardar tus secretos” y nunca hablar de tu estado psychological, miedos o problemas de salud. Estos datos se pueden utilizar para identificar patrones ocultos e intenciones subconscientes, creando un perfil de vulnerabilidad.

“No compartas demasiado. Ellos ya saben más sobre ti de lo que imaginas”, cube Berreby.

Además, tenga en cuenta que el objetivo principal de los chatbots de IA es la monetización, es decir, generar ingresos.

“Pronto, esta personalización se utilizará para mostrarle anuncios muy específicos”, afirma. “Estos datos no tienen precio para los anunciantes, pero crean un perfil de vigilancia más profundo que cualquier cosa que hayamos visto hasta ahora”.

3. No “traigas todo tu ser” al chatbot

Los chatbots de IA existen dentro de las economías de atención, donde su compromiso es el producto, cube el estratega intercultural Annalisa Nash Fernández.

“Si los chatbots finalmente monetizan a través de la recopilación de datos y la retención de usuarios, las funciones de memoria se convierten en herramientas de interacción disfrazadas de personalización, porque la atención está por encima de todo, incluida la privacidad”, afirma.

Desactive las funciones de memoria para reducir lo que los sistemas retienen sobre usted. Para ChatGPT, navegue hasta Ajustes > Personalización > apagar Memoria y Modo de grabación.

Una captura de pantalla que muestra cómo desactivar las funciones de memoria en ChatGPT

Deshabilite las funciones de memoria en ChatGPT.

ChatGPT/Captura de pantalla de CNET

Utilice direcciones de correo electrónico secundarias, para que los chatbots no tengan este tipo de identificador para usted: los correos electrónicos son “el tejido conectivo que une puntos de datos dispares”, cube Fernández.

Opte por no participar en la capacitación, para que el chatbot no se capacite solo con sus entradas. En ChatGPT, haga clic en su perfil/nombre, seleccione Ajustes > entonces Mejorar el modelo para todos > y apágalo.

Una captura de pantalla que muestra cómo cancelar la capacitación en ChatGPT

Opte por no participar en la capacitación en ChatGPT.

ChatGPT/Captura de pantalla de CNET

Berreby también le aconseja “fragmentar sus datos” cambiando entre diferentes chatbots de IA para evitar darle a una sola entidad una imagen completa de su vida.

4. Exporta tus datos

Cualquiera que sea el chatbot de IA que estés utilizando, exporta periódicamente tus datos para ver qué información ha almacenado sobre ti.

En ChatGPT, ve a Ajustes > Controles de datos > Exportar datos. Le enviará por correo electrónico un enlace con un archivo ZIP de texto y fotografías.

Una captura de pantalla que muestra cómo exportar sus datos desde ChatGPT

Exporte periódicamente sus datos desde ChatGPT para ver qué información almacena el chatbot sobre usted.

ChatGPT / Captura de pantalla de CNET

5. Verifique todo

Sea siempre precavido con el contenido generado por IA. Espere errores y acerque la información con dudas. Los chatbots de IA están diseñados ser útiles: son lo máximo en complacer a la gente. Esto no significa que la información sea verdadera o precisa.

El sesgo cognitivo también es un problema con los chatbots. Si lo estás utilizando como compañero de pensamiento, te refleja lo que pusisteconvirtiéndose esencialmente en una cámara de eco definitiva.

Siempre consulte sus fuentes y pregunte de dónde obtuvo la información. Alucinaciones de IA También se producen casos en los que los chatbots falsifican información basándose en fuentes en línea poco fiables o sacando conclusiones incorrectas.

6. Cuidado con los estafadores astutos

Una imagen que muestra cuadros de chat de neón multicolores flotando, uno de los cuales dice AI

Andriy Onufriyenko/Getty Photos

Chatbots de IA son capaces de mantener conversaciones de varios turnos, cube Ron Bordillosdirector ejecutivo de Kidas, una empresa que protege contra estafas y amenazas en línea. Estas interacciones de ida y vuelta podrían ser imitadas por malos actores en sitios internet poco fiables que se hacen pasar por útiles chatbots de servicio al cliente.

“Si bien las grandes plataformas como ChatGPT son generalmente seguras, el riesgo radica en que los usuarios compartan involuntariamente credenciales de acceso a través de enlaces de phishing o páginas de inicio de sesión falsas, a menudo distribuidas por correo electrónico, SMS o sitios internet clonados”, cube Curbs. “Una vez que las credenciales se ven comprometidas, un estafador podría hacer un mal uso de la cuenta, especialmente si está vinculada a métodos de pago guardados”.

Curbs cube que debes habilitar la autenticación de dos factores, monitorear el acceso a la cuenta y evitar iniciar sesión a través de enlaces de terceros. Puede que sea menos conveniente, pero es un pequeño precio a pagar.

Si bien todavía no existe un antivirus equivalente para los chatbots de IA, algunas herramientas ofrecen detección de estafas como una capa de protección diaria, especialmente cuando están integradas en plataformas de mensajería y proveedores de servicios.

Curbs cube que es esencial no sólo escanear su disco duro en busca de virus, sino también monitorear sus interacciones a través de SMS, correo electrónico y llamadas de voz para detectar posibles estafas. La protección deepfake también puede analizar audio y video para detectar si la persona con la que estás hablando es un clon de IA.

7. Confía en las personas, no en la IA

Este consejo no es táctico, pero es importante: si bien es posible que no veas ningún daño en hablar con ChatGPT, claudio o Géminis sobre un problema que estás teniendo, usar un chatbot como diario es una pendiente resbaladiza.

En su lugar, llama a un buen amigo o planifica una puesta al día para compartir lo que estás pasando con alguien que se preocupa por ti, no un modelo de IA predictivo entrenado por extraños.

8. Practicar (y proteger) el pensamiento crítico

No subcontrates tu pensamiento a la IA. Un continuo estudio del MIT (aún por ser revisado por pares) llevó a cabo una exploración preliminar del potencial de que los modelos de lenguaje grandes sean perjudiciales para nuestro estado psychological, mostrando una “conectividad neuronal más débil” en los cerebros de los participantes que usaron ChatGPT.

Utilice la IA para tareas de bajo nivel, pero mantenga la creación, el pensamiento y la estrategia fuera de los algoritmos.

Aquí están los Las mejores cosas para usar la IAasí como lo peor.

(Divulgación: Ziff Davis, la empresa matriz de CNET, presentó en abril una demanda contra OpenAI, fabricante de ChatGPT, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de inteligencia synthetic).



avotas