Home Noticias OpenAI contrata a un jefe ejecutivo de seguridad para mitigar los riesgos...

OpenAI contrata a un jefe ejecutivo de seguridad para mitigar los riesgos de la IA

42
0

OpenAI está buscando un nuevo “jefe de preparación” para guiar la estrategia de seguridad de la empresa en medio de crecientes preocupaciones sobre cómo se podrían utilizar indebidamente las herramientas de inteligencia synthetic.

Según el trabajo destinoel nuevo empleado recibirá un pago de 555.000 dólares para liderar el equipo de sistemas de seguridad de la compañía, que según OpenAI se centra en garantizar que los modelos de IA se “desarrollen e implementen de manera responsable”. El jefe de preparación también tendrá la tarea de rastrear los riesgos y desarrollar estrategias de mitigación para lo que OpenAI llama “capacidades de frontera que crean nuevos riesgos de daños graves”.

“Este será un trabajo estresante y te lanzarás al fondo casi de inmediato”, escribió el director ejecutivo Sam Altman en un incógnita publicación que describe la posición durante el fin de semana.

Y añadió: “Este es un papel elementary en un momento importante; los modelos están mejorando rápidamente y ahora son capaces de hacer muchas cosas maravillosas, pero también están empezando a presentar algunos desafíos reales”.

OpenAI no respondió de inmediato a una solicitud de comentarios.

La inversión de la compañía en esfuerzos de seguridad se produce cuando se intensifica el escrutinio sobre la influencia de la inteligencia synthetic en la salud psychological, luego de múltiples acusaciones que el chatbot de OpenAI, ChatGPT, estuvo involucrado en interacciones que precedieron a una serie de suicidios.

En un caso a principios de este año cubierto por CBS Informationlos padres de un joven de 16 años demandaron a la empresa, alegando que ChatGPT alentó a su hijo a planear su propio suicidio. Eso llevó a OpenAI a anunciar nuevos protocolos de seguridad para usuarios menores de 18 años.

ChatGPT también supuestamente impulsó lo que demanda presentada a principios de este mes descritos como los “delirios paranoicos” de un hombre de 56 años que asesinó a su madre y luego se suicidó. En ese momento, OpenAI dijo que estaba trabajando para mejorar su tecnología para ayudar a ChatGPT a reconocer y responder a signos de angustia psychological o emocional, reducir las conversaciones y guiar a las personas hacia el apoyo del mundo actual.

Más allá de las preocupaciones por la salud psychological, también han aumentado las preocupaciones sobre cómo se podría utilizar la inteligencia synthetic para llevar a cabo ataques de ciberseguridad. Samantha Vinograd, colaboradora de CBS Information y exfuncionaria de alto rango de Seguridad Nacional en la administración Obama, abordó el tema en CBS Information. “Face the Nation con Margaret Brennan” el domingo.

“La IA no sólo nivela el campo de juego para ciertos actores”, afirmó. “En realidad, trae nuevos jugadores al campo, porque los individuos, los actores no estatales, tienen acceso a tecnología de costo relativamente bajo que hace que diferentes tipos de amenazas sean más creíbles y más efectivas”.

Altman reconoció los crecientes riesgos para la seguridad que plantea la IA en su publicación X y escribió que si bien los modelos y sus capacidades han avanzado rápidamente, también han comenzado a surgir desafíos.

“El impacto potencial de los modelos en la salud psychological fue algo de lo que vimos un adelanto en 2025; ahora estamos viendo que los modelos se vuelven tan buenos en seguridad informática que están comenzando a encontrar vulnerabilidades críticas”, escribió.

Ahora, continuó, “Estamos entrando en un mundo en el que necesitamos una comprensión y una medición más matizadas de cómo se puede abusar de esas capacidades y cómo podemos limitar esas desventajas… de una manera que nos permita a todos disfrutar de los tremendos beneficios”.

Según la oferta de trabajo, un solicitante calificado tendría “profunda experiencia técnica en aprendizaje automático, seguridad de IA, evaluaciones, seguridad o dominios de riesgo adyacentes” y experiencia en “diseño o ejecución de evaluaciones de alto rigor para sistemas técnicos complejos”, entre otras calificaciones.

OpenAI anunció por primera vez la creación de un equipo de preparación en 2023, según TechCrunch.

avots