Si alguien alguna vez hace una serie de HBO Max sobre la industria de la inteligencia synthetic, los eventos de esta semana constituirán un gran episodio.
El miércoles, el director ejecutivo de aplicaciones de OpenAI, Fidji Simo, anunció que la compañía había vuelto a contratar a Barret Zoph y Luke Metz, cofundadores de la startup de inteligencia synthetic de Mira Murati, Pondering Machines Lab. Zoph y Metz dejaron OpenAI a finales de 2024.
Anoche informamos sobre dos narrativas que se estaban formando en torno a lo que llevó a las salidas y desde entonces hemos aprendido nueva información.
Una fuente con conocimiento directo cube que el liderazgo de Pondering Machines creía que Zoph participó en un incidente de mala conducta grave mientras estaba en la empresa el año pasado. Ese incidente rompió la confianza de Murati, cube la fuente, e interrumpió la relación laboral de la pareja. La fuente también alegó que Murati despidió a Zoph el miércoles, antes de saber que iría a OpenAI, debido a lo que la compañía afirmó que eran problemas que surgieron después de la supuesta mala conducta. Cuando la compañía se enteró de que Zoph regresaría a OpenAI, Pondering Machines expresó su preocupación internamente sobre si había compartido información confidencial con sus competidores. (Zoph no ha respondido a varias solicitudes de comentarios de WIRED).
Mientras tanto, en un memorando enviado el miércoles a los empleados, Simo afirmó que las contrataciones habían estado trabajando durante semanas y que Zoph le dijo a Murati que estaba considerando dejar Pondering Machines el lunes, antes de la fecha en que fue despedido. Simo también dijo a los empleados que OpenAI no comparte las preocupaciones de Pondering Machines sobre la ética de Zoph.
Además de Zoph y Metz, otro ex investigador de OpenAI que trabajaba en Pondering Machines, Sam Schoenholz, se reincorporará al creador de ChatGPT, según el anuncio de Simo. Se espera que al menos dos empleados más de Pondering Machines se unan a OpenAI en las próximas semanas, según una fuente familiarizada con el asunto. El reportero de tecnología Alex Heath fue el primero en informar sobre las contrataciones adicionales.
Otra fuente familiarizada con el asunto rechazó la percepción de que los recientes cambios de private estaban totalmente relacionados con Zoph. “Esto ha sido parte de una larga discusión en Pondering Machines. Hubo discusiones y desalineamientos sobre lo que la empresa quería construir: se trataba del producto, la tecnología y el futuro”.
Pondering Machines Lab y OpenAI declinaron hacer comentarios.
A raíz de estos eventos, hemos escuchado a varios investigadores de los principales laboratorios de inteligencia synthetic decir que están agotados por el drama constante en su industria. Este incidente específico recuerda el breve derrocamiento de Sam Altman por parte de OpenAI en 2023, conocido dentro de OpenAI como “el problema”. Murati jugó un papel clave en ese evento como entonces director de tecnología de la compañía, según un informe de The Wall Road Journal.
En los años transcurridos desde el derrocamiento de Altman, el drama en la industria de la IA ha continuado, con la salida de los cofundadores de varios laboratorios de IA importantes, incluidos Igor Babuschkin de xAI, Daniel Gross de Secure Superintelligence y Yann LeCun de Meta (después de todo, cofundó el antiguo laboratorio de IA de Fb, FAIR).
Algunos podrían argumentar que el drama está justificado para una industria naciente cuyos gastos son contribuyendo al crecimiento del PIB de Estados Unidos. Además, si acepta la concept de que uno de estos investigadores podría lograr algunos avances en el camino hacia AGI, probablemente valga la pena seguir hacia dónde se dirigen.
Dicho esto, muchos investigadores comenzaron a trabajar antes del gran éxito de ChatGPT y parecen sorprendidos de que su industria sea ahora fuente de escrutinio casi constante.
Mientras los investigadores puedan seguir recaudando rondas de semillas de miles de millones de dólares por capricho, suponemos que los cambios de poder en la industria de la IA continuarán a buen ritmo. Escritores de HBO Max, bloqueen.
Cómo los laboratorios de IA están capacitando a los agentes para que hagan su trabajo
La gente en Silicon Valley ha estado reflexionando sobre la posibilidad de que la IA desplace puestos de trabajo durante décadas. Sin embargo, en los últimos meses, los esfuerzos para lograr que la IA realice un trabajo económicamente valioso se han vuelto mucho más sofisticados.
Los laboratorios de IA están mejorando los datos que utilizan para crear agentes de IA. La semana pasada, WIRED informó que OpenAI ha estado pidiendo a contratistas externos de la firma Handshake que carguen ejemplos de su trabajo actual de trabajos anteriores para evaluar a los agentes de OpenAI. Las empresas piden a los empleados que limpien estos documentos de cualquier dato confidencial e información de identificación private. Si bien es posible que se escapen algunos secretos o nombres corporativos, probablemente eso no sea lo que OpenAI busca (aunque la compañía podría meterse en serios problemas si eso sucede, dicen los expertos).












