Home Tecnología Sam Altman se puso excepcionalmente irritable por los anuncios de Claude en...

Sam Altman se puso excepcionalmente irritable por los anuncios de Claude en el Tremendous Bowl

6
0

El comercial del Tremendous Bowl de Anthropic, uno de los cuatro anuncios que lanzó el laboratorio de inteligencia synthetic El miércolescomienza con la palabra “TRAICIÓN” escrita en negrita en la pantalla. La cámara se enfoca hacia un hombre que le pide consejo a un chatbot (obviamente destinado a representar ChatGPT) sobre cómo hablar con su madre.

El robotic, interpretado por una mujer rubia, ofrece algunos consejos clásicos. Empiece por escuchar. ¡Prueba un paseo por la naturaleza! Y luego se convierte en un anuncio de un sitio ficticio (¡esperamos!) de citas para pumas llamado Golden Encounters. Anthropic termina el anuncio diciendo que si bien los anuncios llegarán a la IA, no llegarán a su propio chatbot, Claude.

Otro comercial presenta a un joven delgado que busca consejos sobre cómo desarrollar abdominales. Después de ofrecer su altura, edad y peso, el robotic le muestra un anuncio de plantillas para aumentar la altura.

Los comerciales de Anthropic están inteligentemente dirigidos a los usuarios de OpenAI, luego del reciente anuncio de esa compañía de que los anuncios llegarán al nivel gratuito de ChatGPT. Y causaron un revuelo inmediato, generando titulares que Anthropic “se burla” “brochetas” y “mates” OpenAI.

Son tan divertidos que incluso Sam Altman admitido en X que se reía de ellos. Pero claramente no los encontraba divertidos. Lo inspiraron a escribir una diatriba del tamaño de una novela corta que desembocó en llamar a su rival “deshonesto” y “autoritario”.

En esa publicación, Altman explica que un nivel con publicidad está destinado a soportar la carga de ofrecer ChatGPT gratuito a muchos de sus millones de usuarios. ChatGPT sigue siendo el chatbot más common por un amplio margen.

Pero el CEO de OpenAI insistió en que los anuncios eran “deshonestos” al implicar que ChatGPT tergiversará una conversación para insertar un anuncio (y posiblemente para un producto de mal gusto, para empezar). “Obviamente nunca publicaríamos anuncios en la forma en que Anthropic los describe”, escribió Altman en la publicación en las redes sociales. “No somos estúpidos y sabemos que nuestros usuarios lo rechazarían”.

Evento tecnológico

Boston, Massachusetts
|
23 de junio de 2026

De hecho, OpenAI ha prometido que los anuncios estarán separados, etiquetados y nunca influirán en un chat. Pero la compañía también ha dicho que planea hacerlos específicos para conversaciones, que es la acusación central de los anuncios de Anthropic. Como explicó OpenAI en su blog, “Planeamos probar anuncios en la parte inferior de las respuestas en ChatGPT cuando haya un producto o servicio patrocinado relevante según su conversación precise”.

Altman luego lanzó algunas afirmaciones igualmente cuestionables a su rival. “Anthropic ofrece un producto caro a los ricos”, escribió. “También creemos firmemente que debemos llevar la IA a much de millones de personas que no pueden pagar las suscripciones”.

Pero Claude también tiene un nivel de chat gratuito, con suscripciones de $0, $17, $100 y $200. Los niveles de ChatGPT son $0, $8, $20 y $200. Se podría argumentar que los niveles de suscripción son bastante equivalentes.

Altman también alegó en su publicación que “Anthropic quiere controlar lo que la gente hace con la IA”. Sostiene que bloquea el uso de Claude Code por parte de “compañías que no les gustan”, como OpenAI, y dijo que Anthropic le cube a la gente para qué pueden y para qué no pueden usar la IA.

Es cierto que todo el negocio de advertising and marketing de Anthropic desde el primer día ha sido “IA responsable”. Después de todo, la compañía fue fundada por dos ex alumnos de OpenAI, quienes afirmaron que se alarmaron por la seguridad de la IA cuando trabajaban allí.

Aun así, ambas empresas de chatbot tienen políticas de usobarreras de seguridad de IA y hablar sobre la seguridad de la IA. Y aunque OpenAI permite que ChatGPT se use para contenido erótico mientras Anthropic noOpenAI, al igual que Anthropic, ha determinado que algunos contenidos deberían ser bloqueadosparticularmente en lo que respecta a la salud psychological.

Sin embargo, Altman llevó este argumento de Anthropic-te-dice-qué-hacer a un nivel extremo cuando acusó a Anthropic de ser “autoritario”.

“Una empresa autoritaria no nos llevará allí por sí sola, por no hablar de los otros riesgos obvios. Es un camino oscuro”, escribió.

Usar “autoritario” en una perorata sobre un atrevido anuncio del Tremendous Bowl está, en el mejor de los casos, fuera de lugar. Es particularmente falta de tacto cuando se considera el entorno geopolítico precise en el que manifestantes alrededor del mundo han sido asesinados por agentes de su propio gobierno. Si bien los rivales comerciales han estado compitiendo en anuncios desde el principio de los tiempos, claramente Anthropic tocó un punto wise.



avotas

LEAVE A REPLY

Please enter your comment!
Please enter your name here