Dario Amodei tiene algunas reflexiones sobre la inteligencia synthetic. De hecho, unas 38 páginas de pensamientos. El fundador de Anthropic, creador de Claude, publicó el lunes un extenso ensayo titulado “La adolescencia de la tecnología”, en el que analiza lo que considera el inmenso potencial de peligros que presentaría para el mundo lograr el desarrollo de una superinteligencia.
Por cierto, su empresa seguirá desarrollando la IA.
Amodei, que deja caer estos ensayos de vez en cuando, sugiere que la humanidad está a punto de entrar en una nueva period. “Creo que estamos entrando en un rito de iniciación, a la vez turbulento e inevitable, que pondrá a prueba quiénes somos como especie”. También podría ser nuestra última period si las cosas van mal. “La humanidad está a punto de recibir un poder casi inimaginable, y no está muy claro si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo”, escribió Amodei, y luego afirmó que “el autoritarismo impulsado por la IA me aterroriza”.
Nota al margen: Anthropic ofreció a Claude al gobierno federal de la administración Trump por $1 por año.
Hay que reconocer que Amodei tiene una vívida imaginación que demuestra a lo largo del ensayo. Relata la vez que el movimiento religioso Aum Shinrikyo liberó gasoline nervioso sarín en el metro de Tokio en 1995, lo que provocó 14 muertes y muchos heridos. Luego sugirió que poner un “genio en el bolsillo de todos” eliminaría la barrera para llevar a cabo un ataque de ese tipo, o incluso otros más mortíferos.
“El solitario perturbado que quiere matar gente pero carece de la disciplina o la habilidad para hacerlo ahora será elevado al nivel de capacidad del virólogo con doctorado, que es poco possible que tenga esta motivación”, escribió. “Me preocupa que potencialmente haya un gran número de personas así por ahí, y que si tienen acceso a una manera fácil de matar a millones de personas, tarde o temprano uno de ellos lo hará”.
Por cierto, ¿sabías que una de las evaluaciones que Anthropic publicado en su informe “Tarjeta del sistema” para Claude Opus 4.5 ¿Fue una prueba en la que al modelo se le asignó la tarea de ayudar a los virólogos a reconstruir un virus desafiante?
Es comprensible que Amodei esté impresionado con el ritmo de mejora que la IA ha experimentado en los últimos años, pero advirtió que si sigue mejorando al mismo ritmo, entonces no estamos lejos de desarrollar una superinteligencia, lo que tipos como Amodei solían llamar inteligencia synthetic common, pero que desde entonces se han alejado de eso. “Si la tendencia exponencial continúa (lo cual no es seguro, pero ahora cuenta con un historial de una década que lo respalda), entonces no pueden pasar más de unos pocos años antes de que la IA sea mejor que los humanos en prácticamente todo”, escribió.
¿Qué significaría eso exactamente? Amodei ofreció una analogía: “Supongamos que un ‘país de genios’ literal se materializara en algún lugar del mundo en ~2027. Imaginemos, digamos, 50 millones de personas, todas las cuales son mucho más capaces que cualquier ganador del Premio Nobel, estadista o tecnólogo”, escribió. “Supongamos que usted fuera el asesor de seguridad nacional de un estado importante, responsable de evaluar y responder a la situación. Think about, además, que debido a que los sistemas de inteligencia synthetic pueden operar cientos de veces más rápido que los humanos, este ‘país’ está operando con una ventaja de tiempo en relación con todos los demás países: por cada acción cognitiva que podemos tomar, este país puede tomar diez”.
Desde ese marco, el CEO de Anthorpic dijo que vale la pena considerar cuáles deberían ser nuestras mayores preocupaciones. Amodei planteó los suyos propios –incluidos los “riesgos para la autonomía”, el “uso indebido para la destrucción” y el “uso indebido para tomar el poder”— y finalmente concluyó que el informe sobre ese país lo consideraría “la amenaza a la seguridad nacional más grave que hemos enfrentado en un siglo, posiblemente en nuestra historia”.
Un recordatorio de que Anthropic está construyendo ese país en la analogía.
Anthropic ha sido, más que cualquier otra empresa de IA, proactiva a la hora de identificar los riesgos asociados con el desarrollo de la IA y abogar por un escrutinio regulatorio adicional y protecciones al consumidor (si se cree que eso es legítimo o una forma de captura regulatoria depende del espectador, pero al menos es un buen juego). Pero sigue construyendo la máquina que, según advierte, podría causar una ruina inminente. ¡No tienes que construir la máquina deadly! Y, francamente, seguir construyéndolo socava la seriedad con la que alguien debería tomar las advertencias sobre amenazas existenciales.
Si existe una preocupación actual de que la humanidad no sea lo suficientemente madura para manejar la IA, tal vez no la pongamos a disposición del público para personas con barreras mínimas de acceso, y luego presume de tus usuarios activos mensuales.











