Es casi imposible exagerar la importancia y el impacto de arXiv, el repositorio científico que, durante un tiempo, Justificó casi por sí solo la existencia de Internet.. ArXiv (pronunciado “archivo” o “Arr-ex-eye-vee” dependiendo de a quién le preguntes) es un depósito de preimpresiones donde, desde 1991, científicos e investigadores han anunciado “oye, acabo de escribir esto” al resto del mundo científico. La revisión por pares avanza glacialmente, pero es necesaria. ArXiv solo requiere una rápida revisión por parte de un moderador en lugar de una revisión minuciosa, por lo que agrega un paso intermedio fácil entre el descubrimiento y la revisión por pares, donde todos los descubrimientos e innovaciones más recientes pueden, con cautela, tratarse con la urgencia que merecen, más o menos instantáneamente.
Pero el uso de la IA ha herido a ArXiv y está sangrando. Y no está claro que alguna vez se pueda detener el sangrado.
como un historia reciente en The Atlantic Como señala, el creador de ArXiv y profesor de ciencias de la información de Cornell, Paul Ginsparg, ha estado preocupado desde el surgimiento de ChatGPT de que la IA pueda usarse para romper las barreras leves pero necesarias que impiden la publicación de basura en ArXiv. El año pasado, Ginsparg colaboró en un análisis que analizaba la possible IA en los envíos de arXiv. De manera bastante horrorosa, los científicos que evidentemente usaron LLM para generar artículos de apariencia believable fueron más prolíficos que aquellos que no usaron IA. La cantidad de artículos de carteles de trabajos escritos o aumentados por IA fue un 33 por ciento mayor.
La IA se puede utilizar legítimamente, según el análisis, para cosas como superar la barrera del idioma. Continúa:
“Sin embargo, las señales tradicionales de calidad científica, como la complejidad del lenguaje, se están convirtiendo en indicadores poco fiables de mérito, justo cuando estamos experimentando un aumento en la cantidad de trabajo científico. A medida que los sistemas de IA avancen, desafiarán nuestras suposiciones fundamentales sobre la calidad de la investigación, la comunicación académica y la naturaleza del trabajo intelectual”.
No es sólo ArXiv. En basic, es un momento difícil para la confiabilidad de la erudición en basic. Un sorprendente artículo publicado la semana pasada en Nature describe la desventura de la IA de un científico torpe que trabaja en Alemania llamado Marcel Bucher, que había estado usando ChatGPT para generar correos electrónicos, información de cursos, conferencias y pruebas. Como si eso no fuera suficientemente malo, ChatGPT también lo ayudaba a analizar las respuestas de los estudiantes y se incorporaba a partes interactivas de su enseñanza. Entonces, un día, Bucher intentó desactivar “temporalmente” lo que llamó la opción de “consentimiento de datos”, y cuando ChatGPT de repente eliminó toda la información que estaba almacenando exclusivamente en la aplicación, es decir, en los servidores de OpenAI, se quejó en las páginas de Nature que “desaparecieron dos años de trabajo académico cuidadosamente estructurado”.
La pereza generalizada inducida por la IA que se muestra en el área exacta donde se espera y se supone que el rigor y la atención al detalle induce a la desesperación. Period seguro asumir que había un problema cuando el número de publicaciones aumentó apenas unos meses después del lanzamiento de ChatGPT por primera vezpero ahora, como señala The Atlantic, estamos empezando a obtener detalles sobre la sustancia actual y la escala de ese problema: no tanto los individuos tipo Bucher, cargados de inteligencia synthetic, que experimentan ansiedad de publicar o perecer y se apresuran a publicar un artículo falso rápido, sino el fraude a escala industrial.
Por ejemplo, en la investigación del cáncer, los malos actores pueden incitar a que se publiquen artículos aburridos que afirman documentar “las interacciones entre una célula tumoral y sólo una proteína de las muchas miles que existen”, señala el Atlantic. Si el artículo afirma ser innovador, llamará la atención, lo que significa que es más possible que se notice el truco, pero si la conclusión falsa del falso experimento contra el cáncer es aburrida, será mucho más possible que esa basura se publique, incluso en una publicación creíble. Mucho mejor si viene con imágenes generadas por IA de manchas de electroforesis en gel que también son aburridas, pero añaden plausibilidad adicional a primera vista.
En resumen, ha llegado una avalancha de basura a la ciencia y todos tienen que volverse menos perezosos, desde los académicos ocupados que planifican sus lecciones hasta los revisores pares y los moderadores de ArXiv. De lo contrario, los depósitos de conocimientos que solían estar entre las pocas fuentes de información confiables que quedan están a punto de verse abrumados por la enfermedad que ya los ha infectado (posiblemente de manera irrevocable). ¿Y 2026 parece un momento en el que cualquiera, en cualquier lugar, se está volviendo menos perezoso?











