El sábado, tecnología empresario Siqi Chen liberado un complemento de código abierto para el asistente de IA Claude Code de Anthropic que indica al modelo de IA que deje de escribir como un modelo de IA.
Llamado Humanizer, el sencillo complemento proporciona a Claude una lista de 24 patrones de lenguaje y formato que tienen los editores de Wikipedia. listado como obsequios de chatbot. Chen publicó el complemento en GitHub, donde obtuvo más de 1.600 estrellas hasta el lunes.
“Es realmente útil que Wikipedia haya recopilado una lista detallada de ‘signos de escritura con IA'”, dijo Chen. escribió en X. “Tanto es así que puedes decirle a tu LLM que… no haga eso”.
El materials fuente es una guía de Limpieza de IA de WikiProjectun grupo de editores de Wikipedia que han estado buscando artículos generados por IA desde finales de 2023. El editor francés de Wikipedia, Ilyas Lebleu, fundó el proyecto. Los voluntarios etiquetaron más de 500 artículos para su revisión y, en agosto de 2025, publicado una lista formal de los patrones que seguían viendo.
La herramienta de Chen es un “archivo de habilidades”para Claude Code, el asistente de codificación basado en terminal de Anthropic, que implica un archivo con formato Markdown que agrega una lista de instrucciones escritas (puede verlos aquí) adjunto al mensaje introducido en el modelo de lenguaje grande que impulsa al asistente. A diferencia de una regular aviso del sistemapor ejemplo, la información de habilidades tiene un formato estandarizado que los modelos de Claude están ajustados para interpretar con más precisión que un easy mensaje del sistema. (Las habilidades personalizadas requieren una suscripción paga de Claude con la ejecución de código activada).
Pero como ocurre con todas las indicaciones de IA, los modelos de lenguaje no siempre siguen perfectamente los archivos de habilidades, entonces, ¿funciona realmente el Humanizer? En nuestras pruebas limitadas, el archivo de habilidades de Chen hizo que la salida del agente de IA pareciera menos precisa y más casual, pero podría tener algunos inconvenientes: no mejorará la factualidad y podría dañar la capacidad de codificación.
En explicit, algunas de las instrucciones de Humanizer pueden desviarlo, dependiendo de la tarea. Por ejemplo, la habilidad Humanizador incluye esta línea: “Tenga opiniones. No se limite a informar hechos: reaccione ante ellos. ‘Realmente no sé cómo sentirme acerca de esto’ es más humano que enumerar neutralmente los professionals y los contras”. Si bien ser imperfecto parece humano, este tipo de consejo probablemente no le haría ningún favor si estuviera utilizando a Claude para escribir documentación técnica.
Incluso con sus inconvenientes, es irónico que uno de los conjuntos de reglas más referenciados en la net para detectar la escritura asistida por IA pueda ayudar a algunas personas a subvertirlo.
Detectar los patrones
Entonces, ¿cómo es la escritura con IA? La guía de Wikipedia es específica y cuenta con muchos ejemplos, pero aquí solo le daremos uno en aras de la brevedad.
A algunos chatbots les encanta animar a sus sujetos con frases como “marcar un momento essential” o “es un testimonio de”, según la guía. Escriben como folletos turísticos, calificando las vistas de “impresionantes” y describiendo las ciudades como “enclavadas dentro” de regiones escénicas. Agregan frases con “-ing” al last de las oraciones para que suenen analíticas: “simbolizando el compromiso de la región con la innovación”.
Para evitar esas reglas, la habilidad Humanizador le cube a Claude que reemplace el lenguaje inflado con hechos sencillos y ofrece este ejemplo de transformación:
Antes: “El Instituto de Estadística de Cataluña se creó oficialmente en 1989, marcando un momento essential en la evolución de las estadísticas regionales en España.”
Después: “El Instituto de Estadística de Cataluña se creó en 1989 para recopilar y publicar estadísticas regionales.”
Claude lo leerá y hará todo lo posible como máquina de coincidencia de patrones para crear un resultado que coincida con el contexto de la conversación o tarea en cuestión.
Por qué falla la detección de escritura con IA
Incluso con un conjunto de reglas tan seguro elaborado por los editores de Wikipedia, hemos previamente escrito sobre por qué los detectores de escritura de IA no funcionan de manera confiable: no hay nada inherentemente único en la escritura humana que la diferencie de manera confiable de la escritura de LLM.
Una razón es que, aunque la mayoría de los modelos de lenguaje de IA tienden hacia ciertos tipos de lenguaje, también se les puede pedir que los eviten, como ocurre con la habilidad Humanizador. (Aunque a veces es muy difícil, como descubrió OpenAI en su lucha de años contra el tablero em.)












