La IA generativa se está volviendo buena para hacer hablar a los muertos. La crítica más reciente no se trata de si suena actual. Se trata de lo que sucede cuando la voz, el rostro y la presencia emocional de una persona se reconstruyen en algo que puede reutilizarse.
En un artículo de 2025 en Nuevos medios y sociedadLos investigadores Tom Divon y Christian Pentzold lo llaman “trabajo espectral”. El concepto enmarca la resurrección de la IA como una forma de producción póstuma, donde una persona puede seguir “trabajando” con sus datos después de la muerte. Eso puede suceder sin consentimiento y sin barreras de seguridad claras.
“Lo que resucitamos puede que no sea lo que recordamos, sino lo que la tecnología nos devuelve”. Esa brecha es la razón por la que el resultado puede parecer menos un cierre y más una copia moldeada por el fabricante de herramientas.
Los tres modos de resurrección
Divon y Pentzold analizaron 51 casos de resurrección de IA recopilados entre enero de 2023 y el 1 de junio de 2024, en Estados Unidos, Europa, el Cercano Oriente y el este de Asia. Los clasifican en espectáculo, uso sociopolítico y uso cotidiano del duelo.
Spectacle es la versión brillante, con íconos reestablecidos para entretenimiento. Los proyectos sociopolíticos vuelven a invocar a los muertos como testimonio o mensaje. El modo cotidiano es el más íntimo: chatbots y medios sintéticos creados para simular un contacto continuo. También es el más fácil de normalizar. Rápido.
Cuando la presencia se convierte en un producto
La línea más aguda del periódico es su reivindicación laboral. Los autores escriben que “los muertos se convierten en fuentes involuntarias de datos, semejanzas y afectos”. En este marco, las huellas de una persona se convierten en materia prima y luego en una presencia vendible que puede extraerse, distribuirse y monetizarse.
En un ensayo separado, los autores sostienen que el malestar no se debe sólo al realismo. Se trata de agencia. Estas figuras pueden parecer responsivas sin dejar de ser creadas por las indicaciones, ediciones y reglas de la plataforma de otra persona. Puede parecer private pero no lo es.
¿Qué deberías hacer ahora?
La investigación sostiene que es necesario repensar el consentimiento, la privacidad y las decisiones al last de la vida a medida que los rastros personales se integran en sistemas generativos. La gobernanza aún está por detrás de la rapidez con la que se pueden crear y compartir estas herramientas.
Para usted, la medida práctica es tratar su voz, imágenes y cuentas como activos. Decida quién puede acceder a ellos y, siempre que sea posible, ponga esas instrucciones por escrito.
Si está considerando un servicio de IA para el “más allá”, primero haga una pregunta. ¿Quién resolve qué cube tu versión futura?











