Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones clave de ZDNET
- Perplejidad para las Organizaciones de Seguridad Pública lanzada en enero.
- La policía puede utilizarlo, por ejemplo, para analizar fotografías de la escena del crimen.
- Otros desarrolladores de IA pronto podrían seguir su ejemplo.
La startup de inteligencia synthetic Perplexity ha lanzado una nueva iniciativa destinada a llevar su tecnología a manos de los profesionales de la seguridad pública, incluidos los agentes de policía. Revelado la semana pasada, Perplejidad para las organizaciones de servicios públicos ofrece un año free of charge del nivel Enterprise Professional de la compañía para hasta 200 puestos, con opciones de descuento disponibles para agencias más grandes.
Como sabe cualquiera que utilice habitualmente herramientas basadas en LLM como Perplexity y ChatGPT, estas herramientas son falibles, por decir lo menos: son propensas a alucinaciones, inexactitudes, regurgitación de sesgos culturales que se han filtrado en sus datos de entrenamiento y, como regla normal, están diseñadas para optimizar el compromiso en lugar del bienestar humano. Los protocolos sobre cómo utilizarlos de forma segura son en gran medida un trabajo en progreso.
El resultado es que cuando se trata de industrias sensibles como las de aplicación de la ley, los pequeños errores pueden ser de gran ayuda.
Casos de uso mundanos, ¿grandes consecuencias?
En su anuncio, la compañía dijo que el programa está destinado a ayudar a los oficiales a tomar decisiones más informadas en tiempo actual y a automatizar tareas rutinarias como generar descripciones de fotografías de la escena del crimen, analizar noticias y transcripciones de cámaras corporales y convertir colecciones de notas de los investigadores en informes estructurados y pulidos.
Parece bastante inofensivo. Pero para Katie Kinsey, jefa de private y asesora de políticas de IA en el Proyecto policialeso es precisamente lo que los convierte en una señal de alerta.
Además: Qué cambiarán las regulaciones de IA más estrictas del país en 2026, según expertos legales
“Lo que puede ser pernicioso acerca de este tipo de casos de uso es que pueden presentarse como administrativos o de baja categoría”, dijo, y agregó que estas tareas cotidianas pueden tener grandes efectos posteriores en la vida de las personas. “Hay muchas decisiones importantes que conducen a cargos y acusaciones, que emanan de los tipos de casos de uso de los que están hablando aquí”.
Es poco possible que utilizar un chatbot para sintetizar sus apuntes escolares en una guía de estudio personalizada resulte en una catástrofe. Pero en la aplicación de la ley, donde hay mucho más en juego, los pequeños errores pueden tener grandes consecuencias.
Una herramienta de inteligencia synthetic podría alucinar de forma obvia al Tejer una historia sobre un oficial que cambia de forma a una rana.en cuyo caso los usuarios humanos pueden simplemente ignorar sus resultados. El escenario más peligroso sería aquel en el que un sistema de inteligencia synthetic altera sutilmente la verdad de una manera que sea difícil de detectar, como alucinar hipotéticamente detalles menores en un informe policial, lo que posteriormente conduce a una condena errónea. Ya ha habido múltiples casos de abogados que utilizaron herramientas de inteligencia synthetic que fabricaron precedentes de casos y otros detalles cuando se utilizaron para redactar presentaciones de casos; de nuevo, detalles menores, consecuencias potencialmente desastrosas.
Además: la nueva herramienta de inteligencia synthetic de Perplexity le permite buscar patentes con lenguaje pure, y es free of charge
En una entrevista con ZDNET, un portavoz de Perplexity dijo que la compañía está bien posicionada para equipar al private de seguridad pública con herramientas de inteligencia synthetic, ya que ha hecho de la precisión una parte clave de su producto y modelo de negocio; En lugar de entrenar sus propios modelos de IA desde cero, Perplexity toma los de otros desarrolladores, como OpenAI y Anthropic, y los entrena posteriormente para minimizar las alucinaciones.
Aún así, tiene sus defectos. Un estudio reciente realizado por la Unión Europea de Radiodifusión y la BBC encontró que cuando se les preguntó sobre noticias recientes, Perplexity, junto con otros tres chatbots líderes, frecuentemente generaban respuestas que “tenían al menos un problema importante” relacionado con la precisión, el abastecimiento u otros criterios.
Asignar responsabilidad
Todo esto plantea la pregunta: ¿Quién debería ser, en última instancia, responsable de garantizar que la IA se utilice de manera responsable en las fuerzas del orden?
Hasta la llegada de los chatbots libres de alucinaciones (y no está claro si tal cosa es posible), deberían usarse bajo su propio riesgo. Esto también se aplica a los agentes de policía que optan por utilizar Perplexity u otras herramientas de inteligencia synthetic incluso para usos aparentemente mundanos, según Andrew Ferguson, profesor de la Facultad de Derecho de la Universidad George Washington.
Además: la nueva herramienta de inteligencia synthetic de Perplexity le permite buscar patentes con lenguaje pure, y es free of charge
“Cuando se juega con la libertad y los derechos constitucionales, es necesario asegurarse de que existan salvaguardas para la precisión… sin leyes o reglas que protejan contra errores, corresponde a la policía asegurarse de que utilicen la tecnología sabiamente”, dijo a ZDNET.
Kinsey, por otra parte, cree que la responsabilidad debería recaer en los responsables de las políticas. “El problema”, dijo, “es que no existe una ley estricta que establezca cuáles deberían ser estos requisitos”.
Mirando hacia adelante
Si bien Perplexity dijo que este es el primer programa de este tipo, es casi seguro que no será el último.
Los desarrolladores de IA se enfrentan a una enorme presión para ampliar sus bases de usuarios lo más posible, y los departamentos de policía tienen una larga historia de ser los primeros en adoptar nuevas tecnologías. Los llamados algoritmos de “vigilancia policial predictiva” se han utilizado desde principios de la década de 2000, y en ocasiones han sido criticados por supuestamente perpetuar sesgos históricos contra grupos marginados y por su falta de transparencia. Más recientemente, algunas agencias policiales han comenzado a utilizar IA para el reconocimiento facial y detección de mentiras.
“Las fuerzas del orden son un buen cliente, porque no van a ninguna parte”, dijo Kinsey. “Vemos esa relación entre la industria privada y las autoridades todo el tiempo”.
La intensa competencia en la carrera de la IA podría hacer que otras empresas sigan el ejemplo de Perplexity y lancen iniciativas dirigidas a agentes de policía y otros funcionarios de seguridad pública.











