Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones clave de ZDNET
- Dos leyes estatales importantes sobre IA están en vigor ya que la regulación federal sobre IA sigue sin estar clara.
- Trump ha renovado sus ataques a la legislación estatal sobre IA.
- Los investigadores todavía están descontentos con las leyes actuales.
Estamos a unas semanas de 2026 y la administración Trump aún tiene que proponer una legislación sobre inteligencia synthetic a nivel federal.
Al mismo tiempo, han entrado en vigor leyes de seguridad de IA, primeras en su tipo en California y Nueva York, ambos estados bien posicionados para influir en las empresas de tecnología. Pero una orden ejecutiva de diciembre y su subsiguiente grupo de trabajo han renovado los ataques a las leyes estatales sobre IA. ¿Qué significan las nuevas leyes en la práctica? ¿Podrán sobrevivir al escrutinio a nivel federal?
Además: 5 formas en que las reglas y regulaciones pueden ayudar a guiar su innovación en IA
SB-53 y la Ley RAISE
California SB-53la nueva ley de seguridad de la IA que entró en vigor el 1 de enero, exige que los desarrolladores de modelos publiquen cómo mitigarán los mayores riesgos que plantea la IA y que informen sobre los incidentes de seguridad que involucran a sus modelos (o se enfrentarán a multas de hasta 1 millón de dólares si no lo hacen). Aunque no es tan exhaustiva como la legislación que se intentó anteriormente en el estado, la nueva ley es prácticamente la única en un panorama de IA altamente desregulado. Más recientemente se le sumó el Ley AUMENTARaprobada en Nueva York a finales de diciembre, que es related a la ley de California.
En comparación, la Ley RAISE también establece requisitos de notificación de incidentes de seguridad que involucran modelos de todos los tamaños, pero tiene un umbral de multa superior de $3 millones después de la primera infracción de una empresa. Mientras que la SB 53 exige que las empresas notifiquen al estado dentro de los 15 días posteriores a un incidente de seguridad, RAISE requiere la notificación dentro de las 72 horas.
Además: El acto de equilibrio de la IA que su empresa no puede darse el lujo de perder en 2026
La SB 1047, una versión anterior de la SB 53, habría requerido que los laboratorios de inteligencia synthetic realizaran pruebas de seguridad en modelos que costaban más de 100 millones de dólares y desarrollaran un mecanismo de apagado, o interruptor de apagado, para controlarlos en caso de que se comportaran mal. Ese proyecto de ley fracasó ante los argumentos de que sofocaría la creación de empleo y la innovación, una respuesta común a los esfuerzos de regulación, especialmente de la administración precise.
SB 53 usa una mano más ligera. Al igual que la Ley RAISE, se dirige a empresas con ingresos brutos anuales de más de 500 millones de dólares, un umbral que exime a muchas nuevas empresas de IA más pequeñas de los requisitos de presentación de informes y documentación de la ley.
“Es interesante que exista este umbral de ingresos, especialmente porque se han introducido muchos modelos de IA más eficientes que aún pueden participar en una gran cantidad de procesamiento, pero que pueden ser implementados por empresas más pequeñas”, dijo a ZDNET la abogada de protección de datos Lily Li, quien fundó Metaverse Regulation. Señaló que el gobernador Gavin Newsom vetó la SB-1047, en parte, porque impondría costos que inhibirían el crecimiento a las empresas más pequeñas, una preocupación de la que también se hicieron eco los grupos de presión.
Además: ¿Le preocupa que la IA le fairly su trabajo remoto? Estás a salvo por ahora, muestra este estudio
“Creo que tiene una motivación más política que necesariamente impulsada por diferencias en el daño o impacto potencial de la IA en función del tamaño de la empresa o del modelo”, dijo sobre el umbral.
En comparación con el SB-1047, el SB-53 se centra más en la transparencia, la documentación y la presentación de informes que en los daños reales. La ley crea requisitos para barreras de seguridad en torno a riesgos catastróficos: ataques con armas cibernéticas, químicas, biológicas, radiológicas y nucleares, daños corporales, agresiones o situaciones en las que los desarrolladores pierden el management de un sistema de inteligencia synthetic.
Límites renovados a la legislación estatal sobre IA
La administración precise y las empresas que se oponen a la regulación de la seguridad de la IA, especialmente a nivel federal, dicen que ralentizaría el desarrollo, perjudicaría los empleos en el sector tecnológico y cedería terreno en la carrera de la IA a países como China.
El 11 de diciembre, el presidente Trump firmó un orden ejecutiva declarando una intención renovada de centralizar las leyes de IA a nivel federal para garantizar que las empresas estadounidenses sean “libres de innovar sin regulaciones engorrosas”. La orden sostiene que “una regulación estatal excesiva frustra este imperativo” al crear un mosaico de leyes diferentes, algunas de las cuales, según alega, “son cada vez más responsables de exigir a las entidades que incorporen sesgos ideológicos dentro de los modelos”.
Además: el Senado elimina la prohibición de las regulaciones estatales de IA del proyecto de ley de impuestos de Trump
También anunció un grupo de trabajo de litigios sobre IA para desafiar las leyes estatales que sean inconsistentes con un “marco de política nacional mínimamente gravoso para la IA”. Esto renueva un intento del Congreso el verano pasado de prohibir a los estados aprobar regulaciones de IA durante 10 años, lo que habría retenido fondos para banda ancha e infraestructura de IA de los estados que no las cumplieran. La moratoria fue derrotada de manera aplastante, preservando temporalmente los derechos de los estados a legislar la IA en su territorio.
La semana pasada, Noticias CBS informó que el Departamento de Justicia estaba formando el grupo de trabajo. Un memorando interno revisado por CBS Information decía que el grupo de trabajo estará dirigido por la fiscal common de los Estados Unidos, Pam Bondi, u otra persona designada.
Dicho esto, Li no espera que el nuevo grupo de trabajo afecte sustancialmente la regulación estatal, al menos en California.
“El grupo de trabajo de litigios de IA se centrará en leyes que son inconstitucionales según la cláusula de comercio inactivo y la Primera Enmienda, reemplazadas por la ley federal o ilegales de otro modo”, dijo a ZDNET. “La Décima Enmienda, sin embargo, reserva explícitamente derechos a los estados si no hay una ley federal, o si no hay preferencia sobre las leyes estatales por una ley federal”.
Además: ¿Es la guerra de la IA contra el trabajo pesado un asesino de la creatividad? Lo que dicen los expertos
además de un nueva solicitud de información (RFI) del Centro de Estándares e Innovación de IA (CAISI), anteriormente Instituto de Seguridad de IA, sobre los riesgos de seguridad de los agentes de IA, la administración no parece haber ofrecido un reemplazo para las leyes estatales.
“Los requisitos federales de HIPAA permiten a los estados aprobar leyes estatales de privacidad de la atención médica más estrictas”, dijo Li. “Aquí, no existe ninguna ley federal de IA que prevalezca sobre muchas de las leyes estatales, y el Congreso ha rechazado esfuerzos anteriores para agregar la preferencia federal de IA a la legislación anterior”.
Protecciones adicionales y límites
La SB-53 de California también exige que las empresas de inteligencia synthetic protejan a los denunciantes. Esto llamó la atención de Li, quien señaló que, a diferencia de otras partes de la ley, que se reflejan en la Ley de la UE y para las cuales muchas empresas ya están preparadas, las protecciones a los denunciantes son únicas en la tecnología.
“Realmente no ha habido muchos casos en el espacio de la IA, obviamente, porque es nuevo”, dijo Li. “Creo que esa es una preocupación mayor para muchas empresas de tecnología, porque hay mucha rotación en el espacio tecnológico y no se sabe cómo será el mercado. Esto es otra cosa que preocupa a las empresas como parte del proceso de despidos”.
Añadió que los requisitos de presentación de informes de la SB 53 hacen que las empresas se preocupen más por crear materials que pueda usarse en demandas colectivas.
Además: Por qué pagará más por la IA en 2026 y tres consejos para ahorrar dinero que puede probar
Gideon Futerman, asociado de proyectos especiales del Centro para la Seguridad de la IA, no cree que la SB 53 tenga un impacto significativo en la investigación de seguridad.
“Esto no cambiará mucho el día a día, en gran parte porque la Ley de IA de la UE ya exige estas revelaciones”, explicó. “El SB-53 no impone ninguna carga nueva”.
Ninguna ley exige que los laboratorios de IA hagan que terceros prueben sus modelos, aunque la Ley RAISE de Nueva York exige auditorías anuales de terceros en el momento de escribir este artículo. Aun así, Futerman considera que la SB 53 es un avance.
“Esto demuestra que la regulación de la seguridad de la IA es posible y tiene impulso político. La cantidad de trabajo actual de seguridad que se realiza hoy en día todavía está muy por debajo de lo que se necesita”, afirmó. “Las empresas que compiten por construir IA superinteligente, aunque admiten que estos sistemas podrían plantear riesgos de extinción, todavía no entienden realmente cómo funcionan sus modelos”.
¿Dónde deja esto la seguridad de la IA?
“El nivel de regulación del SB-53 no es nada comparado con los peligros, pero es un primer paso valioso hacia la transparencia y la primera aplicación de la ley en torno al riesgo catastrófico en los EE.UU. Aquí es donde deberíamos haber estado hace años”, dijo Futerman.
Independientemente de las regulaciones estatales y federales, Li dijo que la gobernanza ya se ha convertido en una mayor prioridad para las empresas de IA, impulsada por sus resultados. Los clientes empresariales están imponiendo la responsabilidad a los desarrolladores y los inversores están teniendo en cuenta la privacidad, la ciberseguridad y la gobernanza en sus decisiones de financiación.
Además: 5 formas de hacer crecer su negocio con IA, sin dejar de lado a su gente
Aún así, dijo que muchas empresas simplemente pasan desapercibidas para los reguladores mientras pueden.
“La transparencia por sí sola no hace que los sistemas sean seguros, pero es un primer paso essential”, afirmó Futerman. Espera que la legislación futura llene los vacíos restantes en la estrategia de seguridad nacional.
“Eso incluye fortalecer los controles de exportación y el seguimiento de chips, mejorar la inteligencia sobre proyectos fronterizos de IA en el extranjero y coordinar con otras naciones las aplicaciones militares de la IA para evitar una escalada involuntaria”, añadió.













