Google está probando un ajuste importante en la forma La IA funciona dentro de Chromeespecíficamente combinando Google Lens con el panel lateral de IA nativo del navegador. En este momento, esto está apareciendo en Chrome Canary, el campo de juego experimental donde Google prueba nuevas funciones antes de que se generalicen.
El gran cambio aquí es que Lens ya no actúa simplemente como una herramienta independiente para buscar imágenes. En cambio, ahora activa la interfaz AI completa de Chrome directamente en el panel lateral, combinando la búsqueda de imágenes, la lectura de páginas y el chat en un solo lugar unificado.
En esta nueva configuración, activar Lens hace más que simplemente resaltar una imagen. Abre el panel de IA a la derecha, que le brinda un cuadro de chat, preguntas sugeridas y acciones rápidas. Dado que el panel puede “leer” la página web en la que se encuentra actualmente, puede hacer preguntas sobre el artículo sin tener que salir de la pestaña.
Durante las pruebas, la IA maneja resúmenes y contexto de manera bastante instantánea, manteniendo todo en un solo hilo. También se vincula con el sistema de inteligencia artificial más amplio de Chrome, lo que significa que sus búsquedas visuales y sesiones de chat finalmente viven en la misma historia, lo que refuerza la idea de que Google quiere que la búsqueda, la visión y el chat se sientan como una experiencia continua.
Por qué es importante y qué viene después
Por qué es importante: esta actualización es una señal clara de que Google quiere que Chrome sea más que una simple ventana pasiva a la web; Quieren que sea un espacio de trabajo activo. Al fusionar Lens con el “Modo AI”, están posicionando el navegador como un asistente inteligente que acompaña todo lo que estás leyendo. Deja de ser una herramienta separada a la que tienes que cambiar y comienza a ser una ayuda que realmente comprende el contexto de tu pantalla.

Por qué debería importarle: Idealmente, esto significa menos desorden de pestañas y respuestas más rápidas. Ya sea que esté sumergido en un agujero de investigación, comprando en línea o leyendo un artículo complejo, tener una IA que puede ver lo que ve (y explicarlo) sin obligarlo a abandonar la página es una mejora masiva del flujo de trabajo. Se siente como un paso natural hacia la experiencia de navegación de “asistente primero” que Google está impulsando en Android y la Búsqueda.
Qué sigue: Esto todavía está en la fase de “borrador” en Canary, y la interfaz es claramente un trabajo en progreso. Sin embargo, la forma en que vincula el panel lateral, la barra de direcciones y el historial de tareas sugiere que Google se toma en serio la creación de una capa de IA unificada en Chrome. Si sobrevive a las pruebas, este panel impulsado por Lens podría cambiar fundamentalmente el ritmo de búsqueda y lectura en la web.











