Home Tecnología En 2026, Google se centra en hacer que la IA sea realmente...

En 2026, Google se centra en hacer que la IA sea realmente útil

14
0

Google pasó gran parte de 2025 agregando flechas a su carcaj mientras desarrollaba su inteligencia synthetic, Gemini. Ahora, se centra en la mejor manera de apuntar esas flechas a través de su amplia gama de {hardware} y software program de Android para ayudar a las personas a encontrar formas verdaderamente útiles de utilizar la IA.

Gemini de Google tuvo un año excepcional en 2025. Se impulsó al espacio creativo de la IA con modelos líderes en la industria como Veo 3 vídeos y nanoplátano. El modo AI introdujo capacidades agentes que permitieron a la IA hacer la busqueda por ti. Y Géminis 3 mostró el modelo de lenguaje grande más avanzado de la compañía hasta el momento, generando preocupación entre OpenAI y otros competidores.

Este año, Google espera aprovechar el progreso que ha logrado en el desarrollo de estos exitosos modelos y capacidades para incorporarlos a dispositivos, ya sea teléfonos inteligentes Android, Chromebooks, gafas inteligentes o incluso Televisores. El objetivo ultimate es conocer los usos prácticos de la IA. Sameer Samat, presidente del ecosistema Android de Google, lo llama “utilidad de IA”.

“La utilidad de la IA es realmente lo que pienso sobre la forma en que un consumidor común experimentaría esta tecnología y diría: ‘Guau, eso es realmente poderoso'”, dijo Samat a CNET en una entrevista en CES 2026. “Es algo que me hace muy feliz de tener este producto o algo que quiero cambiar”.

Leer más: Lo mejor de CES 2026: 22 ganadores otorgados por CNET Group

Definir usos prácticos para la IA ciertamente no es una concept nueva para Google. En 2024, introdujo Circle to Search en Android, que hace exactamente lo que su nombre cube: puedes dibujar un círculo en una foto en la pantalla de tu teléfono y utiliza inteligencia visible para analizarla en busca de información relevante, ejecutar una búsqueda en Google y mostrar información adicional. Las mejoras impulsadas por IA para la prevención de spam significaron que los usuarios de Android reportó significativamente menos mensajes de spam (58%) en comparación con los usuarios de iPhone, según la propia investigación de Google. Más recientemente, agregó capacidades de manos libres a chatear con geminis mientras usas Google Maps, lo que te ayuda a encontrar estacionamientos o restaurantes cercanos.

Los dispositivos Android han visto la adición de mucha IA, pero la concept de la utilidad de la IA no se limita a teléfonos y computadoras. Google ha estado agregando constantemente Gemini a los televisores, por ejemplo, comenzando con recomendaciones sobre qué mirar.

En enero, la compañía anunció que estaba ampliando las integraciones de IA en televisores. Deep dives puede crear presentaciones multimedia personalizadas en menos de 2 minutos sobre cualquier tema que desee. Puedes chatear con tu televisor sobre cualquier cosa, como lo harías con un chatbot. Edición de fotografías impulsada por IA, comparable a las herramientas de remezcla en Fotos de Googletambién llega a las pantallas grandes. Y si lo deseas, también puedes crear imágenes y vídeos con IA desde cero utilizando los modelos populares de Google.

edición de gemini-on-google-tv-remix

Puedes editar tus fotos con Gemini en tu televisor, si quieres verlas en una pantalla más grande.

Google

La introducción de estas capacidades de búsqueda y medios de comunicación similares a las de los chatbots se trata menos de presionar a las personas para que creen imágenes de IA en su televisor y más de conocer gente dondequiera que estén. Si te encanta mostrar tus fotos familiares en tu televisor, como protector de pantalla, puedes aprovechar las herramientas de edición impulsadas por IA para darles tu propio toque personalizado. Todo es en un esfuerzo por hacer que mirar televisión sea una actividad más atractiva y menos pasiva, dijo Google. en una demostración en vivo en CES.

Otra forma de introducir herramientas de IA más utilitarias es desarrollar IA agente o agentes de IA. Este género de IA generativa está diseñado para manejar tareas de forma independiente, sin necesidad de supervisión humana, como ordenar comida a domicilio o ejecutando código. En este momento, estamos “en la cúspide de que los agentes puedan realizar tareas reales para nosotros”, dijo Samat. Será clave desarrollar esta tecnología, más allá de las aplicaciones móviles y de escritorio.

“Algunas de las mayores necesidades de este tipo de funcionalidad vendrán de otros factores de forma, que tal vez tengan pantallas más pequeñas, ninguna pantalla o donde necesiten ser manos libres”, dijo Samat. Eso podría estar en el software program dentro de los vehículos, autoconducción y otras cosas, pero también podría estar dentro de las gafas inteligentes, que Google ha dicho anteriormente que considera parte integral de la evolución de la IA.

El enfoque de Google en la utilidad refleja una tendencia creciente y un movimiento hacia la siguiente fase del desarrollo de la IA. Supongamos que pensamos en los chatbots como una versión temprana de Web, como AOL. Luego, avanzar hacia herramientas de inteligencia synthetic personalizadas y agentes es el nuevo Google.

La IA ya no es una novedad. En 2026, todos nosotros (las personas que construyen la IA y quienes la utilizan) deberíamos invertir en encontrar formas concretas y productivas de integrar la IA. Si bien es posible que disfrutes usando Nano Banana, también querrás que la IA de tu Android te haga la vida más fácil.

“Creemos que esta tecnología puede hacer que las personas pasen de la curiosidad por la IA a la utilidad de la IA y a la sensación de que los dispositivos Android son útiles, divertidos y agradables”, afirmó Samat.



avotas