el futuro nunca se siente completamente seguro. Pero en esta época de transformaciones rápidas e intensas (políticas, tecnológicas, culturales y científicas) es tan difícil como siempre tener una thought de lo que nos espera a la vuelta de la esquina.
Aquí en WIRED estamos obsesionados con lo que viene después. Nuestra búsqueda del futuro a menudo toma la forma de historias vigorosamente reportadas, movies en profundidad y entrevistas con las personas que ayudan a definirlo. Por eso también adoptamos recientemente un nuevo eslogan: Para referencia futura. Nos centramos en historias que no sólo explican lo que está por venir, sino que ayudan a darle forma.
Con ese espíritu, recientemente entrevistamos a una variedad de luminarias de los diversos mundos que WIRED toca, y que participaron en nuestro reciente evento Huge Interview en San Francisco, así como a estudiantes que han pasado toda su vida inundados de tecnologías que parecen cada vez más probables que alteren sus vidas y sus medios de subsistencia. Como period de esperar, el foco principal se centró en la inteligencia synthetic, pero se extendió a otras áreas de la cultura, la tecnología y la política. Piense en ello como un punto de referencia de cómo la gente piensa hoy sobre el futuro, y tal vez incluso como un mapa aproximado de hacia dónde nos dirigimos.
IA en todas partes, todo el tiempo
Lo que está claro es que la IA ya está tan integrada en la vida de las personas como lo ha estado la búsqueda desde los días de Alta Vista. Al igual que la búsqueda, los casos de uso tienden a ser prácticos o mundanos. “Utilizo muchos LLM para responder cualquier pregunta que tengo a lo largo del día”, cube Angel Tramontin, estudiante de la Escuela de Negocios Haas de UC Berkeley.
Varios de nuestros encuestados señalaron que habían utilizado IA en las últimas horas, incluso en los últimos minutos. Últimamente, la cofundadora y presidenta de Anthropic, Daniela Amodei, ha estado utilizando el chatbot de su empresa para ayudar con el cuidado de los niños. “Claude nos ayudó a mí y a mi esposo a enseñarle a nuestro hijo mayor a ir al baño”, cube. “Y recientemente usé a Claude para hacer el equivalente a buscar en Google síntomas de pánico para mi hija”.
Ella no es la única. Malvado El director Jon M. Chu recurrió a un Máster en Derecho “sólo para recibir algunos consejos sobre la salud de mis hijos, que tal vez no sean los mejores”, cube. “Pero es un buen punto de referencia inicial”.
Las propias empresas de IA ven la salud como un área de crecimiento potencial. OpenAI anunció ChatGPT Well being a principios de este mes y reveló que “cientos de millones de personas” utilizan el chatbot para responder preguntas sobre salud y bienestar cada semana. (ChatGPT Well being introduce medidas de privacidad adicionales, dada la sensibilidad de las consultas). Claude for Healthcare de Anthropic se dirige a hospitales y otros sistemas de atención médica como clientes.
No todos los que entrevistamos adoptaron un enfoque tan inmersivo. “Trato de no usarlo en absoluto”, cube Sienna Villalobos, estudiante universitaria de UC Berkeley. “Cuando se trata de hacer tu propio trabajo, es muy fácil tener una opinión. La IA no debería poder darte una opinión. Creo que deberías poder darla por ti mismo”.
Esa opinión puede ser cada vez más minoritaria. Casi dos tercios de los adolescentes estadounidenses utilizan chatbots, según un reciente estudio de Pew Analysis estudiar. Aproximadamente 3 de cada 10 afirman utilizarlo a diario. (Dado lo entrelazado que está Google Gemini con la búsqueda en estos días, muchos más pueden usar IA sin siquiera darse cuenta o sin tener la intención de hacerlo).
¿Listo para lanzar?
El ritmo de desarrollo y despliegue de la IA es implacable, a pesar de las preocupaciones sobre sus posibles impactos en la salud psychological, el medio ambiente y la sociedad en basic. En este entorno regulatorio tan abierto, las empresas deben en gran medida autocontrolarse. Entonces, ¿qué preguntas deberían hacerse las empresas de IA antes de cada lanzamiento, sin barreras de seguridad por parte de los legisladores?
“’¿Qué podría salir mal?’ es una pregunta realmente buena e importante que desearía que más empresas hicieran”, cube Mike Masnick, fundador del sitio de noticias sobre tecnología y políticas. Techdirt.











