La evolución de visual intelligence en ios 26
La llegada de iOS 26 ha traído consigo notables mejoras en el campo de la inteligencia artificial de Apple, especialmente con el avance de su modelo de análisis de imágenes conocido como Visual Intelligence. Aunque Apple aún no ha alcanzado el nivel de liderazgo en IA generativa, las innovaciones en este campo son significativas, especialmente con la integración de tecnología de Google y ChatGPT de OpenAI.
Visual Intelligence, a menudo comparada con Google Lens, permite a los usuarios utilizar la cámara de sus dispositivos para obtener información detallada del entorno. Esta herramienta es capaz de identificar plantas, traducir texto y comprender los iconos de las prendas para su correcto lavado, entre otras funcionalidades. Con iOS 26, Visual Intelligence ahora también es capaz de reconocer capturas de pantalla, ampliando así sus capacidades.
Compatibilidad de dispositivos con visual intelligence
Es importante destacar que la funcionalidad de Visual Intelligence está limitada a dispositivos compatibles con Apple Intelligence. Para disfrutar de estas funciones, los usuarios deben tener un iPhone 15 Pro o modelos posteriores, como los iPhone 16, iPhone 16 Plus, iPhone 16 Pro, iPhone 16 Pro Max, iPhone 17, iPhone Air, iPhone 17 Pro, y iPhone 17 Pro Max.
Detectando capturas de pantalla con visual intelligence
La nueva capacidad de Visual Intelligence para analizar capturas de pantalla ofrece un valor añadido significativo. Esta función permite a los usuarios extraer información de las imágenes capturadas de forma rápida y eficiente. Por ejemplo, es posible identificar productos vistos en aplicaciones y buscarlos en internet sin tener que describirlos manualmente. También resulta útil para extraer números de teléfono o direcciones de una captura y utilizarlos directamente.
Accediendo a las funcionalidades de visual intelligence
Los usuarios pueden acceder a estas funciones de diferentes maneras, dependiendo del modelo de iPhone que posean:
| Funciones de cámara | Funciones de captura |
|---|
iPhone 15 Pro iPhone 15 Pro Max iPhone 16e | Configurándolo en el botón de acción desde Ajustes > Botón de acción > Inteligencia Visual. | Haciendo una captura y pulsando en la opción Preguntar o Buscar imágenes. |
|---|
iPhone 16 iPhone 16 Plus iPhone 16 Pro iPhone 16 Pro Max iPhone 17 iPhone Air iPhone 17 Pro iPhone 17 Pro Max | Manteniendo pulsado el botón de control de cámara y/o configurándolo en el botón de acción desde Ajustes > Botón de acción > Inteligencia Visual. | Haciendo una captura y pulsando en la opción Preguntar o Buscar imágenes. |
|---|
Además, los usuarios tienen la opción de resaltar con el dedo en la captura el elemento exacto que desean buscar, lo que añade una capa adicional de precisión y utilidad a la herramienta.
Integración de tecnologías avanzadas en visual intelligence
Visual Intelligence combina tecnología de Google y OpenAI para ofrecer una experiencia rica y eficiente. Google es responsable de identificar imágenes cuando se utiliza la opción de búsqueda de imágenes, mientras que ChatGPT de OpenAI se encarga de procesar las consultas realizadas a través de la opción de preguntar.
Un ejemplo práctico de uso de esta tecnología es solicitar un resumen automático de una receta guardada en una captura o que se expliquen los pasos clave de un tutorial sin necesidad de leer todo el contenido. En un escenario real, se podría usar un mapa del Metro de Barcelona y pedir a la IA que determine la mejor ruta de un punto a otro dentro de la ciudad.
Comodidad y eficiencia en la integración con ios 26
La integración de estas funcionalidades directamente en iOS 26 proporciona comodidad y eficiencia a los usuarios, eliminando la necesidad de tener aplicaciones adicionales de Google o ChatGPT instaladas en sus dispositivos. Esto representa un avance significativo en la experiencia del usuario, permitiendo un acceso más rápido y fácil a la información necesaria.
Sep 24 2025
La IA de Apple ha mejorado con iOS 26. Así puede ayudarte lo nuevo de Visual Intelligence
La evolución de visual intelligence en ios 26
La llegada de iOS 26 ha traído consigo notables mejoras en el campo de la inteligencia artificial de Apple, especialmente con el avance de su modelo de análisis de imágenes conocido como Visual Intelligence. Aunque Apple aún no ha alcanzado el nivel de liderazgo en IA generativa, las innovaciones en este campo son significativas, especialmente con la integración de tecnología de Google y ChatGPT de OpenAI.
Visual Intelligence, a menudo comparada con Google Lens, permite a los usuarios utilizar la cámara de sus dispositivos para obtener información detallada del entorno. Esta herramienta es capaz de identificar plantas, traducir texto y comprender los iconos de las prendas para su correcto lavado, entre otras funcionalidades. Con iOS 26, Visual Intelligence ahora también es capaz de reconocer capturas de pantalla, ampliando así sus capacidades.
Compatibilidad de dispositivos con visual intelligence
Es importante destacar que la funcionalidad de Visual Intelligence está limitada a dispositivos compatibles con Apple Intelligence. Para disfrutar de estas funciones, los usuarios deben tener un iPhone 15 Pro o modelos posteriores, como los iPhone 16, iPhone 16 Plus, iPhone 16 Pro, iPhone 16 Pro Max, iPhone 17, iPhone Air, iPhone 17 Pro, y iPhone 17 Pro Max.
Detectando capturas de pantalla con visual intelligence
La nueva capacidad de Visual Intelligence para analizar capturas de pantalla ofrece un valor añadido significativo. Esta función permite a los usuarios extraer información de las imágenes capturadas de forma rápida y eficiente. Por ejemplo, es posible identificar productos vistos en aplicaciones y buscarlos en internet sin tener que describirlos manualmente. También resulta útil para extraer números de teléfono o direcciones de una captura y utilizarlos directamente.
Accediendo a las funcionalidades de visual intelligence
Los usuarios pueden acceder a estas funciones de diferentes maneras, dependiendo del modelo de iPhone que posean:
iPhone 15 Pro Max
iPhone 16e
iPhone 16 Plus
iPhone 16 Pro
iPhone 16 Pro Max
iPhone 17
iPhone Air
iPhone 17 Pro
iPhone 17 Pro Max
Además, los usuarios tienen la opción de resaltar con el dedo en la captura el elemento exacto que desean buscar, lo que añade una capa adicional de precisión y utilidad a la herramienta.
Integración de tecnologías avanzadas en visual intelligence
Visual Intelligence combina tecnología de Google y OpenAI para ofrecer una experiencia rica y eficiente. Google es responsable de identificar imágenes cuando se utiliza la opción de búsqueda de imágenes, mientras que ChatGPT de OpenAI se encarga de procesar las consultas realizadas a través de la opción de preguntar.
Un ejemplo práctico de uso de esta tecnología es solicitar un resumen automático de una receta guardada en una captura o que se expliquen los pasos clave de un tutorial sin necesidad de leer todo el contenido. En un escenario real, se podría usar un mapa del Metro de Barcelona y pedir a la IA que determine la mejor ruta de un punto a otro dentro de la ciudad.
Comodidad y eficiencia en la integración con ios 26
La integración de estas funcionalidades directamente en iOS 26 proporciona comodidad y eficiencia a los usuarios, eliminando la necesidad de tener aplicaciones adicionales de Google o ChatGPT instaladas en sus dispositivos. Esto representa un avance significativo en la experiencia del usuario, permitiendo un acceso más rápido y fácil a la información necesaria.
By Roger Casadejús Pérez • Blog 0