Un nuevo cerebro para siri en ios 26.4
Hasta ahora, Siri funcionaba como una cadena de tareas separadas que reaccionaban a órdenes concretas: reconocía unas palabras, identificaba una intención predefinida y ejecutaba una acción a través de una app o un ajuste del sistema. Bastaba para poner temporizadores, crear recordatorios o lanzar llamadas, pero se quedaba corto cuando la petición requería varios pasos seguidos o cierto contexto.
Con iOS 26.4, Apple coloca en el centro un núcleo construido en torno a modelos de lenguaje de gran tamaño (LLM), muy en la línea de la tecnología que impulsa servicios como ChatGPT, Claude o Gemini. El objetivo no es convertir a Siri en un chatbot puro, sino darle una capacidad de comprensión más cercana al lenguaje natural, capaz de manejar matices, referencias indirectas y relaciones entre diferentes elementos.
En esta nueva fase, Siri deja de limitarse a reconocimiento de voz y buscar coincidencias de palabras clave. El asistente pasa a razonar primero sobre la intención del usuario y, a partir de ahí, decide qué respuesta o qué cadena de acciones encaja mejor. La arquitectura se define como “LLM-first”: el modelo de lenguaje es el eje, y las APIs del sistema se convierten en herramientas que este modelo puede ir llamando según lo que el usuario quiera conseguir.
Según la información disponible, Apple se apoya en sus Foundation Models v10 de nueva generación, diseñados específicamente para integrarse a bajo nivel en iOS. Estos modelos permiten que el asistente entienda correos, mensajes, documentos o páginas web como contenido estructurado, no como simples bloques de texto, lo que abre la puerta a interacciones bastante más ricas que en iOS 26.3.
Además, la compañía complementa esta base con una integración selectiva de tecnología de Google Gemini para tareas de razonamiento más avanzado. El resultado es un Siri que puede analizar mejor el contexto y decidir qué hacer sin depender tanto de plantillas de comandos cerradas.
Siri gana contexto: datos personales, pantalla y apps conectadas
El gran cambio para el usuario europeo medio no se verá tanto en un “modo conversación infinita”, sino en cómo Siri aprovecha el contexto personal y lo que aparece en la pantalla para ayudar en situaciones reales. Aquí confluyen tres pilares: datos del usuario, contenido visible y encadenado de acciones entre aplicaciones.
Por un lado, Siri en iOS 26.4 es capaz de tirar de información personal almacenada en el propio dispositivo —correos, mensajes, archivos, fotos— cuando se le pide algo concreto. Solicitudes como “búscame el documento que me mandó mi jefa el jueves pasado” o “enséñame la foto del recibo que escaneé hace dos semanas” dejan de depender tanto de la suerte y se resuelven con mayor precisión.
Además, el asistente se vuelve consciente de lo que el usuario tiene en la pantalla. Eso significa que puede interpretar un mensaje abierto, una dirección, una imagen o una página web y actuar directamente sobre ello: añadir una dirección a un contacto, reenviar una foto que estás viendo o guardar información importante sin tener que ir copiando y pegando manualmente entre apps.
El tercer elemento clave es una integración más profunda entre aplicaciones y servicios del sistema. iOS 26.4 permite a Siri encadenar acciones: editar una imagen y enviarla a un chat, mover archivos entre apps de productividad, compartir una ruta con hora estimada de llegada o agrupar varios pasos que antes el usuario tenía que ejecutar uno a uno.
Con esta combinación, Siri se aleja de su perfil de asistente “reactivo” que solo responde a comandos básicos y empieza a configurarse como una capa de inteligencia que conecta distintas piezas de iOS. Sin llegar todavía al nivel de conversación continua que Apple reserva para versiones posteriores del sistema, sí se percibe un comportamiento más coherente y útil en el día a día.
Qué diferencia a ios 26.4 de ios 26.3
Frente a iOS 26.3, donde el asistente se basaba principalmente en coincidir intenciones predefinidas con frases concretas, iOS 26.4 da un paso más y se centra en entender el “por qué” de la petición. El sistema ya no solo identifica qué app tiene que abrir o qué función debe ejecutar, sino que analiza qué pretende lograr el usuario con ese comando.
Esta transición se traduce en varios comportamientos tangibles. Siri puede mantener cierto contexto entre solicitudes relacionadas, en lugar de tratar cada orden como un evento completamente aislado. Por ejemplo, tras pedir que te lea un correo, es más fácil continuar con órdenes como “respóndele que me parece bien” sin tener que explicarlo todo de nuevo.
Otra diferencia importante es la capacidad de entender documentos, correos y páginas web como estructuras con secciones, datos y relaciones internas. Esto permite localizar información concreta —fechas, nombres, importes— con más precisión. En iOS 26.3, este tipo de acciones se apoyaba en reglas mucho más rígidas y, en la práctica, resultaba inconsistente.
Todo ello se apoya en una arquitectura donde el modelo de lenguaje gestiona la comprensión global y, a partir de ahí, dispara tareas concretas en distintas aplicaciones. Este cambio convierte a Siri en una especie de orquestador de acciones dentro de iOS 26.4, algo que en la versión anterior estaba mucho más limitado.
Por qué apple da este paso ahora
La decisión de Apple de reestructurar Siri en iOS 26.4 no surge de la nada. En reuniones internas previas, directivos como Craig Federighi reconocieron que la compañía había intentado combinar el Siri clásico con un sistema basado en modelos de lenguaje, y que esa mezcla no funcionó bien a nivel técnico.
El enfoque inicial, que trataba de superponer un modelo moderno sobre una arquitectura antigua, se topó con límites estructurales. La solución, admitida internamente, fue reconstruir el asistente alrededor de un único modelo central, en lugar de mantener dos sistemas compitiendo entre sí. iOS 26.4 es la primera versión en la que ese rediseño profundo empieza a verse en público.
Este cambio también llega tras un periodo de cierta presión por parte de usuarios que compraron dispositivos esperando funciones de IA prometidas en versiones anteriores de iOS y que se encontraron con retrasos y recortes en la hoja de ruta. Algunas de esas demoras dieron incluso pie a reclamaciones y críticas formales, sobre todo en mercados donde la publicidad de las nuevas funciones había sido especialmente agresiva. Más información sobre esos problemas está recogida en las demandas y retrasos de Apple.
En paralelo, Apple ha cerrado un acuerdo plurianual con Google para aprovechar parte de la tecnología de Gemini en tareas concretas de razonamiento, mientras continúa impulsando sus propios modelos. Eso sí, la compañía insiste en que la privacidad sigue siendo prioritaria: una buena parte del procesamiento se lleva a cabo en el propio dispositivo, y el resto viaja a la nube a través de Private Cloud Compute, con datos anonimizados y protegidos. Precisamente sobre las dudas en el uso de datos existe cobertura relacionada con investigaciones legales.
Esta combinación de urgencia competitiva, expectativas de los usuarios europeos y necesidad de modernizar la infraestructura ha empujado a Apple a acelerar la transición hacia una Siri más inteligente y flexible en iOS 26.4, aunque el salto más grande a nivel conversacional se guarde para posteriores entregas del sistema.
Ia en el día a día: más allá de siri
Aunque Siri se lleva el foco mediático, iOS 26.4 también apunta a reforzar el uso práctico de la inteligencia artificial en otras áreas del sistema. El objetivo es que estas capacidades no se queden solo en demostraciones llamativas, sino que se integren en las rutinas habituales de los usuarios.
En el terreno de la comunicación, el nuevo enfoque LLM-first permite que el iPhone comprenda mejor el contenido de correos, mensajes y documentos. Esto no se limita a la lectura en voz alta: el sistema puede sugerir acciones, ofrecer atajos contextuales o incluso proponer resúmenes útiles de textos largos, siempre dentro de los límites impuestos por la configuración de privacidad del usuario.
El propio sistema operativo también se beneficia de esta inteligencia adicional. iOS 26.4 está pensado para actuar como una capa de asistencia distribuida por todo el sistema, capaz de sugerir automatizaciones, ayudar a completar tareas en varias apps a la vez o detectar patrones de uso para ofrecer accesos más directos a lo que cada persona necesita con más frecuencia.
Este tipo de funciones son especialmente relevantes en Europa, donde la regulación en materia de datos y privacidad es más estricta. Apple se presenta aquí como un actor que trata de encajar la inteligencia artificial en un marco legal exigente, apostando por procesar lo máximo posible en el dispositivo y enviando a la nube solo lo imprescindible, con capas adicionales de protección.
Nuevos emojis y pequeños cambios visibles
Más allá de la inteligencia artificial, iOS 26.4 incluirá una nueva tanda de emojis basados en el estándar Unicode 17.0. No es lo más revolucionario de la actualización, pero para muchos usuarios será una de las novedades más apreciables en el uso cotidiano de apps de mensajería y redes sociales.
Esta ampliación del catálogo suele traer una mezcla de nuevas expresiones, personajes, objetos y símbolos, en línea con las incorporaciones anuales que Apple acostumbra a integrar en sus sistemas. Como es habitual, estos iconos llegan al iPhone de forma nativa y, con el tiempo, se extienden a otros dispositivos del ecosistema.
Aunque no suponen un cambio estructural, estas pequeñas novedades sirven para hacer más expresiva la comunicación digital y recuerdan que las actualizaciones de mitad de ciclo también incluyen detalles visibles, no solo ajustes internos.
Salud y bienestar: apps con más protagonismo
Uno de los focos menos ruidosos, pero más relevantes, de iOS 26.4 es la reforma de la aplicación de Salud y herramientas relacionadas con el bienestar. Apple lleva años posicionando el iPhone y el Apple Watch como centros de seguimiento de la salud personal, y esta actualización profundiza en esa estrategia.
Se espera una interfaz renovada en la app de Salud, pensada para acceder antes y mejor a los datos importantes y para registrar información de forma más sencilla. El objetivo es reducir la fricción de uso y animar a que más personas consulten y actualicen sus datos con frecuencia.
Entre las novedades previstas se incluye un seguimiento ampliado de nutrición y calorías, que complementa las métricas de actividad física que ya recogían iPhone y Apple Watch. De esta forma, el usuario puede tener una visión algo más completa de su día a día, combinando ejercicio, alimentación y otros indicadores de bienestar.
También habrá nuevo contenido de vídeo