Menú Cerrar

Siri se reinventa como chatbot de IA en iOS 27


4.4/5 - (86 votos)

Un cambio de interfaz y de concepto: de asistente a chatbot

Hasta ahora, Siri funcionaba como un sistema de órdenes bastante limitado: le pedías que pusiera una alarma, enviara un mensaje o llamara a alguien y poco más. Con iOS 27, ese enfoque se dará la vuelta. La idea es que el usuario pueda mantener una conversación continua con Siri, encadenar preguntas, pedir explicaciones más largas y recibir respuestas mucho más elaboradas, como sucede con los grandes chatbots actuales.

Ya se había producido un primer cambio visual en el asistente con las últimas versiones de iOS, cuando Apple sustituyó el clásico icono circular de Siri por una animación de colores alrededor de la pantalla. Sin embargo, la filtración de Bloomberg apunta a que la interfaz volverá a rediseñarse en iOS 27 para dar paso a un entorno de chat más claro y protagonista, similar a lo que ofrece la función “Escribir a Siri” pero mucho más completo.

Este rediseño no se limitará al iPhone. La nueva experiencia de Siri como chatbot también llegará a iPadOS 27 y macOS 27, con el mismo sistema de invocación de siempre: diciendo “Siri” (u “Oye Siri” en algunos dispositivos) o manteniendo pulsado el botón lateral o de encendido, según el equipo. La sensación ya no será la de dictar una orden suelta, sino la de abrir una conversación con un asistente capaz de seguir el hilo.

Lo llamativo del giro es que Apple había rechazado públicamente este modelo hace no tanto. Directivos como Craig Federighi defendían que no veían sentido forzar al usuario a usar un chatbot para tareas básicas. La rápida consolidación de herramientas como ChatGPT o Gemini, unida a las críticas a la lentitud de Apple en IA, ha terminado por cambiar el rumbo en Cupertino.

En la práctica, pasar del asistente tradicional al chatbot generativo implica que Siri podrá interpretar mejor el lenguaje natural, entender matices, tolerar frases menos “perfectas” y ofrecer una interacción más cercana a hablar con una persona que con una máquina de órdenes.

Proyecto «campos»: así será la nueva siri de ios 27

Internamente, Apple estaría desarrollando esta nueva versión de su asistente bajo el nombre en clave “Campos”. Diferentes filtraciones coinciden en que se trata de un proyecto central dentro de la estrategia de inteligencia artificial de la compañía para la generación de sistemas 27 (iOS, iPadOS y macOS).

Durante las fases iniciales del desarrollo, Campos se ha estado probando como una app independiente, al estilo de las aplicaciones de chat de IA actuales. Sin embargo, el objetivo final no es lanzar una nueva aplicación, sino sustituir la experiencia de Siri que ya conocemos. El usuario seguirá invocando al asistente como siempre, pero se encontrará con una interfaz de chat más rica, donde podrá hablar o escribir directamente.

Este chatbot ofrecerá modo voz y modo texto, con la posibilidad de pasar de uno a otro sin fricciones. Al igual que otros modelos de IA generativa, Campos será capaz de recordar el contexto de la misma conversación y de usar lo que se ha dicho antes para afinar sus respuestas, aunque Apple se plantea límites claros en lo relativo a la memoria a largo plazo por motivos de privacidad.

La ambición de la compañía pasa por que este nuevo Siri se convierta en una especie de intermediario universal entre el usuario y el sistema. En lugar de ser una capa superficial que lanza una app cuando se lo pides, el asistente debería ser capaz de entender qué quieres hacer, buscar la información necesaria dentro del dispositivo y en la red, y ejecutar varios pasos de forma encadenada.

En este contexto, se espera que Campos se base en Apple Foundation Models de nueva generación y que, en su vertiente más potente, se apoye en modelos avanzados de Gemini, aproximándose en capacidades a lo que vemos con Gemini 3 en el ecosistema de Google.

Una siri profundamente integrada en apps y sistema

Uno de los pilares del cambio será la integración total del chatbot en el sistema operativo. No se tratará de un servicio flotante que solo responde preguntas generales: Siri tendrá acceso, bajo permisos y controles, a buena parte del contenido y las apps del dispositivo, lo que abre la puerta a usos mucho más avanzados.

Entre las funciones que se describen en las filtraciones, destacan la posibilidad de buscar y editar fotos mediante comandos de voz, pedir que encuentre una imagen concreta a partir de una descripción o solicitar una edición sencilla (por ejemplo, “quita a esta persona del fondo” o “ilumina más la foto”). Todo ello sin necesidad de que el usuario abra manualmente la app Fotos y navegue por sus menús.

En el terreno de la productividad, Siri podría redactar correos electrónicos completos teniendo en cuenta información del Calendario, archivos adjuntos recientes o mensajes previos, así como resumir documentos, analizar PDFs, generar borradores de textos o ayudar con presentaciones y hojas de cálculo. La integración con apps como Mail, Mensajes, Notas, Pages o Numbers será clave.

El nuevo asistente no se limitará a las aplicaciones de usuario final. En el ámbito del desarrollo, se espera que Siri pueda asistir en la programación dentro de Xcode, sugiriendo fragmentos de código, explicando errores o automatizando pequeñas tareas repetitivas, algo en la línea de lo que ya ofrecen asistentes como GitHub Copilot, pero integrado directamente en el ecosistema de Apple.

Además, se prevé que el chatbot tenga capacidad para actuar en función de lo que aparezca en pantalla. Es decir, si estás leyendo un artículo, podrías pedirle que lo resuma; si tienes abierto un documento, que lo analice o lo reescriba con otro tono; si estás en una app de música, que te sugiera listas o artistas similares basándose en lo que estás escuchando.

Este enfoque de integración profunda también se extendería a apps de terceros. Diversas informaciones apuntan a la llegada de una API específica para desarrolladores, de forma que puedan conectar sus aplicaciones con el chatbot y permitir que Siri ejecute acciones complejas dentro de ellas, más allá de las órdenes simples que soporta hoy.

Gemini como motor en la sombra y el papel de la privacidad

El salto de calidad que se espera en Siri no viene solo de la mano de Apple. Según varios reportes, la compañía ha sellado un acuerdo con Google para utilizar modelos avanzados de Gemini como base de parte de las capacidades de este nuevo chatbot. Se trataría de una versión adaptada a las necesidades de Apple, integrada en su propio diseño de interfaz y en su arquitectura de seguridad.

Los detalles económicos no son públicos, pero algunas estimaciones señalan que Apple podría pagar en torno a mil millones de dólares al año por el uso de estos modelos. Aunque la cifra pueda parecer elevada, se quedaría muy por debajo de lo que Google ya abona a Apple para seguir siendo el buscador por defecto en Safari, que se mueve en órdenes de magnitud bastante superiores.

Uno de los puntos delicados del acuerdo es dónde y cómo se procesará la información. Para la versión de Siri que llega con iOS 26.4, Apple ha insistido en que el procesamiento de datos de los usuarios se hará en sus propios servidores de nube privada, y que las funcionalidades que tiren de Gemini lo harán respetando las políticas de privacidad habituales de la empresa.

En el caso de la Siri chatbot de iOS 27, las filtraciones apuntan a que Apple y Google estarían valorando alojar parte del modelo en servidores de Google con chips TPU para aprovechar su infraestructura de IA. Esta posibilidad choca con el discurso tradicional de Apple, muy centrado en el control de los datos y el procesamiento local siempre que sea posible.

Por ese motivo, se barajan limitaciones claras en aspectos como la memoria a largo plazo del asistente. Mientras que otros chatbots recuerdan largas conversaciones y hábitos del usuario, Apple podría optar por una memoria mucho más acotada, recordando solo lo estrictamente necesario y durante un tiempo reducido, con opciones claras para borrar o desactivar ese historial.

La compañía es consciente de que su imagen de marca en Europa y España se apoya en gran medida en la privacidad, de modo que cualquier cesión de procesamiento a la nube de terceros tendrá que ir acompañada de garantías adicionales y transparencia para evitar fricciones regulatorias y desconfianza de los usuarios.

Calendario, ios 26.4 y la wwdc 2026: las dos fases del cambio

La transformación de Siri no llegará de golpe. Todas las fuentes coinciden en que Apple ha dividido la renovación en dos grandes fases. La primera se materializará con iOS 26.4, una actualización prevista para primavera (entre marzo y abril) que llevará por fin al público las funciones de Apple Intelligence que se anunciaron tiempo atrás y se retrasaron por no cumplir los estándares internos de calidad.

Esa primera etapa dotará a Siri de mejor comprensión del lenguaje, más contexto sobre lo que sucede en pantalla y una integración ampliada con apps de terceros. Permitirá hacer muchas más cosas que ahora, desde buscar fotos mediante descripciones hasta realizar acciones algo más complejas dentro del sistema, pero sin llegar todavía al modelo completo de chatbot.

La segunda fase será la que realmente sitúe a Siri en el terreno de ChatGPT o Gemini. Según Mark Gurman y otros analistas, iOS 27 traerá el lanzamiento del chatbot completo, y la presentación oficial se produciría durante la WWDC 2026, la conferencia anual para desarrolladores que suele celebrarse el segundo lunes de junio. Las fechas que se barajan apuntan al 8 de junio como día probable para la keynote inaugural.

A partir de esa presentación, se espera que Apple publique versiones beta del sistema y del nuevo Siri para que desarrolladores y usuarios avanzados puedan probar sus funciones durante el verano. El lanzamiento al gran público llegaría ya en otoño, coincidiendo con los nuevos iPhone y con la versión final de iOS 27, iPadOS 27 y macOS 27.

Junto a la integración en iPhone, iPad y Mac, la nueva Siri también se extenderá a Apple Watch y a futuros dispositivos del hogar, como el rumoreado “HomePad”, un altavoz inteligente con pantalla que haría de escaparate ideal para la nueva interfaz conversacional. A medio plazo, Apple trabaja incluso en un wearable sin pantalla, con