Roger Casadejús PérezFull stack web developer y SEO + miembro del blueteam en ciberseguridad web
La gran transformación de siri en ios 27: de asistente de voz a plataforma de ia abierta
La próxima gran versión del sistema operativo del iPhone no solo traerá mejoras de rendimiento y estabilidad: todo apunta a que iOS 27 será recordado por la mayor transformación de Siri desde su lanzamiento. Apple está preparando un cambio de enfoque profundo para su asistente, que dejará de ser una simple capa de voz para convertirse en una auténtica plataforma de inteligencia artificial.
De asistente reactivo a chatbot permanente
Según filtraciones y adelantos publicados por fuentes como Mark Gurman de Bloomberg, Siri dejará de funcionar solo como una superposición momentánea en pantalla cuando invocamos el comando de voz. Con iOS 27, Apple prepara una aplicación independiente de Siri, con aspecto de chat, muy parecida a las apps de los grandes modelos de IA que ya conocemos. En esa nueva app, los usuarios verán un listado de conversaciones anteriores, podrán reabrirlas cuando quieran, fijar las más importantes o buscar en el historial para recuperar respuestas antiguas.
Esto significa que la experiencia se acercará más al uso de un chat continuo que a la interacción actual basada en preguntas sueltas. La interacción ya no se limitará a la voz. Siri aceptará tanto dictado como texto escrito. Esto será especialmente útil en entornos donde no resulta cómodo hablar en alto, como el transporte público, la oficina o una biblioteca. Otro punto clave es la memoria. En lugar de olvidar gran parte del contexto al cerrar una sesión, el nuevo Siri podrá manejar un contexto persistente mucho más largo, recordando preferencias y tareas en curso.
Todo ello busca que el asistente deje de ser un recurso puntual y se convierta en un compañero de IA al que recurrir de forma continua. No solo para poner alarmas o preguntar por el tiempo, sino para trabajar, estudiar o planificar actividades del día a día.
Una siri más útil en el día a día: multitarea compleja y redacción de contenido
Las filtraciones apuntan a que con iOS 27 Siri dará un salto importante en su capacidad para gestionar solicitudes complejas. Hasta ahora, el asistente destaca poco cuando se le piden varias cosas a la vez; tiende a fragmentar las órdenes. Con la nueva versión, Apple está probando un sistema en el que el usuario podrá encadenar varias acciones en una sola petición.
Por ejemplo, será posible decir algo como: “Siri, mira el tiempo para el sábado en Valencia, añade una cita en el calendario a las 10 de la mañana y manda un mensaje a mi madre diciéndole que quedamos para desayunar si no llueve”. El asistente analizará esa frase, dividirá las acciones necesarias y las ejecutará sin que el usuario tenga que repetir cada paso.
Esto también se aplicará a tareas de redacción y productividad. Siri podrá ayudar a escribir correos electrónicos, mensajes, informes breves o incluso textos más largos, con la opción de retocar el tono, resumir, ampliar información o corregir errores gramaticales, directamente desde la propia interfaz del sistema. Las sugerencias iniciales de la nueva app orientarán al usuario sobre lo que puede pedir. Así, al entrar en la aplicación, podrán aparecer ejemplos como “ayúdame a organizar un viaje de cuatro días a Lisboa” o “prepara una lista de la compra saludable para dos personas”.
Siri no se limitará a responder con un par de frases, sino que podrá ofrecer itinerarios, listas, recordatorios y ajustes posteriores según las respuestas del usuario. La combinación de contexto persistente, redacción avanzada y multitarea permitirá que Siri pase de ser un asistente de voz limitado a una herramienta de trabajo real.
Integración profunda en el ecosistema apple sin perder la activación clásica
A pesar de la llegada de la app independiente, Apple no renunciará a la invocación tradicional de Siri mediante voz o botón físico. En iOS 27 seguirá siendo posible activar el asistente diciendo la palabra clave o manteniendo pulsado el botón lateral, como hasta ahora. La diferencia es que, una vez activo, Siri tendrá mucha más conciencia de lo que está ocurriendo en el dispositivo.
Podrá entender qué aplicación está abierta, qué documento se está editando o qué contenido aparece en pantalla, algo que le dará margen para ejecutar acciones más precisas. Por ejemplo, se podrá decirle: “ajusta el texto de este correo para que suene más formal” o “resúmeme lo que aparece en esta página” cuando se navega en Safari.
Siri actuará sobre lo que ve en la pantalla. La integración se extenderá también a apps de terceros. Apple quiere que los desarrolladores puedan conectar sus aplicaciones al nuevo Siri para que el asistente ejecute acciones específicas dentro de ellas, siempre bajo el marco de permisos y privacidad que la compañía mantiene en iOS.
Siri se abre a la ia de terceros: extensiones y mercado de modelos
Una de las novedades más relevantes desde el punto de vista estratégico es que Apple dejará de tratar a Siri como un sistema cerrado. En iOS 27, el asistente se convertirá en una especie de “capa de orquestación” capaz de conectarse con distintos modelos de IA según la tarea. Para lograrlo, la compañía prepara un sistema de “Extensiones” que permitirá integrar servicios de inteligencia artificial de terceros directamente dentro de Siri.
A través de este mecanismo, chatbots como ChatGPT, Gemini y Claude podrán funcionar como motores alternativos o complementarios. En la práctica, esto significa que al plantear una petición compleja se podrá elegir qué modelo de IA se encarga de resolverla. Un usuario podría preferir ChatGPT para tareas creativas o Gemini para consultas técnicas, todo ello a través de la misma interfaz de Siri.
Estas extensiones se gestionarán desde los ajustes de iOS 27. El usuario podrá activar o desactivar qué asistentes están disponibles y decidir en qué casos quiere que se utilice uno u otro. Apple pretende así ofrecer una sensación de plataforma abierta, manteniendo el control sobre la experiencia y la seguridad.
Se está preparando una sección específica dentro de la App Store dedicada a aplicaciones de IA. Desde ahí se podrán descargar nuevos servicios, instalar sus extensiones para Siri y, en muchos casos, suscribirse a versiones de pago. Esto abre un campo de negocio evidente.
Apple intelligence y el papel de gemini bajo el capó
La gran transformación de Siri no llega sola. Forma parte de un plan más amplio de la compañía, agrupado bajo el paraguas de Apple Intelligence, la arquitectura de IA que Apple está desplegando en sus plataformas. Esta estrategia combina procesamiento en la nube y en el dispositivo, con énfasis en la privacidad.
Apple no se limita a usar Gemini, el modelo de Google, como una API externa. La empresa tendría acceso al modelo en sus propios centros de datos para aplicar técnicas de destilación. Esto permitiría que gran parte de las tareas de IA se procesen localmente, reduciendo la dependencia de los servidores externos.
Por otra parte, las peticiones más exigentes podrían seguir delegándose en la nube cuando sea estrictamente necesario. En Europa, donde la regulación en materia de datos personales es estricta, esta combinación de modelos locales y remotos será clave.