Mejoras del llm
Hoy en día, Siri es generalmente adecuada para tareas simples como configurar un temporizador o alarma, enviar un mensaje de texto, activar o desactivar un dispositivo inteligente, responder una pregunta simple o controlar una función del dispositivo, pero no entiende nada más complicado, no puede completar tareas de varios pasos, no puede interpretar una redacción que no esté en la estructura que desea, no tiene contexto personal, y no soporta preguntas de seguimiento.
Un LLM debería resolver la mayoría de esos problemas porque Siri tendrá algo parecido a un cerebro. Los LLM pueden entender la sutileza de una solicitud, descubrir qué es lo que realmente quiere alguien, y tomar los pasos para entregar esa información o completar la acción solicitada.
Ya sabemos algunas de las cosas que Siri con LLM podrá hacer porque Apple describió las características de Apple Intelligence que quiere implementar cuando iOS 18 debutó.
Funciones prometidas de apple intelligence para siri
Apple describió tres formas específicas en que Siri mejorará, incluyendo contexto personal, la capacidad de ver lo que está en la pantalla para saber de qué habla el usuario, y la capacidad de hacer más dentro y entre aplicaciones.
Siri entenderá pronombres, referencias a contenido en la pantalla y en aplicaciones, y tendrá una memoria a corto plazo para solicitudes de seguimiento.
Contexto Personal
Con el contexto personal, Siri podrá mantener un seguimiento de correos electrónicos, mensajes, archivos, fotos y más, aprendiendo más sobre ti para ayudarte a completar tareas y mantener un seguimiento de lo que te han enviado.
Muéstrame los archivos que Eric me envió la semana pasada.
Encuentra el correo electrónico donde Eric mencionó el patinaje sobre hielo.
Encuentra los libros que Eric me recomendó.
¿Dónde está la receta que me envió Eric?
¿Cuál es mi número de pasaporte?
Conciencia en Pantalla
La conciencia en pantalla permitirá a Siri ver lo que está en tu pantalla y completar acciones que involucren cualquier cosa que estés viendo. Si alguien te envía un mensaje con una dirección, por ejemplo, puedes decirle a Siri que la agregue a su tarjeta de contacto. O si estás viendo una foto y quieres enviársela a alguien, puedes pedirle a Siri que lo haga por ti.
Integración Más Profunda con Aplicaciones
Una integración más profunda con aplicaciones significa que Siri podrá hacer más dentro y entre aplicaciones, realizando acciones y completando tareas que simplemente no son posibles con el asistente personal en este momento. No tenemos un panorama completo de lo que Siri será capaz de hacer, pero Apple ha proporcionado algunos ejemplos de lo que se puede esperar.
Mover archivos de una aplicación a otra.
Editar una foto y luego enviarla a alguien.
Obtener direcciones a casa y compartir el ETA con Eric.
Enviar el correo electrónico que redacté a Eric.
Actualización más grande de lo prometido
En una reunión general en agosto de 2025, el jefe de ingeniería de software de Apple, Craig Federighi, explicó el problema de Siri a los empleados. Apple había intentado fusionar dos sistemas separados, lo cual no funcionó.
Había un sistema para manejar comandos actuales y otro basado en modelos de lenguaje amplio, y el enfoque híbrido no estaba funcionando debido a las limitaciones de la arquitectura actual de Siri. La única forma de avanzar era actualizar a la arquitectura de segunda generación construida en torno a un modelo de lenguaje amplio.
En la reunión de agosto, Federighi dijo que Apple había renovado con éxito Siri, y que Apple podría introducir una actualización más grande de lo prometido en iOS 18.
«El trabajo que hemos hecho en esta renovación de extremo a extremo de Siri nos ha dado los resultados que necesitábamos», dijo Federighi a los empleados. «Esto nos ha puesto en una posición no solo para entregar lo que anunciamos, sino para entregar una actualización mucho más grande de la que imaginamos.»
Adopción de google gemini
Parte del problema de Apple era que se basaba en modelos de IA que construía internamente, y que no podían igualar las capacidades de los competidores. Apple comenzó a considerar usar un modelo de terceros para Siri y otras funciones futuras de IA poco después de retrasar Siri, y en enero, Apple anunció una asociación plurianual con Google.
Por el futuro previsible, las funciones de IA de Apple, incluida la versión más personalizada de Siri, usarán un modelo personalizado que Apple construyó en colaboración con el equipo de Gemini de Google. Apple planea continuar trabajando en sus propios modelos internos, pero por ahora, se basará en Gemini para muchas funciones de cara al público.
Siri en iOS 26.4 será más similar a Google Gemini que Siri de hoy, aunque sin capacidades completas de chatbot. Apple planea seguir ejecutando algunas funciones en el dispositivo y usar Private Cloud Compute para mantener la privacidad. Apple mantendrá los datos personales en el dispositivo, anonimizará las solicitudes y continuará permitiendo que las funciones de IA se desactiven.
Lo que no vendrá en ios 26.4
Siri no funcionará como un chatbot, por lo que la versión actualizada no contará con memoria a largo plazo ni conversaciones de ida y vuelta, además de que Apple planea usar la misma interfaz basada en voz con funcionalidad de escritura limitada.
El embarazoso retraso de siri de apple
En lo que se convirtió en un movimiento infame, Apple apostó todo al mostrar una versión más inteligente, impulsada por Apple Intelligence de Siri cuando introdujo iOS 18 en la Conferencia Mundial de Desarrolladores de 2024. Apple dijo que estas funciones llegarían en una actualización de iOS 18, pero justo cuando se esperaba el lanzamiento, Apple admitió que Siri no estaba listo y se retrasaría hasta la primavera de 2026.
Los ejecutivos de Apple realizaron una gira de prensa para explicar las deficiencias de Siri después de la WWDC 2025, prometiendo cosas más grandes y mejores para iOS 26, y explicando qué salió mal. Las características de Apple Intelligence Siri que vimos en la WWDC 2024 fueron realmente implementadas y no fueron falsas, pero Siri no funcionaba tan bien como se esperaba detrás de escena y Apple estaba lidiando con problemas de calidad.
Dado que Apple anunció las nuevas funciones de Siri con el iPhone 16, algunas personas que compraron el iPhone debido a la nueva funcionalidad estaban molestas por el retraso y demandaron. Apple pudo resolver el caso discretamente en diciembre de 2025, por lo que la mayoría del lío de Siri se ha resuelto.
Reestructuración interna
El error con el debut de Siri y el fracaso de la arquitectura híbrida llevaron a Apple a reestructurar todo su equipo de IA. El jefe de IA de Apple, John Giannandrea, fue removido del equipo de liderazgo de Siri, con el jefe de Vision Pro, Mike Rockwell, tomando el control en su lugar.
El CEO de Apple, Tim Cook, ya no confiaba en la capacidad de Giannandrea para supervisar el desarrollo de productos, y Giannandrea está programado para retirarse en la primavera de 2026. Rockwell informa a Federighi, y Federighi dijo a los empleados que el nuevo liderazgo ha «supercargado» el desarrollo de Siri. Federighi aparentemente ha jugado un papel instrumental en cambiar el enfoque de Apple hacia la IA, y está tomando las decisiones que permitirán a la compañía ponerse al día con sus rivales.
Apple ha tenido problemas para retener empleados de IA en medio del problema de Siri y las estrategias de reclutamiento de compañías como Meta. Meta robó varios ingenieros clave de IA de Apple, ofreciendo paquetes de