Menú Cerrar

«Por qué la actualización de Siri en iOS 26.4 de Apple será más grande de lo prometido originalmente»


4/5 - (145 votos)

Mejoras del llm

Hoy en día, ‌Siri‌ es generalmente adecuada para tareas simples como configurar un temporizador o alarma, enviar un mensaje de texto, activar o desactivar un dispositivo inteligente, responder una pregunta simple o controlar una función del dispositivo, pero no entiende nada más complicado, no puede completar tareas de varios pasos, no puede interpretar una redacción que no esté en la estructura que desea, no tiene contexto personal, y no soporta preguntas de seguimiento.

Un LLM debería resolver la mayoría de esos problemas porque ‌Siri‌ tendrá algo parecido a un cerebro. Los LLM pueden entender la sutileza de una solicitud, descubrir qué es lo que realmente quiere alguien, y tomar los pasos para entregar esa información o completar la acción solicitada.

Ya sabemos algunas de las cosas que ‌Siri‌ con LLM podrá hacer porque Apple describió las características de Apple Intelligence que quiere implementar cuando iOS 18 debutó.

Funciones prometidas de apple intelligence para siri

Apple describió tres formas específicas en que ‌Siri‌ mejorará, incluyendo contexto personal, la capacidad de ver lo que está en la pantalla para saber de qué habla el usuario, y la capacidad de hacer más dentro y entre aplicaciones.

‌Siri‌ entenderá pronombres, referencias a contenido en la pantalla y en aplicaciones, y tendrá una memoria a corto plazo para solicitudes de seguimiento.

Contexto Personal

Con el contexto personal, ‌Siri‌ podrá mantener un seguimiento de correos electrónicos, mensajes, archivos, fotos y más, aprendiendo más sobre ti para ayudarte a completar tareas y mantener un seguimiento de lo que te han enviado.

Muéstrame los archivos que Eric me envió la semana pasada.
Encuentra el correo electrónico donde Eric mencionó el patinaje sobre hielo.
Encuentra los libros que Eric me recomendó.
¿Dónde está la receta que me envió Eric?
¿Cuál es mi número de pasaporte?

Conciencia en Pantalla

La conciencia en pantalla permitirá a ‌Siri‌ ver lo que está en tu pantalla y completar acciones que involucren cualquier cosa que estés viendo. Si alguien te envía un mensaje con una dirección, por ejemplo, puedes decirle a ‌Siri‌ que la agregue a su tarjeta de contacto. O si estás viendo una foto y quieres enviársela a alguien, puedes pedirle a ‌Siri‌ que lo haga por ti.

Integración Más Profunda con Aplicaciones

Una integración más profunda con aplicaciones significa que ‌Siri‌ podrá hacer más dentro y entre aplicaciones, realizando acciones y completando tareas que simplemente no son posibles con el asistente personal en este momento. No tenemos un panorama completo de lo que ‌Siri‌ será capaz de hacer, pero Apple ha proporcionado algunos ejemplos de lo que se puede esperar.

Mover archivos de una aplicación a otra.
Editar una foto y luego enviarla a alguien.
Obtener direcciones a casa y compartir el ETA con Eric.
Enviar el correo electrónico que redacté a Eric.

Actualización más grande de lo prometido

En una reunión general en agosto de 2025, el jefe de ingeniería de software de Apple, Craig Federighi, explicó el problema de ‌Siri‌ a los empleados. Apple había intentado fusionar dos sistemas separados, lo cual no funcionó.

Había un sistema para manejar comandos actuales y otro basado en modelos de lenguaje amplio, y el enfoque híbrido no estaba funcionando debido a las limitaciones de la arquitectura actual de ‌Siri‌. La única forma de avanzar era actualizar a la arquitectura de segunda generación construida en torno a un modelo de lenguaje amplio.

En la reunión de agosto, Federighi dijo que Apple había renovado con éxito ‌Siri‌, y que Apple podría introducir una actualización más grande de lo prometido en iOS 18.

«El trabajo que hemos hecho en esta renovación de extremo a extremo de ‌Siri‌ nos ha dado los resultados que necesitábamos», dijo Federighi a los empleados. «Esto nos ha puesto en una posición no solo para entregar lo que anunciamos, sino para entregar una actualización mucho más grande de la que imaginamos.»

Adopción de google gemini

Parte del problema de Apple era que se basaba en modelos de IA que construía internamente, y que no podían igualar las capacidades de los competidores. Apple comenzó a considerar usar un modelo de terceros para ‌Siri‌ y otras funciones futuras de IA poco después de retrasar ‌Siri‌, y en enero, Apple anunció una asociación plurianual con Google.

Por el futuro previsible, las funciones de IA de Apple, incluida la versión más personalizada de ‌Siri‌, usarán un modelo personalizado que Apple construyó en colaboración con el equipo de Gemini de Google. Apple planea continuar trabajando en sus propios modelos internos, pero por ahora, se basará en Gemini para muchas funciones de cara al público.

‌Siri‌ en iOS 26.4 será más similar a Google Gemini que ‌Siri‌ de hoy, aunque sin capacidades completas de chatbot. Apple planea seguir ejecutando algunas funciones en el dispositivo y usar Private Cloud Compute para mantener la privacidad. Apple mantendrá los datos personales en el dispositivo, anonimizará las solicitudes y continuará permitiendo que las funciones de IA se desactiven.

Lo que no vendrá en ios 26.4

‌Siri‌ no funcionará como un chatbot, por lo que la versión actualizada no contará con memoria a largo plazo ni conversaciones de ida y vuelta, además de que Apple planea usar la misma interfaz basada en voz con funcionalidad de escritura limitada.

El embarazoso retraso de siri de apple

En lo que se convirtió en un movimiento infame, Apple apostó todo al mostrar una versión más inteligente, impulsada por Apple Intelligence de ‌Siri‌ cuando introdujo iOS 18 en la Conferencia Mundial de Desarrolladores de 2024. Apple dijo que estas funciones llegarían en una actualización de iOS 18, pero justo cuando se esperaba el lanzamiento, Apple admitió que ‌Siri‌ no estaba listo y se retrasaría hasta la primavera de 2026.

Los ejecutivos de Apple realizaron una gira de prensa para explicar las deficiencias de ‌Siri‌ después de la WWDC 2025, prometiendo cosas más grandes y mejores para iOS 26, y explicando qué salió mal. Las características de ‌Apple Intelligence‌ ‌Siri‌ que vimos en la WWDC 2024 fueron realmente implementadas y no fueron falsas, pero ‌Siri‌ no funcionaba tan bien como se esperaba detrás de escena y Apple estaba lidiando con problemas de calidad.

Dado que Apple anunció las nuevas funciones de ‌Siri‌ con el iPhone 16, algunas personas que compraron el iPhone debido a la nueva funcionalidad estaban molestas por el retraso y demandaron. Apple pudo resolver el caso discretamente en diciembre de 2025, por lo que la mayoría del lío de ‌Siri‌ se ha resuelto.

Reestructuración interna

El error con el debut de ‌Siri‌ y el fracaso de la arquitectura híbrida llevaron a Apple a reestructurar todo su equipo de IA. El jefe de IA de Apple, John Giannandrea, fue removido del equipo de liderazgo de ‌Siri‌, con el jefe de Vision Pro, Mike Rockwell, tomando el control en su lugar.

El CEO de Apple, Tim Cook, ya no confiaba en la capacidad de Giannandrea para supervisar el desarrollo de productos, y Giannandrea está programado para retirarse en la primavera de 2026. Rockwell informa a Federighi, y Federighi dijo a los empleados que el nuevo liderazgo ha «supercargado» el desarrollo de ‌Siri‌. Federighi aparentemente ha jugado un papel instrumental en cambiar el enfoque de Apple hacia la IA, y está tomando las decisiones que permitirán a la compañía ponerse al día con sus rivales.

Apple ha tenido problemas para retener empleados de IA en medio del problema de ‌Siri‌ y las estrategias de reclutamiento de compañías como Meta. Meta robó varios ingenieros clave de IA de Apple, ofreciendo paquetes de