Siri passe sous Gemini : ce que ça change concrètement sur votre iPhone
Apple confie le cerveau de son assistant à Google. Phase 1 est déjà là.
Le 22 avril, pendant la conférence Google Cloud Next 2026 à Las Vegas, Thomas Kurian, patron de Google Cloud, a confirmé publiquement ce qui se murmurait depuis janvier : le nouveau Siri tourne sur Gemini. Pas « à côté » de Gemini. Pas en « complément ». Le moteur principal de l'assistant vocal d'Apple est désormais un modèle Google.
Pour un milliard de dollars par an, Apple s'offre les capacités multimodales de Gemini tout en promettant que vos données restent dans son architecture Private Cloud Compute. La Phase 1 est déjà active dans iOS 26.4. On décortique ce qui marche, ce qui arrive, et ce qu'un dirigeant de PME doit surveiller.
Ce que Siri sait faire depuis iOS 26.4
Si votre iPhone tourne sous iOS 26.4, Siri utilise déjà Gemini en arrière-plan. En pratique, trois changements visibles :
- Lecture d'écran contextuelle. Siri voit ce qui s'affiche. Vous consultez un devis dans Mail ? Demandez « résume ce mail » — Siri extrait le montant, le délai, l'expéditeur sans ouvrir une autre app.
- Résumé d'emails. Le classique « quels emails importants ce matin » ne renvoie plus une liste brute. Siri regroupe par priorité et propose un condensé de deux phrases par fil.
- Actions cross-apps basiques. « Ajoute le rendez-vous mentionné dans ce message à mon agenda » fonctionne — à condition que le message soit à l'écran. C'est encore limité à des enchaînements simples (un email → un événement calendrier → un rappel).
Soyons clairs : ça ne vaut pas encore ce que Google a montré en démo. Les enchaînements multi-étapes complexes — du type « fouille mes anciens SMS pour retrouver le podcast que Marc m'a partagé et lance-le » — restent pour plus tard. Apple a d'ailleurs repoussé plusieurs fonctionnalités personnalisées après iOS 26.4, signe que le chantier est massif.
Phase 2 : le Siri conversationnel arrive en septembre
Avec iOS 27, prévu pour septembre 2026 aux côtés de l'iPhone 18, Apple promet un Siri radicalement différent :
- Dialogues de 20+ échanges sans perte de contexte — aujourd'hui, Siri oublie tout après deux questions.
- Automatisations multi-apps complexes. Exemple avancé : « Regarde mes emails urgents de la semaine, crée un mémo priorisé, programme des rappels pour les 3 sujets les plus importants, et synchronise avec mon agenda. » Tout ça en une seule commande vocale.
- Choix du modèle IA. iOS 27 devrait permettre de brancher n'importe quel modèle IA téléchargé depuis l'App Store comme cerveau de Siri. Si ça se confirme, un dirigeant pourrait théoriquement faire tourner Siri sur [[link:claude-ai|Claude]] ou un modèle spécialisé métier.
La WWDC du 8 juin sera le vrai moment de vérité. C'est là qu'Apple devrait montrer les premières démos publiques du Siri conversationnel. D'ici là, on reste sur des promesses — et Apple a un historique mitigé sur le respect de ses calendriers IA.
1 milliard par an : pourquoi Apple a choisi Google
La question revient souvent : pourquoi Apple, qui défend farouchement son indépendance, confie-t-elle sa brique IA la plus visible à son rival historique ?
Trois raisons concrètes. D'abord, Apple n'a pas réussi à construire un modèle de langage compétitif en interne. Les Apple Foundation Models existent, mais ils n'arrivent pas à la cheville de Gemini, GPT-5.5 ou Claude sur les benchmarks de raisonnement. Ensuite, Google avait un levier : le contrat de moteur de recherche par défaut, qui rapporte déjà des milliards à Apple chaque année. Étendre le partenariat à l'IA était naturel. Enfin, la contrainte de temps : Apple accumulait du retard sur Samsung (qui embarque Gemini depuis 2025) et sur les assistants de Microsoft et OpenAI.
Le deal est structuré en miroir : Apple paie environ 1 milliard de dollars par an pour Gemini, et s'engage à acheter de la capacité serveur chez Google Cloud pour des milliards supplémentaires dans les années à venir. Google, en échange, voit son modèle tourner sur plus d'un milliard d'appareils Apple actifs dans le monde.
Le piège de la vie privée : ce que dit Apple vs. ce que disent les experts
Apple martèle un message : Private Cloud Compute protège tout. Les données traitées en cloud ne sont pas stockées, pas utilisées pour entraîner des modèles, pas accessibles aux employés d'Apple. Sur le papier, c'est solide.
Mais les experts en sécurité posent des questions que votre DSI devrait aussi se poser :
« Private Cloud Compute est aussi privé que son maillon le plus faible. Si Google conserve un chemin vers les données d'usage — pour l'amélioration des modèles ou le débogage —, la garantie de confidentialité s'effondre. »
Concrètement, trois points de vigilance :
- Le routage des requêtes. Quand Siri envoie une requête complexe au cloud, passe-t-elle par l'infrastructure Apple ou par Google ? Apple dit que c'est PCC. Mais des analystes demandent une attestation cryptographique prouvant que chaque inférence Gemini tourne bien sur les serveurs Apple et n'est pas « silencieusement routée vers Google ».
- Les pipelines d'entraînement. Le reinforcement learning est le stade où les données privées peuvent fuiter si les contraintes ne sont pas hermétiques. Personne n'a audité publiquement cette couche du partenariat.
- La transparence du contrat. Les termes précis du partage de données entre Apple et Google ne sont pas publics. Sans divulgation, impossible pour les régulateurs européens d'auditer la conformité — un point sensible post-AI Act.
Pour une PME qui gère des données clients sensibles — cabinet d'avocats, cabinet comptable, professionnel de santé —, la prudence s'impose. Tant qu'Apple n'a pas publié un audit technique indépendant de PCC dans le contexte Gemini, évitez de dicter à Siri des informations confidentielles de vos clients.
Ce que ça change face à ChatGPT et Copilot
Jusqu'ici, les pros qui voulaient un assistant IA sur iPhone avaient deux options : l'app [[link:chatgpt|ChatGPT]] ou le navigateur. Siri était hors course.
Avec Gemini sous le capot, le calcul change :
- Siri a l'avantage de l'intégration système. Aucune app tierce ne peut lire vos mails, votre agenda, vos messages ET agir dessus en une commande vocale. ChatGPT et [[link:claude-ai|Claude]] restent cantonnés à leur propre interface.
- ChatGPT garde l'avantage en profondeur. Pour de la recherche longue, de l'analyse de documents complexes ou de la génération de contenu structuré, GPT-5.5 et Claude Opus 4.7 restent supérieurs. Siri Phase 1 ne fait pas de « deep research ».
- Copilot de Microsoft est en retrait sur mobile. L'intégration desktop dans Office 365 est solide, mais sur iPhone, Copilot n'a pas d'accès système. Et Claude s'est déjà connecté à Microsoft 365 gratuitement — une menace directe.
Le scénario probable pour un professionnel équipé Apple en fin 2026 : Siri pour le triage rapide (emails, agenda, rappels), un chatbot dédié pour le travail de fond. Pas un remplacement, un complément.
Ce qu'il faut faire maintenant
Si vous dirigez une PME et que votre équipe est sous iOS :
- Mettez à jour vers iOS 26.4 si ce n'est pas fait. Les fonctions Gemini de Phase 1 sont actives par défaut — autant les tester.
- Testez le résumé d'email et la lecture d'écran sur des contenus non sensibles. Évaluez si ça fait gagner du temps réel à vos équipes terrain ou commerciales.
- Ne désactivez pas Apple Intelligence préventivement. Les fonctions locales (transcription, suggestions de réponse) restent sur l'appareil et ne posent pas de risque données.
- Attendez la WWDC (8 juin) avant de revoir votre politique d'outils IA. Si Apple ouvre Siri à des modèles tiers via l'App Store, ça changera l'équation.
- Documentez votre usage IA pour rester conforme à l'AI Act, qui exige un inventaire des systèmes IA utilisés en entreprise d'ici août 2026.
Notre verdict
Apple a fait un aveu d'échec en confiant Siri à Google. Mais c'est un aveu pragmatique. Mieux vaut un Siri compétent sous Gemini qu'un Siri médiocre sous technologie maison. Pour les pros, la Phase 1 apporte un confort réel — le résumé d'email contextuel fait gagner de vraies minutes chaque matin. La Phase 2, si elle tient ses promesses en septembre, pourrait faire de l'iPhone le premier terminal professionnel avec un assistant IA véritablement intégré au système.
Le bémol, c'est la boîte noire. Un milliard de dollars par an de données vocales et contextuelles qui transitent entre Apple et Google, sans audit public, ça mérite de la vigilance — surtout pour les métiers réglementés. Testez, mais ne confiez pas vos secrets à Siri. Pas encore.