Imaginez : vous êtes dans le métro, les mains occupées, et vous dites simplement à votre téléphone « Commande-moi un Uber jusqu’à la maison et une pizza chez DoorDash ». Quelques secondes plus tard, votre smartphone ouvre les applications, remplit les champs, choisit les options… et attend juste votre « OK » pour confirmer. Science-fiction ? Non : c’est exactement ce que fait le Samsung Galaxy S26, disponible depuis le 11 mars 2026. Bienvenue dans l’ère de l’IA agentique — celle qui ne se contente plus de répondre, mais qui agit.

Le Galaxy S26 : le premier smartphone vraiment « agent »

Le 25 février 2026, Samsung a dévoilé la gamme Galaxy S26 lors du Galaxy Unpacked, organisé au Palace of Fine Arts de San Francisco. Le message de TM Roh, patron de la division mobile de Samsung, était limpide : l’IA doit devenir une « infrastructure » du quotidien, pas un gadget. Et la promesse est tenue : pour la première fois, votre téléphone peut exécuter des tâches complexes à votre place, dans vos applications, sans que vous ayez à les ouvrir vous-même.

Concrètement, le Galaxy S26 intègre trois couches d’intelligence artificielle qui travaillent ensemble : Bixby (l’assistant Samsung, profondément amélioré), Gemini de Google, et Perplexity pour la recherche et le raisonnement. Bixby gère la navigation dans les réglages et les commandes de routine, tandis que Gemini s’occupe des actions multi-étapes dans les applications tierces. Résultat : un appui long sur le bouton latéral, une commande vocale, et la magie opère.

« Il y a encore un fossé entre ce que l’IA promet et ce que les gens expérimentent réellement. Le combler, c’est là que tout se joue. » — TM Roh, CEO de la division Device eXperience, Samsung

Le succès est au rendez-vous : les précommandes du Galaxy S26 ont bondi de près de 25 % par rapport à la génération précédente, avec plus de 1,5 million de précommandes. Le modèle Ultra, à lui seul, représente plus de 70 % de ces ventes anticipées.

Comment ça marche concrètement ? L’IA qui « utilise » votre téléphone à votre place

La fonctionnalité star s’appelle « Screen Automation » (ou automatisation d’écran). Son principe est bluffant : quand vous demandez quelque chose à Gemini, l’assistant ouvre l’application concernée dans une fenêtre virtuelle sécurisée, navigue dans les menus, sélectionne les éléments, remplit les formulaires… exactement comme un humain le ferait. Le tout peut même tourner en arrière-plan pendant que vous faites autre chose sur votre téléphone.

Voici quelques exemples concrets de ce que vous pouvez déjà faire :

  • 🚗 « Réserve-moi un Uber pour l’aéroport » → Gemini ouvre Uber, entre la destination, sélectionne le trajet et attend votre confirmation.
  • 🍕 « Commande une pizza pour la soirée film » → L’IA peut même lire votre conversation de groupe, deviner les préférences de chacun, et préparer le panier sur DoorDash ou Uber Eats.
  • « Recommande mon dernier café chez Starbucks » → Gemini retrouve votre commande habituelle et la replace en un clin d’œil.

Au lancement, les applications compatibles incluent Uber, Lyft, DoorDash, Grubhub, Uber Eats et Starbucks, avec d’autres à venir comme Instacart. La fonctionnalité est disponible en bêta aux États-Unis et en Corée du Sud, et Google promet une expansion rapide vers d’autres pays et applications.

Point crucial : pour toute action sensible (un paiement, une validation de commande), Gemini vous demande systématiquement confirmation. Vous gardez toujours le contrôle, avec la possibilité d’arrêter la tâche ou de reprendre la main à tout moment.

Now Nudge, Now Brief : l’IA qui anticipe vos besoins

L’automatisation d’écran n’est qu’une partie de l’équation. Le Galaxy S26 introduit aussi Now Nudge, une fonctionnalité qui comprend ce qui s’affiche sur votre écran et vous suggère des actions intelligentes. Quelqu’un mentionne un dîner vendredi prochain dans un message WhatsApp ? Now Nudge vous propose d’ajouter l’événement à votre calendrier en un seul geste. Un ami partage une adresse ? L’appli vous ouvre directement la carte.

Now Nudge est compatible avec de nombreuses applications de messagerie, dont Samsung Messages, Google Messages, WhatsApp, Signal et Instagram DM, et fonctionne en français, anglais, et une dizaine d’autres langues.

À cela s’ajoute Now Brief, qui analyse vos habitudes pour vous proposer des résumés personnalisés et des rappels contextuels. Le matin, il vous récapitule votre journée. Le soir, il fait le bilan. C’est comme avoir un assistant personnel qui a lu votre agenda, vos notifications et votre météo avant même que vous ne preniez votre café.

Et côté vie privée ? Samsung mise sur le Personal Data Engine, qui traite vos données directement sur l’appareil. Vos informations personnelles restent sur votre téléphone, chiffrées par Knox et protégées par le système KEEP (Knox Enhanced Encrypted Protection). Pas de serveur externe, pas de fuite de données.

Android 17 : le système d’exploitation qui rend tout ça possible

Derrière cette révolution, il y a aussi un travail de fond de Google sur Android 17. Le nouveau système d’exploitation introduit deux technologies complémentaires pour les développeurs : les AppFunctions et l’automatisation d’interface (UI Automation).

Les AppFunctions permettent aux développeurs de décrire les capacités de leurs applications pour que Gemini puisse interagir avec elles de façon structurée. L’UI Automation, elle, permet à l’IA de naviguer visuellement dans n’importe quelle application, même celles qui n’ont pas encore intégré les AppFunctions. C’est cette double approche qui rend le système si polyvalent.

Après un lancement sur les Galaxy S26 et Pixel 10, Google prévoit d’étendre ces capacités à davantage d’appareils et de fabricants avec la sortie stable d’Android 17, attendue au milieu de l’année 2026. La vision de Google est claire : faire de Gemini l’assistant central de tout l’écosystème Android.

Et après ? Vers un téléphone vraiment autonome

Ce qui est fascinant, c’est que nous n’en sommes qu’au début. Pour l’instant, Gemini gère les commandes de repas, les courses et les trajets. Mais l’architecture est conçue pour s’étendre : gestion d’agenda, envoi de messages contextuels, réservation de restaurants, comparaison de prix… Les possibilités sont immenses.

Bien sûr, tout n’est pas encore parfait. La fonctionnalité est en bêta, certains utilisateurs signalent des petits bugs occasionnels, et elle ne gère pas encore les trajets multi-arrêts. Mais la direction est claire : votre smartphone est en train de passer d’un outil passif — qui attend vos instructions — à un véritable agent autonome qui comprend vos intentions et agit en conséquence.

Comme le résumait TM Roh lors du Galaxy Unpacked : les technologies qui changent l’histoire finissent par « s’effacer dans le décor, parce qu’elles deviennent infrastructure ». L’IA agentique sur smartphone, c’est exactement ce chemin-là.

À retenir

  • Le Samsung Galaxy S26, dévoilé le 25 février 2026 et en vente depuis le 11 mars, est le premier smartphone conçu autour de l’IA agentique.
  • Gemini Screen Automation permet à l’IA de naviguer dans vos applis (Uber, DoorDash, Starbucks…) et d’exécuter des tâches complètes à votre place, dans une fenêtre virtuelle sécurisée.
  • Now Nudge analyse votre écran en temps réel pour suggérer des actions intelligentes (ajouter un événement, partager une photo, ouvrir une carte).
  • Trois moteurs d’IA cohabitent : Bixby, Gemini et Perplexity, chacun spécialisé dans un domaine.
  • Toutes les données sont traitées sur l’appareil grâce au Personal Data Engine et protégées par Samsung Knox.
  • Android 17 généralise ces capacités avec les AppFunctions et l’automatisation UI, pour tous les smartphones Android à venir.
  • Les précommandes ont explosé : +25 % par rapport au S25, avec plus de 1,5 million de réservations et 70 % pour le modèle Ultra.

Photo : Matheus Bertelli via Pexels