
Google présente une architecture numérique tournée vers l’IA générative avec Gemini comme OS invisible
L'édition 2025 de la conférence annuelle Google I/O a marqué un tournant décisif dans la stratégie de Google : l'intelligence artificielle (IA) n’est plus une simple fonctionnalité, mais le moteur principal de l'ensemble de ses services. Du moteur de recherche repensé à la création de contenu par IA, en passant par des outils pour les développeurs, Google propose une nouvelle vision du numérique centrée sur Gemini, son modèle d’IA de nouvelle génération. La conférence de deux heures a été entièrement consacrée à la présentation de Gemini, Veo, Flow, Beam, Astra, Imagen et d'autres outils destinés à vous aider à naviguer dans le nouveau paysage de l'IA. Voici les annonces majeures de Google I/O 2025.
Gemini est le grand modèle de langage (LLM) de Google, qui en est actuellement à sa version 2.5 Pro. Qu'est-ce qu'un LLM ? C'est le système qui sous-tend les types d'outils d'IA que vous avez probablement vus et avec lesquels vous avez interagi sur l'internet. Par exemple, GPT-4 alimente ChatGPT-4o, le chatbot d'OpenAI.
Gemini est toutefois plus qu'un modèle d'IA, puisqu'il s'agit également du nom et de l'identité de son chatbot, précédemment connu sous le nom de Bard. En fait, Google a simplifié les choses en appelant Gemini à la fois le modèle sous-jacent et le chatbot lui-même.
De plus, il existe désormais une application Gemini gratuite pour Android et iOS, et Gemini peut remplacer Google Assistant sur votre téléphone Android si vous le souhaitez. Il existe également une version gratuite de Google Gemini accessible via n'importe quel navigateur internet.
Enfin, outre la version de base (gratuite) de Gemini pour les consommateurs, il existe une offre premium pour l'IA, appelée Gemini Advanced, qui est disponible via un abonnement appelé Google One AI Premium. Gemini Advanced vous donne un meilleur accès aux LLM les plus performants de Gemini, ainsi qu'à la fonction Gemini Deep Research.
En résumé, toutes les propriétés de Google en matière d'IA sont désormais regroupées sous le nom de Gemini afin de simplifier les choses, qu'il s'agisse d'IA pour les particuliers ou les entreprises, et que l'accès à Gemini se fasse via le web, l'assistant ou l'application sur votre smartphone.
Il existe quatre LLM distincts que Google a mis en œuvre avec son IA. Il s'agit de Gemini Ultra, Pro, Flash et Nano. Si vous vous rendez sur le site web de Gemini et posez une question au chatbot, vous utiliserez Gemini 2.0 ou 2.5 Flash, qui est le modèle léger de Google, optimisé pour la vitesse et l'efficacité. Si vous êtes membre du niveau payant via Gemini Advanced, vous avez accès à Gemini 2.5 Pro, qui est le modèle le plus large et convient aux tâches très complexes. Enfin, il y a le modèle Deep Research with 2.5 Pro, qui est un agent de recherche capable d'effectuer des recherches approfondies sur un sujet pour vous, pendant que vous êtes libre de faire autre chose.
Gemini 2.5 Pro ajoute un mode de raisonnement « amélioré »
Le mode expérimental Deep Think est destiné aux requêtes complexes liées aux mathématiques et au codage. Il est capable d'envisager « plusieurs hypothèses avant de répondre » et ne sera d'abord disponible que pour les testeurs de confiance.
Google a également mis son modèle Gemini 2.5 Flash à la disposition de tous sur son application Gemini et apporte des améliorations au modèle économique dans Google AI Studio avant un déploiement plus large.
Les capacités d'image améliorées ne sont pas les seules améliorations apportées à Gemini. Il bénéficie également d'une dose supplémentaire de puissance cérébrale avec l'ajout d'un nouveau mode Deep Think.
Dis autrement, ce mode ajoute à Gemini 2.5 Pro une fonction qui lui permet de réfléchir davantage aux questions qui lui sont posées, plutôt que d'essayer de fournir une réponse aussi rapidement que possible. Cela signifie que la dernière version pro de Gemini exécutera plusieurs lignes de raisonnement possibles en parallèle, avant de décider comment répondre à une requête. C'est un peu comme si l'IA se plongeait dans une encyclopédie plutôt que d'improviser pour trouver des informations.
Il y a un hic : pour l'instant, Google ne propose le mode Deep Think qu'à des testeurs de confiance, mais nous ne serions pas surpris qu'il soit bientôt diffusé à plus grande échelle.
Gemini débarque sur Chrome
Google intègre son assistant d'intelligence artificielle dans Chrome. À partir du 21 mai, les abonnés Google AI Pro et Ultra pourront sélectionner le bouton Gemini dans Chrome pour clarifier ou résumer des informations sur des pages web et naviguer sur des sites en leur nom. Google prévoit de faire fonctionner Gemini sur plusieurs onglets à la fois dans le courant de l'année.
Qu'est-ce que cela signifie ? Apparemment, vous pourrez désormais demander à Gemini de clarifier les informations complexes que vous recherchez ou de résumer des pages web. Si cela ne vous semble pas très excitant, Google a également promis que Gemini fonctionnerait à terme sur plusieurs onglets et qu'il naviguerait également sur les sites web « en votre nom ».
Gemini Canvas
Dans le cadre de Gemini 2.5, Canvas (l'espace créatif au sein de l'application Gemini) a été dynamisé par les nouveaux modèles d'IA mis à jour dans cette nouvelle version de Gemini.
Cela signifie que Canvas est plus performant et plus intuitif, l'outil étant capable de prendre des données et des invites et de les transformer en infographies, en jeux, en quiz, en pages web et bien plus encore en quelques minutes.
Mais le plus intéressant est que Canvas peut désormais prendre des idées complexes et les transformer en code fonctionnel rapidement et sans que l'utilisateur ait besoin de connaître des langages de codage spécifiques ; il lui suffit de décrire ce qu'il veut dans l'invite de texte.
De telles capacités ouvrent le monde du « vibe coding », où l'on peut créer des logiciels sans avoir besoin de connaître des langages de programmation, et il est également possible de prototyper de nouvelles idées d'applications rapidement et simplement à l'aide de messages-guides.
La recherche Google a bénéficié de sa plus grande mise à jour en matière d'intelligence artificielle
À l'ère de ChatGPT, Google a répliqué en lançant son mode IA pour la recherche (qui n'était jusqu'à présent qu'une expérience) pour tout le monde aux États-Unis, et ce n'est que le début de ses projets.
Dans ce nouveau mode IA, Google a créé plusieurs nouveaux outils Labs pour faire de l'ombre à la concurrence. Un mode « Recherche approfondie » vous permet de la faire travailler sur des projets de recherche plus longs, tandis qu'un nouvel assistant d'achat de billets (alimenté par le projet Mariner) vous aidera à obtenir des billets pour vos événements préférés.
L'AI Overviews, moins populaire, fait également l'objet d'un déploiement plus large, mais une chose est sûre : Google Search va désormais se présenter très différemment.
L'assistant expérimental de Google devient de plus en plus proactif
Le Projet Astra pouvait déjà utiliser l'appareil photo de votre téléphone pour « voir » les objets qui vous entourent, mais le dernier prototype lui permettra d'effectuer des tâches en votre nom, même si vous ne le lui demandez pas explicitement. Le modèle peut choisir de parler en fonction de ce qu'il voit, par exemple en signalant une erreur dans vos devoirs.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Last year we unveiled Project Astra on the <a href="https://twitter.com/hashtag/GoogleIO?src=hash&ref_src=twsrc%5Etfw">#GoogleIO</a> stage. See how it’s evolved since then — and what might be possible in the future. <a href="https://t.co/ObMi7gFrrl">pic.twitter.com/ObMi7gFrrl</a></p>— Google (@Google) <a href="https://twitter.com/Google/status/1924883454992252993?ref_src=twsrc%5Etfw">May 20, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Google lance une application d'IA pour la réalisation de films
Outre la mise à jour de ses modèles d'IA, Google lance une nouvelle application de réalisation de films d'IA appelée Flow. Cet outil utilise Veo, Imagen et Gemini pour créer des clips vidéo de huit secondes générés par l'IA à partir de textes et/ou d'images. Il est également doté d'outils de construction de scènes permettant d'assembler des clips et de créer des vidéos d'IA plus longues.
Imagen et Veo bénéficient d'importantes mises à jour
Google a annoncé Imagen 4, la dernière version de son générateur de texte à partir d'images, qui, selon l'entreprise, génère mieux le texte et offre la possibilité d'exporter des images dans davantage de formats, comme le format carré et le format paysage. Veo 3, son générateur de vidéo par IA de nouvelle génération, vous permettra de générer de la vidéo et du son en même temps, tandis que Veo 2 est désormais doté d'outils tels que le contrôle de la caméra et la suppression d'objets.
Côté développeurs
Google AI Studio facilite la création avec l'API Gemini : « Nous avons intégré Gemini 2.5 Pro à l'éditeur de code natif, ce qui vous permet de créer des prototypes plus rapidement. Il est étroitement optimisé avec le SDK GenAI afin que vous puissiez générer instantanément des applications Web à partir de textes, d'images ou de vidéos. Commencez par une simple invite ou laissez-vous inspirer par les applications de démarrage de la vitrine ».
Créez des expériences agentiques avec l'API Gemini : « Créez des agents avec les capacités de raisonnement avancées de Gemini 2.5 via l'API Gemini et de nouveaux outils, comme URL Context. Il permet au modèle d'extraire le contexte de pages web à partir d'un simple lien. Nous avons également annoncé que les SDK Gemini prendront en charge les définitions du protocole MCP (Model Context Protocol), ce qui facilitera l'utilisation d'outils open source ».
Gemini 2.5 Flash Native Audio dans l'API Live : « Créez des applications agentiques qui entendent et parlent, avec un contrôle total sur la voix, le ton, la vitesse et le style général du modèle, dans 24 langues. Gemini 2.5 Flash Native Audio comprend beaucoup mieux le flux de la conversation et ignore les sons ou les voix parasites, ce qui permet des échanges plus fluides et plus naturels ».
Générer des designs d'interface utilisateur de haute qualité avec Stitch : Un nouvel outil alimenté par l'IA pour générer des conceptions d'interface utilisateur et le code frontal correspondant pour les applications web. Vous pouvez également adapter les thèmes et exporter facilement vos créations en CSS/HTML ou en Figma pour continuer à travailler. Essayez Stitch pour la conception de l'interface utilisateur.
Android
Google assure qu'elle « facilite la création d'expériences exceptionnelles sur tous les appareils ».
Créer des expériences avec l'IA générative : « L'IA générative améliore les applications en les rendant intelligentes, personnalisées et agentiques. Nous avons annoncé de nouvelles API ML Kit GenAI utilisant Gemini Nano pour des tâches courantes sur l'appareil. Nous avons présenté un exemple d'application d'IA, Androidify, qui vous permet de créer un robot Android de vous-même à l'aide d'un selfie ».
Construire d'excellentes applications de manière adaptative sur 500 millions d'appareils : « Les applications mobiles Android constituent la base des téléphones, des appareils pliables, des tablettes et de ChromeOS, et cette année, nous vous aidons à les apporter aux voitures et à Android XR. Vous pouvez également tirer parti de Material 3 Expressive pour faire briller vos applications ».
Gemini dans Android Studio - Des agents d'intelligence artificielle pour vous aider à travailler : « Gemini dans Android Studio est le compagnon de codage alimenté par l'IA qui rend les développeurs plus productifs à chaque étape du cycle de vie du développement. Nous avons présenté en avant-première Journeys, une expérience d'agent qui aide à écrire et à exécuter des tests de bout en bout. Nous avons également présenté en avant-première l'agent de mise à niveau de version qui aide à mettre à jour les dépendances. Découvrez comment ces expériences agentiques de Gemini dans Android Studio peuvent vous aider à créer de meilleures applications, plus rapidement ».
Source : Google
Et vous ?





Vous avez lu gratuitement 918 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.