
Gemini est le grand modèle de langage (LLM) de Google, qui en est actuellement à sa version 2.5 Pro. Qu'est-ce qu'un LLM ? C'est le système qui sous-tend les types d'outils d'IA que vous avez probablement vus et avec lesquels vous avez interagi sur l'internet. Par exemple, GPT-4 alimente ChatGPT-4o, le chatbot d'OpenAI.
Gemini est toutefois plus qu'un modèle d'IA, puisqu'il s'agit également du nom et de l'identité de son chatbot, précédemment connu sous le nom de Bard. En fait, Google a simplifié les choses en appelant Gemini à la fois le modèle sous-jacent et le chatbot lui-même.
De plus, il existe désormais une application Gemini gratuite pour Android et iOS, et Gemini peut remplacer Google Assistant sur votre téléphone Android si vous le souhaitez. Il existe également une version gratuite de Google Gemini accessible via n'importe quel navigateur internet.
Enfin, outre la version de base (gratuite) de Gemini pour les consommateurs, il existe une offre premium pour l'IA, appelée Gemini Advanced, qui est disponible via un abonnement appelé Google One AI Premium. Gemini Advanced vous donne un meilleur accès aux LLM les plus performants de Gemini, ainsi qu'à la fonction Gemini Deep Research.
En résumé, toutes les propriétés de Google en matière d'IA sont désormais regroupées sous le nom de Gemini afin de simplifier les choses, qu'il s'agisse d'IA pour les particuliers ou les entreprises, et que l'accès à Gemini se fasse via le web, l'assistant ou l'application sur votre smartphone.
Il existe quatre LLM distincts que Google a mis en œuvre avec son IA. Il s'agit de Gemini Ultra, Pro, Flash et Nano. Si vous vous rendez sur le site web de Gemini et posez une question au chatbot, vous utiliserez Gemini 2.0 ou 2.5 Flash, qui est le modèle léger de Google, optimisé pour la vitesse et l'efficacité. Si vous êtes membre du niveau payant via Gemini Advanced, vous avez accès à Gemini 2.5 Pro, qui est le modèle le plus large et convient aux tâches très complexes. Enfin, il y a le modèle Deep Research with 2.5 Pro, qui est un agent de recherche capable d'effectuer des recherches approfondies sur un sujet pour vous, pendant que vous êtes libre de faire autre chose.
Gemini 2.5 Pro ajoute un mode de raisonnement « amélioré »
Le mode expérimental Deep Think est destiné aux requêtes complexes liées aux mathématiques et au codage. Il est capable d'envisager « plusieurs hypothèses avant de répondre » et ne sera d'abord disponible que pour les testeurs de confiance.
Google a également mis son modèle Gemini 2.5 Flash à la disposition de tous sur son application Gemini et apporte des améliorations au modèle économique dans Google AI Studio avant un déploiement plus large.
Les capacités d'image améliorées ne sont pas les seules améliorations apportées à Gemini. Il bénéficie également d'une dose supplémentaire de puissance cérébrale avec l'ajout d'un nouveau mode Deep Think.
Dis autrement, ce mode ajoute à Gemini 2.5 Pro une fonction qui lui permet de réfléchir davantage aux questions qui lui sont posées, plutôt que d'essayer de fournir une réponse aussi rapidement que possible. Cela signifie que la dernière version pro de Gemini exécutera plusieurs lignes de raisonnement possibles en parallèle, avant de décider comment répondre à une requête. C'est un peu comme si l'IA se plongeait dans une encyclopédie plutôt que d'improviser pour trouver des informations.
Il y a un hic : pour l'instant, Google ne propose le mode Deep Think qu'à des testeurs de confiance, mais nous ne serions pas surpris qu'il soit bientôt diffusé à plus grande échelle.
Gemini débarque sur Chrome
Google intègre son assistant d'intelligence artificielle dans Chrome. À partir du 21 mai, les abonnés Google AI Pro et Ultra pourront sélectionner le bouton Gemini dans Chrome pour clarifier ou résumer des informations sur des pages web et naviguer sur des sites en leur nom. Google prévoit de faire fonctionner Gemini sur plusieurs onglets à la fois dans le courant de l'année.
Qu'est-ce que cela signifie ? Apparemment, vous pourrez désormais demander à Gemini de clarifier les informations complexes que vous recherchez ou de résumer des pages web. Si cela ne vous semble pas très excitant, Google a également promis que Gemini fonctionnerait à terme sur plusieurs onglets et qu'il naviguerait également sur les sites web « en votre nom ».
Gemini Canvas
Dans le cadre de Gemini 2.5, Canvas (l'espace créatif au sein de l'application Gemini) a été dynamisé par les nouveaux modèles d'IA mis à jour dans cette nouvelle version de Gemini.
Cela signifie que Canvas est plus performant et plus intuitif, l'outil étant capable de prendre des données et des invites et de les transformer en infographies, en jeux, en quiz, en pages web et bien plus encore en quelques minutes.
Mais le plus intéressant est que Canvas peut désormais prendre des idées complexes et les transformer en code fonctionnel rapidement et sans que l'utilisateur ait besoin de connaître des langages de codage spécifiques ; il lui suffit de décrire ce qu'il veut dans l'invite de texte.
De telles capacités ouvrent le monde du « vibe coding », où l'on peut créer des logiciels sans avoir besoin de connaître des langages de programmation, et il est également possible de prototyper de nouvelles idées d'applications rapidement et simplement à l'aide de messages-guides.
La recherche Google a bénéficié de sa plus grande mise à jour en matière d'intelligence artificielle
À l'ère de ChatGPT, Google a répliqué en lançant son mode IA pour la recherche (qui n'était jusqu'à présent qu'une expérience) pour tout le monde aux États-Unis, et ce n'est que le début de ses projets.
Dans ce nouveau mode IA, Google a créé plusieurs nouveaux outils Labs pour faire de l'ombre à la concurrence. Un mode « Recherche approfondie » vous permet de la faire travailler sur des projets de recherche plus longs, tandis qu'un nouvel assistant d'achat de billets (alimenté par le projet Mariner) vous aidera à obtenir des billets pour vos événements préférés.
L'AI Overviews, moins populaire, fait également l'objet d'un déploiement plus large, mais une chose est sûre : Google Search va désormais se présenter très différemment.
L'assistant expérimental de Google devient de plus en plus proactif
Le Projet Astra pouvait déjà utiliser l'appareil photo de votre téléphone pour « voir » les objets qui vous entourent, mais le dernier prototype lui permettra d'effectuer des tâches en votre nom, même si vous ne le lui demandez pas explicitement. Le modèle peut choisir de parler en fonction de ce qu'il voit, par exemple en signalant une erreur dans vos devoirs.
Google lance une application d'IA pour la réalisation de filmsLast year we unveiled Project Astra on the #GoogleIO stage. See how it’s evolved since then — and what might be possible in the future. pic.twitter.com/ObMi7gFrrl
— Google (@Google) May 20, 2025
Outre la mise à jour de ses modèles d'IA, Google lance une nouvelle application de réalisation de films d'IA appelée Flow. Cet outil utilise Veo, Imagen et Gemini pour créer des clips vidéo de huit secondes générés par l'IA à partir de textes et/ou d'images. Il est également doté d'outils de construction de scènes permettant d'assembler des clips et de créer des vidéos d'IA plus longues.
Imagen et Veo bénéficient d'importantes mises à jour
Google a annoncé Imagen 4, la dernière version de son générateur de texte à partir d'images, qui, selon l'entreprise, génère mieux le texte et offre la possibilité d'exporter des images dans davantage de formats, comme le format carré et le format paysage. Veo 3, son générateur de vidéo par IA de nouvelle génération, vous permettra de générer de la vidéo et du son en même temps, tandis que Veo 2 est désormais doté d'outils tels que le contrôle de la caméra et la suppression d'objets.
[B][SIZE=3]Côté d[/size=3]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.