Skip to main content

Présentation de l'application Gemini

Nous avons compris depuis longtemps que l'intelligence artificielle pourrait rendre l'information et l'informatique plus accessibles et plus utiles. Nous avons d'ailleurs fait figure de pionniers concernant les grands modèles de langage (LLM) et avons constaté de grands progrès dans l'ensemble des produits Google, et plus largement dans ce domaine. Depuis plusieurs années, nous améliorons nombre de nos produits en appliquant des LLM en arrière-plan, qu'il s'agisse de permettre la saisie semi-automatique de phrases dans Gmail, de développer Google Traduction ou de mieux comprendre vos requêtes dans la recherche Google. Nous utilisons toujours les LLM pour de nombreux services Google. Et ils alimentent également l'application Gemini, qui permet aux utilisateurs de collaborer directement avec l'IA générative. Nous voulons faire de cette appli l'assistant IA le plus utile et le plus personnalisé possible, offrant un accès direct aux derniers modèles d'IA de Google.

Bien que nous soyons à un tournant important et que l'IA générative suscite un engouement certain, cette technologie n'en est encore qu'à ses débuts. En présentant l'application Gemini (aussi appelée simplement Gemini), son fonctionnement, ainsi que ses capacités et limites actuelles, ce document explique l'approche que nous adoptons pour élaborer cette appli, y compris ses expériences mobile et Web. Cette approche est appelée à évoluer en parallèle du développement des technologies sur lesquelles repose Gemini, mais aussi au gré des résultats des recherches en cours, de notre expérience et des retours d'utilisateurs.

Gemini, qu'est-ce c'est ?

Gemini est une interface d'un LLM multimodal (capable de traiter du texte, de l'audio, des images et plus). Il s'appuie sur les recherches de pointe de Google dans le domaine des LLM, qui ont commencé avec la parution en 2013 de l'article scientifique Word2Vec, imaginant des architectures de modèles inédites qui permettraient de transformer les mots en objets mathématiques. Cet article a été suivi en 2015 par le lancement d'un modèle conversationnel neuronal. Ce cadre a permis de démontrer comment les modèles pouvaient prédire la phrase suivante d'une conversation à partir de la ou des précédentes phrases, ce qui a donné lieu à des expériences conversationnelles plus naturelles. Nous avons ensuite réalisé des avancées révolutionnaires avec Transformer en 2017, puis les capacités de chat multitour en 2020 ont révélé les progrès encore plus convaincants du langage génératif.

Nous avons initialement lancé Gemini (alors appelé Bard) à titre expérimental en mars 2023, conformément à nos Principes concernant l'IA. Depuis, de nombreux utilisateurs l'ont adopté pour rédiger des e-mails convaincants, résoudre des problèmes de codage, trouver des idées pour des événements, obtenir de l'aide pour comprendre certains concepts difficiles, et bien davantage. Gemini est aujourd'hui un outil IA polyvalent qui peut vous aider de bien des façons. Il permet déjà à de nombreuses personnes de gagner en productivité et en créativité, et de satisfaire leur curiosité. Et nous continuons de développer régulièrement ses fonctionnalités et capacités.

Productivité

Premier point : Gemini peut vous faire gagner du temps. Imaginons que vous ayez besoin de résumer un long article de recherche. Gemini vous permet de l'importer, et vous propose une synthèse pertinente. Gemini peut aussi vous aider à travailler sur du code, ce qui est rapidement devenu l'une de ses applications les plus appréciées.

Créativité

Gemini peut aussi stimuler votre créativité et vous aider à donner vie à vos idées. Par exemple, si vous devez rédiger un article de blog, Gemini peut créer un plan et générer des images d'illustration. Vous pouvez même personnaliser Gemini et en créer des versions expertes dans différents domaines grâce aux Gems. Renseignez des instructions spécifiques selon vos besoins, et profitez d'un coup de pouce pour vous aider à atteindre vos objectifs personnels.

Curiosité

Gemini peut constituer un point de départ pour développer vos idées et approfondir des sujets qui vous intéressent. Il peut, par exemple, vous expliquer simplement un concept complexe ou dégager des informations intéressantes concernant un sujet ou une image. Bientôt, Gemini pourra associer ces informations à des contenus recommandés sur le Web pour vous aider à en savoir plus sur un domaine précis.

Les capacités de Gemini se développent rapidement. Il vous sera bientôt possible d'orienter l'appareil photo de votre téléphone vers un objet, par exemple le Pont du Gard, pour demander à Gemini de vous en indiquer la hauteur (48,77 mètres, si vous vous posiez la question). Gemini pourra aussi vous guider face à un menu dans une langue étrangère et même vous recommander un plat correspondant à vos goûts. Ce ne sont là que deux exemples des nouvelles capacités bientôt disponibles sur Gemini.

Naturellement, nous entraînons et surveillons rigoureusement Gemini pour que ses réponses aient toutes les chances d'être fiables et de combler vos attentes. Nous sommes aussi en contact avec des experts du secteur, des enseignants, des décideurs politiques, des dirigeants d'entreprises, des défenseurs des droits civiques et des droits humains, ainsi que des créateurs de contenus pour discuter des nouvelles utilisations de cette technologie émergente, mais aussi de ses risques et de ses limites.

Comment fonctionne Gemini ?

1

Pré-entraînement

2

Post-entraînement

3

Réponses aux prompts des utilisateurs

4

Commentaires et évaluation par des réviseurs humains

Limites connues des interfaces basées sur des LLM telles que Gemini

Gemini ne représente qu'une partie de notre action constante en faveur d'un développement responsable des LLM. Au fil de ce travail, nous avons pu découvrir et analyser différentes limites affectant les LLM. Voici six domaines actuellement étudiés par les chercheurs :

  • Exactitude : les réponses de Gemini peuvent être inexactes, en particulier quand on l'interroge sur des sujets complexes ou factuels.

  • Biais : certaines réponses de Gemini peuvent refléter des biais présents dans ses données d'entraînement.

  • Multiplicité de points de vue : dans ses réponses, Gemini n'est pas toujours capable de restituer des points de vue variés.

  • Persona : les réponses fournies peuvent donner l'impression erronée que Gemini a des opinions ou des sentiments personnels.

  • Faux positifs et faux négatifs : Gemini peut refuser de répondre à des prompts appropriés ou fournir des réponses inappropriées à d'autres.

  • Vulnérabilité aux prompts hostiles : certains utilisateurs ne manqueront pas de mettre Gemini à l'épreuve en lui soumettant des prompts absurdes ou des questions rarement posées dans le monde réel.

Nous recherchons sans cesse de nouvelles approches et voies d'amélioration pour corriger les performances dans chacun de ces domaines.

Exactitude

Gemini s'appuie sur l'approche de Google pour identifier les informations faisant autorité et est entraîné à générer des réponses adaptées au contexte de votre prompt et à l'objet de votre recherche. Cependant, comme pour tout LLM, il arrive à Gemini de générer des réponses contenant des informations inexactes ou trompeuses, pourtant présentées sous une forme convaincante et sans la moindre réserve.

Comme le fonctionnement des LLM consiste à prédire le mot ou la séquence de mots qui va suivre, ces outils ne sont pas encore pleinement capables de distinguer le vrai du faux de façon autonome. Il est ainsi arrivé à Gemini de fournir des réponses contenant des informations inexactes ou d'inventer de telles informations (par exemple, en offrant une présentation trompeuse de son entraînement ou en citant le titre d'un livre inexistant). Pour résoudre ce problème, nous avons créé la fonctionnalité "vérifier", qui utilise la recherche Google pour trouver des contenus vous aidant à évaluer les réponses de Gemini et fournit des liens vers des sources pour vous permettre de recouper les informations obtenues.

Biais

Les données d'entraînement, y compris celles provenant de sources publiques, reflètent diverses perspectives et opinions. Nous continuons de chercher des manières d'utiliser ces données de façon à nous assurer que les réponses du LLM intègrent une large palette de points de vue tout en évitant les généralisations abusives et les biais.

Les lacunes, généralisations abusives et autres biais présents dans les données d'entraînement peuvent se refléter dans les réponses d'un modèle lorsqu'il tente de prédire les réponses probables à un prompt. Nous avons observé ces problèmes sous différentes formes (par exemple, des réponses reflétant le point de vue exclusif d'une culture, d'une catégorie démographique ou d'une idéologie particulière, mais aussi des réponses affectées par des généralisations abusives, ou des préjugés à l'égard d'un genre, d'une religion ou d'une ethnie). Il existe des lacunes dans les données disponibles sur certains sujets. Or, lorsque les informations fiables manquent, l'entraînement du LLM et sa capacité à produire des prédictions satisfaisantes sont pénalisés. On peut alors s'attendre à des réponses inexactes ou de basse qualité. Nous poursuivons notre collaboration avec des experts dans différents domaines et diverses communautés pour évoluer en nous appuyant sur les expertises approfondies existant en dehors de Google.

Multiplicité des points de vue

Pour les domaines subjectifs, Gemini est conçu pour fournir des réponses reflétant une multiplicité de points de vue, sauf demande contraire. Par exemple, face à une demande d'informations sur un sujet ne relevant ni de faits directement vérifiables ni de sources faisant autorité, comme une évaluation subjective contenant le mot "meilleur" ou "pire", Gemini doit répondre de façon à refléter des points de vue variés. Mais étant donné que les LLM sont entraînés avec des données disponibles publiquement sur Internet, il leur arrive de reprendre des opinions positives ou négatives concernant des figures politiques, célébrités ou autres personnalités publiques. Ils peuvent aussi s'en tenir aux arguments d'un seul camp sur des sujets politiques ou sociaux controversés. Les réponses de Gemini ne devraient pas promouvoir de point de vue particulier sur ces sujets, et nous utiliserons les commentaires associés à ce type de réponses pour entraîner l'outil à mieux les traiter.

Persona

Certaines réponses générées par Gemini peuvent donner l'impression que l'outil a des opinions ou ressent des émotions, comme de l'affection ou de la tristesse, parce qu'il a été entraîné à partir du langage employé par les internautes pour refléter l'expérience humaine. Nous avons développé un ensemble de règles encadrant la manière dont Gemini peut se décrire lui-même (le persona) et nous continuons à ajuster le modèle afin qu'il fournisse des réponses objectives.

Faux positifs et faux négatifs

Nous avons établi un Règlement pour contribuer à l'entraînement de Gemini et lui éviter de générer des réponses problématiques. Il arrive que Gemini interprète ce règlement incorrectement, ce qui aboutit à des "faux positifs" et à des "faux négatifs". Un "faux positif" se caractérise par un refus de répondre à un prompt raisonnable, identifié à tort comme inapproprié. Un "faux négatif" se produit quand Gemini génère une réponse inappropriée allant à l'encontre de ce règlement. Certaines instances de faux positifs ou de faux négatifs peuvent donner l'impression d'un biais. Par exemple, en cas de faux positif, Gemini peut refuser de fournir le point de vue d'un camp sur un sujet polémique, mais accepter de fournir celui du camp opposé. Nous poursuivons l'amélioration de ces modèles afin de mieux comprendre et catégoriser les requêtes et les réponses dans un contexte d'évolution rapide de la langue, des événements et de la société.

Vulnérabilité aux prompts hostiles

Nous nous attendons à ce que les utilisateurs testent les limites des capacités de Gemini et cherchent à forcer la protection de l'outil en essayant, par exemple, de l'amener à révéler ses protocoles d'entraînement ou d'autres informations, voire de contourner ses mécanismes de sécurité. Nous avons testé Gemini et continuons de le soumettre à des tests rigoureux, mais nous savons que les utilisateurs trouveront toujours d'autres façons inédites et complexes de le mettre à l'épreuve. Il s'agit d'un aspect important du perfectionnement de Gemini et nous attachons un grand intérêt à tous les nouveaux prompts imaginés par les utilisateurs. En effet, depuis le lancement de Gemini en 2023, nous avons vu les utilisateurs le mettre au défi de répondre à des questions de tous types, des plus philosophiques aux plus absurdes. Ceci a pu entraîner des réponses tout aussi absurdes ou allant à l'encontre de notre approche. Nous recherchons constamment de nouvelles solutions pour aider Gemini à répondre à ces types de prompts et continuons à développer nos évaluations internes et efforts de Red Teaming pour offrir davantage d'exactitude, d'objectivité et de nuance.

Comment nous poursuivons le développement de Gemini

Application de notre approche Gemini

Parallèlement à nos Principes concernant l'IA, nous avons récemment défini notre approche pour travailler sur Gemini : Gemini doit suivre vos instructions, s'adapter à vos besoins et protéger votre expérience. Cette approche est centrée sur la responsabilité et la sécurité. Le Règlement de Gemini vise à éviter certains types de réponses problématiques. Nous effectuons régulièrement des tests antagonistes à l'aide d'une équipe "Red Team" interne composée d'experts produit et de chercheurs en sciences sociales qui ont pour mission de mettre à l'épreuve le modèle afin d'identifier toute réponse allant à l'encontre de notre règlement ou des principes phares de notre approche. Leurs résultats nous permettent de corriger ces problèmes et de poursuivre l'amélioration de Gemini.

La protection de la vie privée représente également un enjeu majeur dans le développement de Gemini. Le Guide sur la confidentialité dans les applications Gemini dispose d'informations supplémentaires sur la façon dont nous développons Gemini en intégrant la protection des données personnelles dès la conception et en vous donnant tout contrôle.

Donner le contrôle aux utilisateurs et aux éditeurs

Nous avons créé un grand nombre de systèmes de contrôle très accessibles pour permettre aux utilisateurs de passer en revue, de modifier, de gérer, d'exporter et de supprimer leurs données Gemini. Vous pouvez afficher et passer en revue vos prompts, les réponses de Gemini ou vos commentaires à l'aide du paramètre "Activité dans les applications Gemini". Il vous est également possible de refuser toute utilisation de vos discussions Gemini à venir pour améliorer les technologies de machine learning en désactivant le paramètre Activité dans les applications Gemini. Et comme pour tout autre service Google, vous pouvez aussi télécharger et exporter vos données à l'aide de l'outil Google Takeout. Des systèmes de contrôle vous permettent en plus de gérer les liens publics que vous avez créés vers vos fils de discussion Gemini, mais aussi d'activer ou de désactiver l'accès aux extensions (par exemple, Workspace, Maps, YouTube). Nous recherchons également de nouvelles façons de vous donner davantage de contrôle sur les réponses de Gemini, par exemple en modifiant des filtres pour élargir le champ des réponses que vous pouvez obtenir.

En ce qui concerne les éditeurs, nous avons lancé Google-Extended. Grâce à ce système de contrôle, les éditeurs Web peuvent décider s'ils souhaitent que leurs sites contribuent à améliorer Gemini et les API génératives Vertex AI. Autoriser Google-Extended à accéder aux contenus des sites peut aider les modèles d'IA à devenir plus précis et performants au fil du temps. En plus de ne pas utiliser les contenus des URL (pour lesquelles l'éditeur a opposé un refus) pour l'entraînement des modèles, Gemini n'exploitera pas ces contenus à des fins d'ancrage. Alors que les applications d'IA gagnent de plus en plus de terrain, les éditeurs Web doivent faire face à la complexité croissante caractérisant la gestion de différents cas d'utilisation à grande échelle. Nous nous engageons à collaborer avec les communautés Web et IA pour explorer des approches plus facilement lisibles par les machines en matière de choix et de contrôle.

Améliorons Gemini ensemble

Nous croyons en une itération rapide et en la nécessité de proposer au monde le meilleur de Gemini. Le feedback des utilisateurs a accéléré l'amélioration de nos modèles. Par exemple, nous utilisons des techniques d'apprentissage par renforcement à la pointe de la technologie pour entraîner nos modèles afin qu'ils soient plus intuitifs et imaginatifs, mais aussi pour améliorer la qualité et la précision de leurs réponses. Nous continuons d'investir dans la recherche pour en savoir plus sur les opportunités et défis soulevés par les LLM aux niveaux technique, social et éthique, que ce soit pour améliorer l'entraînement des modèles et les méthodes de perfectionnement de Gemini ou pour partager nos résultats avec d'autres chercheurs, comme nous l'avons fait récemment dans cet article consacré à l'éthique des assistants IA avancés. Nous nous engageons à innover de manière responsable dans ce domaine, en collaborant avec les utilisateurs, des testeurs de confiance et des chercheurs afin de trouver des moyens pour que l'ensemble de l'écosystème puisse profiter de ces nouvelles technologies.

La transparence est importante et nous nous engageons à faire preuve d'ouverture quant au processus de développement et aux limites de Gemini. Gemini n'est pas une boîte noire aux propriétés magiques. C'est un outil qui ne cesse d'évoluer et nous vous informerons régulièrement sur les progrès réalisés. Nous avons créé une page consacrée aux Mises à jour des versions de Gemini où vous retrouverez ses dernières fonctionnalités et améliorations, ainsi que les corrections de bug. Nous actualiserons ce contenu aussi souvent que nécessaire. Nous indiquerons aussi bien les situations où Gemini peut vous être utile que les instances où nous devons poursuivre les itérations pour l'améliorer. Nous travaillons activement à l'augmentation des capacités de Gemini, et grâce à la poursuite des recherches, aux tests et au feedback des utilisateurs, nous avons la certitude que nous continuerons à l'améliorer ensemble.

Remerciements

Nous tenons à exprimer toute notre gratitude pour le travail exceptionnel mené par les équipes de l'application Gemini, Google DeepMind, Trust & Safety et Google Research.

Auteurs

James Manyika
Vice-président senior, Recherche, technologie et société

Sissie Hsiao
Vice-présidente et directrice générale, Assistant Google et application Gemini

Note de l'éditeur

Ce document est appelé à évoluer et sera régulièrement mis à jour au fil des modifications apportées aux capacités de l'application Gemini et des solutions trouvées pour surmonter les limites propres aux LLM. La dernière modification de cette présentation date du 25 juillet 2024. Pour retrouver toute l'actualité de l'application Gemini, rendez-vous sur la page Mises à jour des versions ou consultez le blog The Keyword de Google.

Comment fonctionne Gemini ?

1 Pré-entraînement

Gemini s'appuie sur les modèles d'IA les plus performants de Google, conçus pour offrir différentes capacités et répondre à plusieurs cas d'utilisation. Comme la plupart des LLM actuels, ces modèles sont pré-entraînés sur des données diverses provenant de sources publiques. Nous appliquons des filtres de qualité à tous les ensembles de données, en utilisant à la fois des règles heuristiques et des classificateurs basés sur des modèles. Nous effectuons également un filtrage de sécurité pour supprimer tout contenu susceptible de générer des résultats non conformes à nos règles. Pour veiller à ne pas biaiser l'évaluation des modèles, nous recherchons et supprimons de nos corpus d'entraînement toutes les données d'évaluation qui pourraient s'y trouver avant d'utiliser les données pour entraîner les modèles. Les mix de données et les pondérations finaux sont déterminés au moyen d'ablations appliquées à des modèles plus petits. Nous séquençons l'entraînement de façon à modifier la composition du mix au fur et à mesure du processus, et le poids des données pertinentes pour le domaine traité est augmenté en fin d'entraînement. La qualité des données peut constituer un facteur important pour les modèles très performants, et la distribution optimale d'un ensemble de données pour le pré-entraînement nous semble soulever encore beaucoup de questions intéressantes.

Ce pré-entraînement permet au modèle d'apprendre à reconnaître des structures linguistiques fréquentes et de s'en servir pour prédire le ou les mots suivants dans une séquence. En apprenant, un LLM peut par exemple prédire que le mot qui suivra "salade tomate" a plus de chance d'être "mozza" que "bureau". Toutefois, si un grand modèle de langage se contente d'identifier systématiquement le mot suivant le plus probable, ses réponses seront moins créatives. On donne donc souvent la possibilité aux LLM d'opter pour des choix raisonnables, quoique légèrement moins probables (par exemple "banane"), afin de générer des réponses plus intéressantes. Il faut noter que, même si les LLM obtiennent de bons résultats sur des prompts factuels et donnent l'impression de récupérer des informations, ce ne sont ni des bases de données, ni des systèmes de récupération d'information déterministes. Si l'on peut s'attendre à ce qu'une requête envoyée à une base de données donne toujours le même résultat (puisqu'elle en extrait des informations statiques), un LLM ne répondra pas forcément toujours de la même façon à un prompt donné (et ne récupérera pas littéralement les informations sur lesquelles il a été entraîné). C'est également l'une des principales raisons pour lesquelles les LLM génèrent parfois des réponses plausibles pouvant contenir des erreurs factuelles. Ce n'est pas optimal du point de vue de la factualité, mais cela s'avère très utile pour générer des résultats créatifs ou inattendus.

2 Post-entraînement

Après un entraînement initial, les LLM doivent franchir des étapes supplémentaires pour affiner leurs réponses. L'une de ces étapes s'appelle l'affinage supervisé (SFT, Supervised Fine-Tuning). Elle consiste à entraîner un modèle sur des exemples de réponses d'excellente qualité choisis avec soin. C'est un peu le même principe que d'apprendre à des élèves à améliorer leur style en s'inspirant de récits et d'articles bien écrits.

L'étape suivante est l'apprentissage automatique par renforcement qui utilise le feedback humain (RLHF, Reinforcement Learning from Human Feedback). Ici, le modèle apprend à générer des réponses encore meilleures, en se basant sur les scores ou le feedback fournis par un modèle de récompense spécial. Ce modèle est entraîné sur des données de préférences humaines où les réponses ont été évaluées les unes par rapport aux autres, afin qu'il apprenne à reconnaître ces préférences. Les données de préférences peuvent inclure des données incorrectes ou choquantes, afin que les modèles qui y sont exposés apprennent à les reconnaître et à les éviter. On peut les comparer à la façon dont un parent récompense un enfant pour un travail bien fait : le modèle est récompensé lorsqu'il crée des réponses appréciées par les utilisateurs.

À chacune de ces étapes, il est important d'utiliser des données d'entraînement de haute qualité. Les exemples utilisés pour l'affinage supervisé sont généralement rédigés par des experts, ou générés par un modèle et corrigés par des experts.

Mais ces techniques ont beau être impressionnantes, elles présentent aussi des limites. Par exemple, même avec l'aide du modèle de récompense, il est toujours possible qu'une réponse laisse à désirer. Dans tous les cas, le LLM est optimisé pour générer, à partir du feedback qu'il a reçu, les réponses le plus largement préférées par les utilisateurs. Tout comme les élèves peuvent progresser en suivant les recommandations de leurs enseignants.

3 Réponses aux prompts d’utilisateurs

La génération de réponse fonctionne comme une séance de brainstorming au cours de laquelle un humain utiliserait différentes approches pour répondre à une question. Lorsqu'un utilisateur crée un prompt, Gemini se base sur le LLM post-entraîné, le contexte fourni dans le prompt et ses interactions avec l'utilisateur pour créer plusieurs ébauches de réponse. Il s'appuie également sur des sources externes telles que la recherche Google et/ou l'une de ses nombreuses extensions, ainsi que sur les fichiers récemment importés (Gemini Advanced uniquement). Ce processus est appelé "augmentation par récupération". Lorsqu'il reçoit un prompt, Gemini s'efforce de récupérer les informations les plus pertinentes à partir de ces sources externes (par exemple, la recherche Google) et de les représenter de manière précise dans sa réponse. L'augmentation des LLM à l'aide d'outils externes fait actuellement l'objet de nombreuses recherches. Des erreurs peuvent être introduites de diverses manières : dans la requête utilisée par Gemini pour interagir avec ces outils externes, la façon dont il interprète les résultats fournis par ces outils, et la manière dont ces résultats sont exploités pour générer la réponse finale. Pour cette raison, les réponses de Gemini ne doivent pas être considérées comme représentatives des performances fournies par les outils exploités pour les générer.

Enfin, avant l'affichage de la réponse finale, chaque réponse potentielle fait l'objet d'une vérification de sécurité pour s'assurer qu'elle respecte le règlement applicable. Ce processus offre une barrière supplémentaire permettant de filtrer les informations nocives ou choquantes. Les réponses restantes sont ensuite classées par ordre de qualité et la version dont le score est le plus élevé est présentée à l'utilisateur.

Nous identifions aussi tous les textes et images produits par Gemini avec SynthID, notre boîte à outils numériques de pointe pour le marquage par filigrane de contenus générés par l'IA. Pour les images générées, SynthID ajoute un filigrane numérique (invisible à l'œil nu) directement dans les pixels. SynthID est un composant essentiel au développement d'outils plus fiables pour l'identification des contenus générés par l'IA. Il peut aider chaque utilisateur à décider en toute connaissance de cause comment interagir avec ces contenus.

4 Feedback et évaluation par des réviseurs humains

Même si des contrôles de sécurité sont appliqués, des erreurs peuvent se produire. Les réponses de Gemini ne combleront pas toujours vos attentes. C'est là que le feedback humain a un rôle à jouer. Des évaluateurs analysent la qualité des réponses, identifient des potentiels d'amélioration et suggèrent des solutions. Ce feedback s'intègre au processus d'apprentissage de Gemini décrit dans la section "Post-entraînement" ci-dessus.