Gemini Code Assist (ex Duet AI for developers) se rapproche des bases de code locales

Google associe son dernier modèle d’IA Gemini à des données spécifiques à l’entreprise, dans un assistant de programmation revisité et des mises à jour de l’IA Vertex qui anticipent une prochaine vague de développement d’agents d’IA.

Le modèle Gemini 1.5 Pro constitue la refonte de l’assistant de programmation propulsé à l’IA de Google. Les mises à jour de la plateforme Vertex AI permettent également d’y adjoindre le contexte des données propres aux entreprises pour améliorer les résultats.

Ces mises à jour font partie d’un ensemble de nouvelles, issues de la conférence Google Cloud Next (qui se tient cette semaine à Las Vegas) ; la plupart d’entre elles étant centrées sur l’IA générative. Les nouveaux outils Gemini Code Assist pour les développeurs de logiciels et Cloud Assist pour les professionnels de l’informatique sont basés sur le modèle Gemini lancé en février. L’occasion pour Google Cloud de renommer Duet AI for Developers lancé lors de la conférence de l’année dernière et basé sur le grand modèle de langage Palm 2. Place désormais à Gemini Code Assist et Gemini Cloud Assist.

Code Assist peut générer et débugger du code, des tests unitaires, répondre à des questions en langage naturel concernant les produits de GCP, et fournir des suggestions d’optimisation. Il prend en charge le Bash, C, C++, C#, Dart, Go, GoogleSQL, Java, JavaScript, Kotlin, Lua, Matlab, PHP, Python, R, Ruby, Rust, SQL, Swift, TypeScript et YAML.

En préversion, la fonction Code Transformation permet de générer de la documentation avec le code, « améliorer la lisibilité du code » et le rendre plus efficient. Code Assist peut aussi résumer des entrées de logs, expliquer des messages d’erreur et générer des données synthétiques de monitoring.

Quant à Cloud Assist, il est en cours de conception. Quelques fonctionnalités, dont l’assistance à la gestion du cycle de vie d’applications, des recommandations d’optimisations personnalisées ont été présentées. Cloud Assist peut par exemple faciliter la configuration d’architectures cloud, aider à diagnostiquer des bugs ou des incidents ou encore à gérer les coûts, promet Google Cloud.

Google vante la capacité de Gemini 1.5 Pro à prendre en charge une grande fenêtre de contexte, ce qui signifie qu’il peut résumer, analyser et classer jusqu’à environ une heure de vidéo, 11 heures d’audio, 30 000 lignes de code ou 750 000 mots à la fois. Certains analystes ont prédit que de telles fenêtres contextuelles pourraient supplanter le besoin de génération augmentée par récupération (RAG) pour affiner les résultats de l’IA générative.

Cette capacité qui propulse la fonction « full codebase awareness », c’est-à-dire que toute la base de code peut servir de contexte, n’est accessible qu’en préversion privée.

Toutefois, avec les annonces de cette semaine, les préceptes de l’architecture RAG restent bien vivants. Cette approche est désormais prise en charge par les outils de développement Vertex AI de Google et s’appuie sur les données spécifiques des entreprises pour améliorer la précision de l’analyse de l’intelligence artificielle.

Après l’annonce de décembre dernier, les utilisateurs peuvent faire également appel à des sources de connaissances externes, dont Datadog, Datastax, Elastic, HashiCorp, Neo4j, Pinecone, Redis, Singlestore, Snyk et Stackoverflow. En disponibilité générale également, Code Assist prend en charge les bases de code on premise, reposant (principalement) sur les versions entreprises de GitLab, GitHub et Bitbucket. Logiquement, Google Cloud met à jour son service pour supporter des capacités « de niveau enteprise ». Code Asssist peut être intégré dans un éditeur Shell dans les IDE Jetbrains ainsi que dans VS Code.

En préversion, Code Assist prend en charge l’intégration à Apigee, la solution de gestion d’API de Google et devrait pouvoir s’intégrer à des applications. Le géant du cloud n’a toutefois pas précisé le fonctionnement de cette fonctionnalité.

Enfin, Google a lancé Vertex AI Agent Builder, une console no code dans laquelle les utilisateurs peuvent construire des flux de travail multi-étapes basées sur l’IA générative et exécutés par des agents d’IA. Agent Builder sera intégré à au service RAG de GCP et aux outils d’ancrage, dont Google Search, les données Workday et Salesforce, ainsi que les outils de recherche vectorielle et les bases de données Google.

Le fait d’ancrer les applications d’IA générative dans des bases de code privées et de rendre les outils tels que les assistants de code conscients d’un contexte local spécifique sont des capacités populaires parmi les éditeurs d’outils de développement tels que JetBrains (qui a ajouté au sein de ses IDE un assistant de code s’exécutant localement sur les machines des développeurs la semaine dernière).

« Il est encore tôt, mais je pense que les outils d’intelligence artificielle contextuelle sont utiles », déclare Devin Dickerson, analyste chez Forrester Research. « Parfois, le diable se cache dans les détails en matière de spécificités de l’implémentation [d’un utilisateur], du style de programmation, de l’aspect et de la convivialité des types d’applications [qu’ils essaient] de fournir, ou de certains guides de style et de pratiques internes »

Le rythme vertigineux de l’IA générative

La promesse des fournisseurs de cloud, dont Google, c’est d’offrir aux entreprises un moyen plus rentable d’expérimenter l’intégration de l’IA générative dans leurs applications que si elles le faisaient par leurs propres moyens. Mais les LLM continuent de se développer rapidement, et les équipes marketing de Google Cloud suivent le mouvement pour mieux mettre en avant ces changements.

L’IA générative reste également sujette à des résultats inexacts, biaisés et parfois inventés si elle n’est pas utilisée correctement. Des problèmes que les équipes d’ingénierie des plateformes des premiers utilisateurs doivent prendre en compte et pour lesquels des architectures de type RAG sont toujours nécessaires.

Dans le même temps, la plupart des entreprises sont confrontées à une pression énorme pour ajouter de l’IA générative aux produits et services logiciels, selon M. Dickerson. Cela peut rendre les flux de travail des centres d’appels au développement de logiciels exponentiellement plus efficaces lorsqu’ils fonctionnent comme prévu. Par conséquent, de nombreuses entreprises ont du mal à comprendre comment avancer en toute sécurité, signale-t-il.

« Nous recevons beaucoup de questions de nos clients, non seulement sur la façon dont ils peuvent se positionner au mieux pour innover, mais aussi sur la préparation de l’avenir, car on ne sait pas exactement quels produits et services seront encore disponibles dans quelques années », prévient l’analyste de Forrester. « L’évolution est rapide, et j’ai donc reçu des questions sur les architectures réutilisables pour les applications d’IA qui ne dépendent pas nécessairement d’une mise en œuvre ou d’un produit particulier ».

Jusqu’à présent, il n’y a pas de règles générales que Devin Dickerson puisse recommander.

« Je ne pense pas pouvoir donner une prescription directe à ce sujet », avoue-t-il. « La réponse implique généralement que j’examine l’architecture réelle de l’entreprise, c’est-à-dire que je passe en revue tous les services ».

Un analyste de Gartner prédit une vague d’agents d’IA

Le paysage des applications d’IA générative devrait bientôt changer à nouveau. Au lieu de s’appuyer sur un LLM et son affinage, le marché imagine concevoir des systèmes de GenAI capables d’enchaîner des flux de travail d’automatisation cohésifs à travers les applications. Les exécutants de ces flux de travail, appelés agents, sont en train d’entrer dans l’informatique grand public par le biais de projets tels que LangChain et AutoGen de Microsoft – et maintenant Vertex AI Agent Builder, avance Chirag Dekate, analyste chez Gartner.

« L’écosystème d’agents qui relie Vertex AI, Model Garden, Gemini for Google Cloud et Workspace, ainsi que les écosystèmes connectés de tiers, permet essentiellement aux utilisateurs de donner vie à l’IA générative […]. »
Chirag DekateAnalyste, Gartner

Google doit encore faire face à une bataille difficile dans le domaine des assistants de programmation propulsés à l’IA face à GitHub Copilot (Microsoft) et Amazon CodeWhisperer. En matière d’évaluation des modèles, Amazon Bedrock propose déjà un service similaire, tout comme un premier aperçu des performances des modèles peut être obtenus dans Azure AI Studio. Mais Google a une chance de battre ses principaux rivaux du cloud dans cette prochaine phase de développement de l’IA générative, selon Chirag Dekate.

Google doit encore faire face à une bataille difficile dans le domaine des assistants de code d’IA face à Microsoft Copilot, tandis que le service d’IA Bedrock d’Amazon propose déjà une évaluation des modèles. Mais Google a une chance de battre ses principaux rivaux du cloud dans cette prochaine phase de développement de l’IA générative, déclare M. Dekate.

« L’écosystème d’agents qui relie Vertex AI, Model Garden, Gemini for Google Cloud et Workspace, ainsi que les écosystèmes connectés de tiers, permet essentiellement aux utilisateurs de donner vie à l’IA générative dans les entreprises [avec] des techniques d’automatisation des flux de travail qui sont vraiment transformatrices », anticipe-t-il. « Imaginez un flux de travail commercial qui connecte Salesforce à votre base de données de prospects existante et à votre ensemble existant de vecteurs de projection de revenus dans un pipeline simplifié. »

Les agents feront l’objet d’une « vague d’engouement » au cours des trois à six prochains mois, prédit l’analyste chez Gartner. Par la suite, ils apporteront une réelle valeur ajoutée au développement d’applications d’IA et aux cycles de vie de développement de logiciels en général.

« Cela va au-delà de la génération de code ou de la complétion de code », souligne-t-il. « Tout le travail fastidieux est automatisé ou intégré à l’aide d’agents, et vous, en tant que développeur de logiciels, supervisez et corrigez les résultats de ce processus et permettez à l’agent de fournir un code de meilleure qualité et plus précis ».

Pour approfondir sur Intelligence Artificielle et Data Science

Close