2023 : GAFAM et startups engagés dans une course effrénée à l’IA générative
L’année 2023 a résolument été le début d’une nouvelle ère dans le monde informatique, avec le raz de marée de l’IA générative qui amorce une révolution technologique sans précédent par la nature des investissements réalisés comme par sa vitesse de propagation.
Dès le mois de janvier, Microsoft investissait 10 milliards de dollars dans OpenAI pour s’offrir l’exclusivité des modèles OpenAI sur son cloud Azure, avant d’intégrer son chatbot GPTlike à Bing. En février, c’était au tour de Google de lancer Bard, son chatGPT maison, avant de présenter en mars DuetAI, un assistant IA intégré à sa suite Workplace. Dans la foulée, Microsoft annonçait le lancement de Copilot, son assistant IA nourri des technologies OpenAI, qui était intégré à l’automne dans tous ses logiciels. En mai Google répliquait en présentant une nouvelle version de son moteur de recherche, dopé à … l’IA.
Une ruée vers l’or fructueuse Nvidia, qui passait la barre des 1000 milliards de dollars de valorisation et doublait son CA grâce à ses GPU nécessaires à l’entrainement des modèles IA !
En juin, la France se lançait dans la course : Emmanuel Macron présentait un plan d’investissement de 900 millions d’euros pour la construction d’un nouveau supercalculateur public pour entraîner les IA et deux enveloppes de soutien aux startups. Dans la foulée, la startup française Mistral AI bouclait un premier tour de 105 millions d’euros en amorçage, qu’elle complèterait en décembre d’une nouvelle levée de 385 millions pour devenir un géant de l’IA avec son modèle Mixtral.
Et la course à l’IA n’a fait que s’accélérer : Elon Musk lançait xAI en juill et, Meta offrait gratuitement son modèle Llama 2, Amazon investissait 4 milliards de dollars dans Anthropic et en décembre, Google finissait par lancer Gemini, un modèle suspeptible de surpasser GPT4 et de faire passer un nouveau palier à l’IA générative.
Les ESN en ordre de marche face à cette révolution de l’IA
Si les GAFAM et les startups ont largement contribué au raz de marée de l’IA générative, les ESN ne sont pas restées sur le quai et ont rapidement surfé sur la vague, qui leur offre sans conteste un relais de croissance durable.
Montée en compétences, développement d’offres dédiées parmi lesquelles l’adaptation des infrastructures IT actuelles, mise en conformité avec la réglementation et sensibilisation des employés, cette technologie va générer des gains de productivité substantiels pour les prestataires de services numériques.
D’ailleurs, tous les grands du conseil s’en sont saisis : PwC annonçait un investissement d’un milliard de dollar d’ici 2026, Accenture 3 milliards de dollars, et Capgemini 2 milliards d’euros en juillet.
Le géant français prévoit en effet de former ses collaborateurs, de renforcer son expertise IA par d enouveaux recrutements, et a lancé son Generative IA Lab pour poursuivre des programmes de recherche en collaboration avec des entreprises et des universités. « L’IA générative est déjà en train de devenir un pilier fondamental de la transformation digitale des entreprises. Nous voyons de nombreuses opportunités de création de valeur métier qui vont bien au-delà des gains importants de productivité », assure Franck Greverie, Chief Portfolio Officer et membre du Comité de Direction générale de Capgemini.
Il faut dire que les modèles web (chatGPT, Bing ou Bart), ne sont pas adaptés au B to B, qui nécessitent des outils spécifiques avec des garanties de confidentialité et de sécurité des données.
A l’instar de Capgemi, les ESN d’inovallée ont résolument mis le cap sur l’IA générative. Et elles représentent aujourd’hui 20% des emplois de la technopole.
Mais qu’est-ce que l’IA générative ?
Les modèles issus de l’IA générative subissent un apprentissage approfondi sur des volumes considérables de données, à travers des méthodes de supervision et de renforcement. Utilisant ces connaissances acquises, ils se lancent dans la création de nouvelles entités qui peuvent soit refléter les données d’origine, soit s’aventurer dans des territoires totalement inexplorés. Dotés d’une autonomie d’apprentissage, ces modèles interagissent avec les utilisateurs, ajustant leur compréhension en fonction des réponses obtenues.
L’IA générative vise ainsi à produire du contenu sur demande, en réponse à une requête spécifique, également appelée « prompt ». Pour accomplir cette tâche, elle s’appuie sur un réseau de neurones génératif. Cette catégorie de réseau implique un processus d’apprentissage profond qui combine des approches non supervisées, supervisées et de renforcement, l’association de ces modes d’apprentissage constituant l’une des clés de la puissance de ces modèles.
Alimentée par un vaste ensemble de données d’entraînement, comprenant les données du Web public pour les modèles GPT, l’IA génère de nouveaux contenus. Pour ce faire, elle anticipe la réponse la plus probable en agençant des phrases complètes mot par mot. Le fonctionnement des IA génératives est intrinsèquement probabiliste, d’où la possibilité pour des modèles tels que GPT-3 ou GPT-4 de produire des résultats inexacts ou même des inventions purement fictives, communément appelées hallucinations. Ces erreurs, inhérentes au fonctionnement des modèles sous-jacents, soulignent une des limites de l’IA générative. Ainsi, des mesures de précaution et des ajustements sont nécessaires lors de l’intégration de ces IA dans un contexte professionnel.
Si ChatGPT a envahi le quotidien dans le domaine du traitement du langage, bien d’autres applications sont disponibles, et ce en dehors de la sphère des chatbots conversationnels : création d’images, de vidéos, de musique, ou codage informatique, l’IA générative est aujourd’hui partout et va révolutionner en profondeur les apprentissages, les métiers et toutes les sphères de notre vie.
LLM, transformers et réseaux de neurones : les fondements technologiques de l’IA générative
L’acronyme GPT de ChatGPT, dérivé de « Generative Pre-Trained Transformer », offre une fenêtre sur son fonctionnement interne. La composante « Generative » met en lumière sa compétence à produire du texte en langage naturel, tandis que « Pre-Trained » souligne que le modèle a déjà été entraîné sur un ensemble de données défini. Enfin, « Transformer » fait référence à l’architecture sous-jacente d’apprentissage automatique qui propulse cette solution.
On pourrait donc considérer que la révolution est d’abord celle des Transformers et des LLM, dont l’émergence a été permise par des travaux antérieurs sur le Deep Learning et les réseaux de neurones. En effet, ChatGPT a en fait rassemblé et démocratisé des technologies préexistantes, dont les LLM (Large Language Model), de très grands modèles de deep learning qui sont préformés sur de grandes quantités de données. Le transformer sous-jacent est un ensemble de réseaux neuronaux composés d’un codeur et d’un décodeur dotés de capacités d’auto-attention. L’encodeur et le décodeur extraient le sens d’une séquence de texte et comprennent les relations entre les mots et les phrases qu’elle contient.
Les transformers LLM sont capables de suivre une formation non supervisée, bien qu’une explication plus précise soit que les transformers s’auto-apprennent. C’est grâce à ce processus que les transformers apprennent à comprendre la grammaire, les langues et les connaissances de base.
Contrairement aux réseaux neuronaux récurrents (RNN) antérieurs qui traitaient les entrées de manière séquentielle, les transformers traitent des séquences entières en parallèle. Cela permet aux spécialistes des données d’utiliser des GPU pour former des LLM basés sur des transformers, réduisant ainsi considérablement le temps de formation.
Pour en savoir plus : https://aws.amazon.com/fr/what-is/large-language-model/