Contexte :
Le perfectionnement spectaculaire des modèles LLM (Large Langage Model) a créé un large mouvement dans tous les secteurs professionnels afin de saisir les opportunités de gains promis par l’IA Générative. Ces modèles nécessitent des ressources de calcul considérables, surtout disponibles sur des infrastructures de grande taille et performance.
La première solution évidente est d’utiliser les solutions d’IA Générative clé en main fournies par les grands leaders du marché (souvent Américains). Cependant, cette dépendance à ces solutions soulève des problématiques importantes, telles que les coûts élevés, la latence, et surtout la maitrise et la sécurité des données.
Les entreprises doivent naviguer dans un paysage complexe où la protection des données sensibles, la conformité aux régulations et la réponse à leurs problématiques métiers deviennent des priorités absolues. De plus, l’impact environnemental de l’entraînement et du déploiement de ces modèles est une préoccupation croissante, poussant les acteurs du secteur à rechercher des solutions plus durables.
Ainsi dans ce contexte, nombreux sont nos clients à s'essayer à la mise en œuvre de modèles d’IA et surtout de LLM sur leur tenant cloud. Leurs infrastructures propres n’étant souvent pas en mesure de faire fonctionner ces modèles à grande échelle pour diverses raisons.
Objectif du stage :
Dans un contexte où de nombreuses solutions liées à l’IA Générative émergent et où les grands fournisseurs de cloud proposent des services et infrastructures sous-jacentes pour faire fonctionner des architectures complexes, l’objectif du stage est de fournir un éclairage sur les outils, modèles et bonnes pratiques pour implémenter de l’IA Générative dans le cloud de façon efficiente.
Travaux à réaliser :
Sous la tutelle d’un(e) consultant(e) et le pilotage d’un(e) manager, le ou la stagiaire pourra être amené(e) à réaliser une partie ou la totalité des travaux suivants :
- Identifier les grands sujets techniques, sécurité et risques à adresser pour la mise en place d'un modèle d’IA sur le cloud ;
- Identifier les enjeux et opportunités de déployer ses propres modèles d’IA sur le cloud par rapport à des solutions clé en main, selon la typologie de nos clients ;
- Proposer différentes approches d'architecture possibles, avec une comparaison des capacités des principaux services cloud ;
- Construire des pistes d'optimisation et partager les écueils à éviter pour réduire la consommation de ressources des modèles IA dans une optique numérique responsable (GreenOps) et de limitation de la facture du cloud (FinOps) ;
- Analyser les outils et méthodologies pour superviser ses modèles de LLM dans le cloud dans une optique d’apprentissage par renforcement et de détection des biais.
Une thématique précise vous sera confiée lors de votre arrivée en lien avec les besoins de l’offre.
Ces livrables alimenteront les connaissances et la vision du cabinet et seront utilisés pour compléter avec pertinence nos missions futures.
En parallèle, vous participerez à une ou plusieurs missions de conseil auprès de nos clients, en étant intégré dans une équipe de consultants placée sous la responsabilité d’un directeur de mission.
Vous pourrez être amené(e) à interroger des entreprises, des éditeurs, et le travail réalisé pourra faire l’objet de publication(s) et être partagé au sein du bureau.