Rejoindre la Business Unit AI, c’est intĂ©grer une Ă©quipe de près de 200 consultant·e·s passionné·e·s qui accompagnent les grandes organisations dans la transformation de leurs modèles par la donnĂ©e et l’intelligence artificielle. 
Nous intervenons de bout en bout, de la dĂ©tection de cas d’usage IA Ă fort impact mĂ©tier Ă la conception de plateformes technologiques de pointe, jusqu’à la dĂ©finition de modèles de gouvernance responsables et scalables. 
Notre force : une approche qui combine excellence technologique, comprĂ©hension fine des enjeux mĂ©tiers et maĂ®trise des exigences rĂ©glementaires. 
Nous opĂ©rons auprès de clients grands comptes, en France et Ă l’international, en synergie avec les autres expertises du cabinet pour maximiser l’impact de nos interventions. 
🔥 Pourquoi nous rejoindre dans la BU IA ? 
IntĂ©grer notre Ă©quipe, c’est plonger au cĹ“ur d’une communautĂ© de 200 consultants IA et Data qui ne se contente pas de “suivre la vague GenAI” : 
• Nous accompagnons nos clients dans la dĂ©finition de leur stratĂ©gie IA et la mise en place de modèles opĂ©rationnels Ă l’échelle. 
• Nous intervenons sur des enjeux structurants : IA de confiance, conformitĂ© AI Act, pilotage de la valeur, sĂ©curitĂ© des usages, conduite du changement. 
• Nous travaillons avec les acteurs technologiques les plus avancĂ©s (Microsoft, Google, AWS, Mistral…) tout en portant nos convictions sur une IA responsable et souveraine.  Tout cela en synergie avec nos expertises transverses (architecture, cybersĂ©curitĂ©, change, product management) pour garantir une transformation IA maĂ®trisĂ©e, durable et crĂ©atrice de valeur. 
🚀 En tant que Cybersecurity Expert for AI, vous jouerez un rĂ´le essentiel dans la structuration et la mise en Ĺ“uvre de l’IA Ă l’échelle au sein de nos clients : 
Sécurité & maîtrise des risques IA
• Évaluer les risques de cybersécurité spécifiques aux modèles d’IA (attaque par injection, model extraction, membership inference, data poisoning...).
• Concevoir et déployer des stratégies de mitigation adaptées (robustesse, durcissement, filtrage, sandboxing, monitoring sécurité).
• Accompagner les clients dans la sécurisation des chaînes MLOps et LLMOps.Conformité & gouvernance sécurisée de l’IA
• Définir les politiques de sécurité de l’IA, les pratiques d’usage, les procédures de contrôle.
• Accompagner la conformité des solutions IA avec l’AI Act, les référentiels cybersécurité (ISO 27001, NIST AI RMF, OWASP LLM Top 10, etc.) et les exigences sectorielles.Architecture & solutions techniques
• Évaluer la sécurité des plateformes IA (Azure OpenAI, AWS Bedrock, GCP Vertex AI).
• Concevoir des architectures sécurisées pour le déploiement de modèles et d’agents IA.
• Réaliser des revues de sécurité : architecture, code, prompts, pipelines, stockage vectoriel, API LLM, modèles open source.Acculturation & transformation
• Sensibiliser les équipes métiers et IT aux risques liés à l’IA.
• Construire des référentiels de bonnes pratiques LLM Security pour les développeurs et data teams.
• Participer à la structuration des initiatives “Trusted/Responsible AI”.Contribution interne & business
• Participer aux réponses à appel d’offre et pitchs Secure AI.
• Développer des assets internes (frameworks, méthodes, démonstrateurs, outils de test d’attaque IA).
• Intervenir au sein de la communautĂ© Secure AI : formations, veille, REX.đź’Ľ Des missions concrètes, variĂ©es et Ă fort impact 
Quelques exemples de missions rĂ©centes : 
• SĂ©curisation d’un agent conversationnel de recherche documentaire dans l'Ă©nergie : Analyse des risques IA, durcissement des prompts, mise en place de garde-fous et contrĂ´le de robustesse.
• DĂ©finition du framework AI Security et accompagnement Ă l'adoption dans l'assurance : Refonte du framework et du Target Operating Model "AI Security", rĂ©daction d'un livre blanc "Agentic Security", Ă©tude des solutions de Guardrails.
• Mise en conformitĂ© AI Act d’un portefeuille de modèles IA critiques dans l’énergie : Construction d’un cadre de gouvernance, cartographie des risques, dĂ©finition des mesures de sĂ©curitĂ© et accompagnement des Ă©quipes projet.
• Évaluation et durcissement d’une plateforme LLM interne : Audit de sĂ©curitĂ©, test d’attaques sur LLM, mise en place d’un filtrage dynamique des prompts.
• DĂ©finition des pratiques de sĂ©curitĂ© pour l’utilisation de LLMs et d'agents IA Ă grande Ă©chelle : Benchmarks, architecture sĂ©curisĂ©e, guidelines d’usage, acculturation.