Artificielle :
des fondamentaux
aux Agents
(Instagram : 2,5 ans)
Pour les organisations certifiées ISO/GFSI : +40% d'inflation normative depuis 2020. Plus de documents, plus de preuves, plus de traçabilité exigée. L'IA n'est pas une option — c'est une réponse opérationnelle à une pression documentaire sans précédent.
- GPT-5.4 (Thinking / Pro) : raisonnement avancé, code, analyse
- 1M tokens contexte API — rapport d'audit entier en une requête
- Computer use natif — contrôle d'interfaces applicatives
- Leader des benchmarks professionnels et scientifiques
- Claude Opus 4.6 : modèle phare, code & agents complexes
- Claude Sonnet 4.6 : meilleur compromis vitesse/intelligence
- MCP adopté par OpenAI, Google, Meta — standard universel
- Référence pour les déploiements sensibles et réglementés
- Gemini 3.1 Pro : modèle phare — raisonnement le plus avancé
- Gemini 3.1 Flash-Lite : économique, faible latence, trafic élevé
- 1M tokens = rapport d'audit, code source, vidéos simultanément
- Intégré Gmail, Docs, Sheets, Meet, Drive nativement
- Llama 4 : open-weights, multimodal natif, architecture MoE
- Plusieurs variantes — petite à grande, à adapter ou déployer
- Mistral Large : souverain EU, RGPD natif, hébergement FR/EU
- Vos données ne quittent jamais vos serveurs
- DeepSeek R1 : raisonnement comparable à o1 pour ~5% du coût
- Architecture MoE (Mixture of Experts) très efficace
- Open source — hégeables mais origine géopolitique sensible
- ⚠️ À surveiller : questions de souveraineté des données
- Alerte instantanée si EPI absent — zéro tolérance
- Log horodaté inaltérable — preuve du Devoir de Vigilance
- Classé Haut Risque AI Act (Annexe III §1)
- Audit SGS obligatoire avant déploiement en production
- Sortie déterministe : même entrée = même score, toujours
- Traçabilité totale de chaque décision — log horodaté
- Compliant ISO 9001 §9.1 : surveillance et mesure
- Intégrable avec vos systèmes SCADA / MES existants
- Alerte avant le dépassement — pas après l'incident
- Log horodaté inaltérable pour l'auditeur environnemental
- Couplable avec le reporting CSRD automatisé
- ISO 14001 §9.1.1 : évaluation de la conformité continue
Idéal en environnement réglementé : auditable, prévisible, certifiable. Le choix naturel pour les décisions binaires à enjeux élevés. Risques AI Act bien maîtrisables — à condition de faire valider le modèle avant déploiement.
- Couverture 100% des exigences — aucun point oublié
- Rapport structuré avec références précises (§ + numéro de page)
- Température 0 — réponses déterministes, traçables
- Humain valide les conclusions — toujours
- Idéal pour la préparation d'audit interne et la formation
- Réponse sourcée jusqu'au chunk documentaire exact
- Multi-normes : ISO 9001, BRC, IFS, GFSI en un seul outil
- Déployable on-premise — vos données restent chez vous
- Procédure ISO générée en 5 min à partir d'un brief
- Plan CAPA : cause racine, actions correctives, délais, responsables
- Constats d'audit : structurés, numérotés, référencés
- Humain valide et signe — toujours. IA rédige, expert décide.
Règle d'or : IA Déterministe pour mesurer, détecter, prédire. IA Générative pour comprendre, rédiger, analyser. Complémentaires — rarement interchangeables. Jamais sans supervision humaine pour les décisions engageantes.
La température : paramètre clé. 0 = réponse déterministe, la plus probable — idéal en conformité. 0.7 = créatif et varié. >1 = imprévisible, jamais en production normative. En audit : toujours température 0.
Ce que le LLM ne fait pas : il ne "sait" pas. Il ne "comprend" pas. Il prédit le prochain token le plus probable — basé sur des milliards de textes d'entraînement. C'est pour ça qu'il hallucine. Et c'est pour ça qu'on a besoin du RAG.
- GPT-5.4 (Thinking / Pro) : raisonnement avancé, code, analyse
- 1M tokens contexte API — rapport entier en une requête
- Computer use natif — contrôle d'interfaces applicatives
- ⚠️ Données envoyées sur serveurs OpenAI (US)
- Claude Opus 4.6 : modèle phare, code & agents complexes
- Claude Sonnet 4.6 : meilleur compromis vitesse/intelligence
- MCP adopté par OpenAI, Google, Meta en 2025
- Recommandé pour les déploiements sensibles (conformité)
- Gemini 3.1 Pro : raisonnement multimodal le plus avancé
- Gemini 3.1 Flash-Lite : faible latence, trafic élevé, économique
- 1M tokens = 750 000 mots en un seul contexte
- Intégration Workspace : Gmail, Drive, Meet, Sheets
- Llama 4 : open-weights, multimodal natif, architecture MoE
- Plusieurs variantes — petite à grande selon les besoins
- Hébergé chez vous : zéro fuite de données, RGPD natif
- Stack : Ollama + ChromaDB + LangChain — clé en main
- Mistral Large : performances comparables à GPT-4, coût inférieur
- Hébergement sur serveurs certifiés RGPD en France
- Option open source (Mistral 7B) pour on-premise
- Idéal pour les environnements réglementés EU
- DeepSeek R1 : raisonnement comparable à o1 pour ~5% du coût
- Architecture MoE ultra-efficace — coût de calcul minimal
- Open source — hégeables localement
- ⚠️ Origine géopolitique : souveraineté des données à évaluer
- +55% productivité développeurs (étude GitHub 2023 contrôlée)
- ~30% des suggestions acceptées en moyenne
- Intégré VS Code, JetBrains, Neovim
- Modèle configurable : OpenAI, Anthropic ou Gemini
- Diff interactif — accepter/refuser les changements
- Modèle configurable : Anthropic, OpenAI ou Gemini
- Application SGS : parser de référentiels ISO en Python
- Gain estimé : 3x plus rapide sur les tâches structurées
- Couverture de code +30% en moyenne
- Cas limites automatiques : null, overflow, formats incorrects
- Détection de régressions plus précoce
- Application SGS : validation de scripts d'audit ISO
Application SGS & Conformité : scripts d'audit générés en langage naturel, parsers de référentiels normatifs, templates ISO automatiques, rapports CAPA structurés. Outils : python langchain iso-parser. Tout ça est faisable aujourd'hui — avec supervision humaine.
- Date d'entraînement figée — vos audits 2024 sont invisibles
- Vos procédures internes et versions ISO : inconnues
- Quand il ne sait pas, il invente avec confiance absolue
- Aucune réponse n'est traçable jusqu'à une source réelle
- Cherche dans VOS documents avant chaque réponse
- Chaque réponse citée et traçable jusqu'à la source
- Vos données restent on-premise — elles ne quittent pas
- Résultats récents inclus — pas figé à une date d'entraînement
Stack On-Premise souverain : Ollama (LLM local) + ChromaDB (vector DB) + LangChain (orchestration). Vos données ne quittent jamais vos serveurs. Conforme RGPD. Auditable. Coût prévisible.
Sécurité ISO 27001 : RBAC sur l'index vectoriel, chiffrement at-rest, logs de requêtes horodatés. Chaque réponse est traçable jusqu'aux chunks sources — auditabilité totale conforme à l'Art. 12 AI Act.
- Cause : le modèle génère le texte le plus "plausible" statistiquement, pas le plus "vrai"
- Solution 1 : RAG + température 0 réduit drastiquement le risque
- Solution 2 : Human-in-the-loop obligatoire — l'auditeur valide
- Réglementaire : ISO 42001 §A.8.3 et Art. 14 AI Act exigent la validation humaine
- OCR de qualité sur tous les documents scannés — obligatoire
- Métadonnées : date, version, norme référencée, statut en vigueur/archivé
- Déduplication des sources — un document, une seule version active
- Versionning documentaire rigoureux — lié à votre SMQ ISO 9001 §7.5
En contexte normatif : une réponse hallucinée sur un point de conformité peut engager la responsabilité juridique de l'organisation. Validation humaine non négociable. L'IA analyse — l'auditeur décide. Toujours.
Le problème fondamental : chunk trop petit = perte de contexte (une phrase sans son paragraphe ne veut rien dire). Chunk trop grand = dilution de la pertinence (le LLM se perd dans trop d'information). Un tableau réparti sur deux chunks = information structurée détruite. Un mauvais chunking annule les bénéfices du RAG.
- Implémentation triviale — aucun paramètre de sens
- Problème : peut couper une phrase au milieu d'une idée
- Bon pour les textes courts et structurés (FAQ, formulaires)
- Insuffisant pour les référentiels normatifs complexes
- Préserve le sens aux frontières entre morceaux
- Réduit la perte d'information aux jonctions
- Idéal : procédures, rapports d'audit, constats textuels
- Coût : légèrement plus de stockage (doublons partiels)
- Meilleure qualité de récupération (recall) en RAG
- Chaque chunk = une idée complète et cohérente
- Coût : calcul d'embeddings à l'ingestion (une seule fois)
- Recommandé pour les corpus normatifs importants
- ⭐ Recommandé pour ISO 9001, BRC, GFSI, IFS
- Préserve les relations parent/enfant entre sections
- Les métadonnées de section (§ numéro) sont incluses
- Combinable avec Semantic pour un chunking hybride optimal
- Inventaire & versionning systématique : chaque document source versionné et tracé — qui a modifié quoi, quand.
- Métadonnées obligatoires : date de version, norme référencée, statut (en vigueur / archivé / en révision). Sans métadonnées, l'index est aveugle.
- Processus de mise à jour de l'index : quand une norme évolue, l'index vectoriel doit être re-indexé. Automatisez ce processus.
- Séparation des domaines : un index Qualité, un index HSE, un index Environnement. Évite la contamination croisée des réponses.
- Traçabilité des chunks : chaque réponse référence les chunks utilisés — pour l'audit de la décision IA (Art. 12 AI Act).
- -70% de temps de revue documentaire fournisseurs
- Détection automatique des gaps de traçabilité
- Rapport structuré BRC Food / IFS généré en quelques minutes
- Comparaison automatique avec les exigences GFSI en vigueur
- Réponse structurée avec références précises en moins de 2 minutes
- Génération automatique de la liste des NC potentielles
- Préparation audit interne : couverture 100% des exigences
- Température 0 — réponses déterministes, traçables
- Reporting Scope 1 / 2 / 3 entièrement automatisé
- Alertes préventives avant dépassement réglementaire
- Rapport CSRD certifiable, auditable, traçable jusqu'aux capteurs
- Combinable avec ISO 9001 pour un SMQE intégré
- Zéro tolérance EPI — prévention accidents avant qu'ils se produisent
- Log horodaté — preuve formelle du Devoir de Vigilance
- Classé Haut Risque AI Act → audit SGS obligatoire avant déploiement
- Analyse posturale : TMS détectés avant l'arrêt maladie
AI Act — Systèmes Haut Risque : la Computer Vision pour la sécurité au travail est classée Haut Risque (Annexe III, §1). Elle doit faire l'objet d'une évaluation de conformité avant déploiement. SGS est accrédité pour réaliser ces audits — c'est notre cœur de métier.
- Teams → SharePoint → Excel en quelques clics
- Copilot intégré pour générer les flows en langage naturel
- Idéal : validation de documents, rappels de révision ISO
- Limite : règles fixes — cas non prévus = erreur silencieuse
- Email reçu → créer une tâche → notifier Slack
- Nouveau formulaire → alimenter une base de données
- Idéal : onboarding fournisseurs, alertes de conformité
- Limite : règles codées à l'avance, pas d'adaptation au contexte
- Interface canvas visuelle — drag & drop de modules
- Conditions, filtres, agrégateurs, itérateurs
- Idéal : pipelines de traitement documentaire ISO
- Limite : toujours à règles — pas de raisonnement contextuel
- Hébergeable on-premise — zéro fuite de données
- 800+ intégrations natives, code custom possible
- Idéal : pipelines ISO internes avec données sensibles
- Limite : même que les autres — règles codées, pas d'IA
- Framework : LangChain ReAct
- Outils : search web, API normes, base vectorielle RAG
- Cas SGS : veille normative — l'agent cherche, lit, compare, synthétise
- Supervision recommandée en production
- Cas : audit complet = Agent Lecture + Agent Analyse + Agent Rédaction
- Frameworks : CrewAI, LangGraph, AutoGen
- Avantage : parallélisation et spécialisation des tâches
- Risque : coordination complexe — superviser l'orchestrateur
- Contrôle : Slack, GitHub, ERP, SharePoint, bases de données
- Sécurité : permissions granulaires sur chaque outil exposé
- Exemple : agent ouvre un ticket JIRA, envoie un rapport Teams, met à jour la base documentaire — en une seule instruction
- La tâche implique plusieurs étapes dont l'ordre n'est pas toujours le même
- Le contexte change à chaque exécution — pas de règle universelle applicable
- L'objectif est clair mais le chemin pour y arriver ne l'est pas
- Les agents échouent encore sur le monde physique
- Le "remplacement total" reste de la science-fiction à court terme
- Le modèle dominant aujourd'hui : augmentation, pas substitution
- RentAHuman : un agent embauche un humain pour aller chercher un colis
- Valeur réelle : tâches cognitives structurées, multi-étapes
- Limite réelle : monde physique, relations humaines, éthique
- Supervision humaine = valeur ajoutée, pas obstacle
- SGS : certifier que l'agent prend des décisions fiables et conformes
Combinaison unique : SGS est le seul organisme à combiner l'accréditation ISO 42001 (AIMS), la certification ISO 9001/27001, et l'expertise terrain en déploiement IA (RAG, agents, governance). Un seul partenaire pour toute la chaîne de valeur.
Prochain pas : commençons par un Audit de Maturité IA de 2 jours. Vous repartez avec un rapport actionnable, une roadmap priorisée, et une vision claire de votre conformité AI Act. Contact : certification.ia@sgs.com