Position
L'IA n'est pas
un argument de vente.
Depuis trois ans, on voit défiler des cahiers des charges qui commencent par « intégrer de l'IA ».
Aucun ne commence par « résoudre ce problème précis avec de l'IA si — et seulement si — c'est ce qui marche le mieux ».
On préfère le second.
La règle simple
On en met
quand ça sert.
On n'en met pas
quand ça ne sert pas.
Oui
— Quand l'IA a sa place- Traiter du texte ou des images non structurés à grande échelle.
- Classifier en présence d'ambiguïté que des règles ne couvrent pas.
- Extraire de l'information depuis des documents hétérogènes (PDF, scans, formulaires).
- Assister un expert humain qui garde la décision finale.
- Générer des brouillons que quelqu'un relit.
Non
— Quand elle n'a rien à y faire- Quand une règle métier explicite fait le travail, plus vite, sans erreur, à coût quasi-nul.
- Quand le coût par requête dépasse la valeur produite par requête.
- Quand l'erreur n'est pas tolérable et qu'aucune supervision n'est prévue.
- Quand on en met « pour rassurer la direction ».
Notre engagement
Si on dit non,
c'est qu'il y a une raison.
Si on vous dit « il n'y a pas besoin d'IA ici », c'est qu'il n'y en a pas besoin.
Et si on vous dit qu'il y en a besoin, on vous explique exactement où, pour faire quoi, à quel coût par usage, et avec quel garde-fou si le modèle se trompe.
Aucune décision technique ne devrait reposer sur une mode.
Ce qu'on déploie, concrètement
LLM hébergés
Claude, GPT, modèles open-source via vLLM ou Ollama. Choix dicté par le coût, la latence, et la sensibilité des données.
Modèles spécialisés
Classification, extraction, OCR, embedding. Plus rapides, moins chers, plus précis qu'un LLM généraliste sur leur tâche.
Règles, simplement
Du code métier déterministe quand il fait le travail. Sans excuse. Sans modèle. Sans token.