À combien le LLM ?

Simulateur de coûts IA

Ce simulateur vous permet d'estimer vos coûts de LLM en fonction de votre usage (agent, SaaS, app…).


Coût mensuel estimé
$296.25
Total mensuel
$2.96
Par utilisateur
$0.0099
Par requête
Détail des coûts
Tarifs de OpenAI
Tokens d'entrée:$56.25
Tokens de sortie:$240.00

Total:$296.25
Statistiques
Requêtes/mois:30,000
Tokens entrée/mois:45.00M
Tokens sortie/mois:24.00M
Prix entrée:$1.25/MTok
Prix sortie:$10/MTok

Mis à jour le

Les informations et résultats fournis par ce simulateur sont donnés à titre indicatif et n'ont aucune valeur contractuelle. Ils reposent sur des hypothèses susceptibles d'évoluer et sur les données saisies par l'utilisateur. L'éditeur ne saurait être tenu responsable d'une différence entre les estimations obtenues et la situation réelle.

FAQ

Questions fréquentes

Comment sont calculés les coûts affichés ?

Le simulateur multiplie le nombre de tokens d'entrée et de sortie par requête, puis par le nombre total de requêtes mensuelles (utilisateurs × requêtes/jour × 30 jours). Les prix par million de tokens proviennent des grilles tarifaires officielles de chaque fournisseur.

Qu'est-ce qu'un token ?

Un token est l'unité de base traitée par un LLM. En français, un token correspond en moyenne à 0,7 mot. Par exemple, la phrase « Bonjour, comment allez-vous ? » représente environ 8 tokens.

Que représente le champ « données injectées » ?

Il s'agit des tokens ajoutés au prompt via du contexte supplémentaire : résultats de recherche (RAG), contenu de documents, historique de conversation, données métier, etc. C'est souvent le poste le plus variable.

Pourquoi les tools augmentent-ils le coût ?

Lorsqu'un LLM utilise des outils (function calling), la description de chaque outil est ajoutée au prompt sous forme de tokens d'entrée. De plus, l'agent effectue souvent plusieurs appels successifs au LLM pour exécuter une tâche, ce qui multiplie le coût.

Comment réduire les coûts en production ?

Plusieurs leviers existent : utiliser un modèle plus petit pour les tâches simples, mettre en cache les réponses fréquentes, optimiser les prompts pour réduire les tokens, utiliser le prompt caching proposé par certains fournisseurs, ou encore recourir aux API batch (jusqu'à -50 %) pour les traitements différés.

Les prix sont-ils à jour ?

Nous mettons régulièrement à jour les tarifs à partir des grilles officielles des fournisseurs (OpenAI, Anthropic, Google, Mistral). La date de dernière mise à jour est indiquée sous le simulateur.

Lonestone apporte son expertise product à 200+ grands comptes, PME et startups depuis 11 ans.

Avec notre équipe senior et nos méthodes rodées, vous pouvez comptez sur une livraison rapide d'un produit robuste vraiment utile.

Nos solutions

On discute de votre projet ?

Voyons si le courant passe et si on peut vous accompagner dans la création ou la reprise de votre produit.

Contact
Contacter l'équipe
de Lonestone