Aller au contenu
← Retour au blog
· Ulysse Trin

Prompt Engineering : 7 techniques pour des résultats concrets

Prompt EngineeringChatGPTClaudeGeminiProductivité

La différence entre un prompt qui donne un résultat médiocre et un prompt qui produit exactement ce dont vous avez besoin tient rarement au modèle utilisé. ChatGPT, Claude, Gemini — tous sont capables de résultats remarquables. Ce qui fait la différence, c’est la manière dont vous formulez votre demande.

Voici 7 techniques de prompt engineering éprouvées en contexte professionnel, avec des exemples concrets que vous pouvez appliquer immédiatement.

1. Donner du contexte et un rôle

Un LLM sans contexte devine. Un LLM avec du contexte travaille. La technique la plus simple et la plus efficace consiste à cadrer la conversation dès le départ : qui parle, à qui, dans quel contexte.

Prompt faible :

Écris un email pour relancer un client.

Prompt avec contexte :

Tu es directeur commercial dans une ESN de 50 personnes spécialisée en data.
Un prospect (DSI d'un groupe industriel) n'a pas répondu à ta proposition
commerciale envoyée il y a 10 jours.

Écris un email de relance : ton professionnel mais pas insistant,
3-4 phrases maximum.

Le second prompt produit un email utilisable tel quel. Le premier produit un texte générique qui nécessite une réécriture complète.

2. Structurer avec des délimiteurs

Quand votre prompt contient des données (un texte à analyser, un brief, des spécifications), séparez clairement les instructions des données. Les délimiteurs évitent toute ambiguïté.

Analyse le feedback client ci-dessous et extrais :
- Les points de satisfaction (liste)
- Les points de friction (liste)
- Une recommandation d'action prioritaire

---
FEEDBACK CLIENT :
"""
L'outil est rapide et l'interface est claire, mais l'export PDF
plante une fois sur trois. Le support a mis 4 jours à répondre.
On envisage de ne pas renouveler si ce n'est pas corrigé.
"""

Les triples guillemets, les tirets, les balises XML — tous fonctionnent. L’important est de rendre la structure lisible pour le modèle.

3. Demander un format de sortie précis

Ne laissez pas le modèle choisir comment présenter sa réponse. Spécifiez le format attendu : tableau, JSON, liste à puces, email, paragraphe de N mots. Cela réduit le travail de reformatage en aval.

À partir de cette liste de fonctionnalités, génère un tableau comparatif
au format Markdown avec les colonnes suivantes :
| Fonctionnalité | Priorité (haute/moyenne/basse) | Effort estimé | Impact business |

Fonctionnalités :
- Authentification SSO
- Export CSV des rapports
- Tableau de bord temps réel
- Notifications Slack

Cette technique est particulièrement utile dans les workflows automatisés où la sortie du LLM alimente un autre outil.

4. Itérer step by step (chain-of-thought)

Pour les problèmes complexes — analyse stratégique, diagnostic technique, évaluation financière — demandez au modèle de raisonner étape par étape. Cette approche, appelée chain-of-thought, réduit significativement les erreurs de raisonnement.

Un client e-commerce fait 2M€ de CA annuel avec un taux de conversion de 1,2%.
Il veut investir 50K€ pour améliorer ses performances.

Avant de recommander une stratégie, raisonne étape par étape :
1. Calcule le nombre de visiteurs et de commandes actuels
2. Identifie les leviers d'amélioration (trafic, conversion, panier moyen)
3. Estime l'impact de chaque levier avec le budget donné
4. Recommande l'allocation optimale du budget

Sans cette instruction, le modèle saute directement à une recommandation. Avec, il construit un raisonnement vérifiable.

5. Donner des exemples (few-shot)

Montrer vaut mieux qu’expliquer. Si vous avez un format ou un style précis en tête, donnez un ou deux exemples. Le modèle comprendra le pattern et le reproduira.

Rédige des descriptions produit pour notre catalogue IA.

Voici le format attendu :

Produit : Assistant RH
→ Automatisez le tri des CV et la pré-qualification des candidats.
Réduction de 60% du temps de screening. Intégration directe avec vos ATS.

Produit : Chatbot Support
→ Répondez à 80% des demandes clients sans intervention humaine.
Disponible 24/7, multilingue, déployable en 2 semaines.

Maintenant, rédige sur le même modèle :
Produit : Analyseur de contrats
Produit : Prédicteur de churn

Le few-shot fonctionne avec tous les LLM modernes et reste l’une des techniques les plus fiables pour contrôler le style et la structure.

6. Ajouter des contraintes explicites

Les LLM ont tendance à produire des réponses longues, prudentes et couvertes de disclaimers. Les contraintes canalisent la réponse vers ce qui est réellement utile.

Propose 5 noms pour une startup spécialisée en IA appliquée à la logistique.

Contraintes :
- Maximum 2 mots par nom
- Prononçable en français et en anglais
- Domaine .com ou .io disponible (vérifie la logique du nom, pas le DNS)
- Pas de jeux de mots avec "AI" ou "smart"
- Ton : professionnel, pas ludique

Plus vos contraintes sont précises, moins vous perdez de temps à trier des propositions hors sujet. Cela vaut pour la longueur, le ton, le vocabulaire, les éléments à inclure ou exclure.

7. Vérifier et itérer

Un prompt est rarement parfait du premier coup. La vraie compétence en prompt engineering, c’est l’itération. Analysez la réponse, identifiez ce qui manque, ajustez.

Une approche efficace consiste à demander au modèle de s’auto-évaluer :

Voici le plan marketing que tu viens de produire.
Évalue-le selon ces critères :
- Cohérence avec le budget de 20K€
- Réalisme du calendrier
- Risques non mentionnés

Si tu identifies des faiblesses, propose une version améliorée.

Vous pouvez aussi itérer en affinant progressivement : commencer par une demande large, puis resserrer avec des instructions complémentaires. C’est souvent plus efficace que d’essayer d’écrire le prompt parfait d’emblée.

En résumé

Le prompt engineering n’est pas une science occulte. C’est une compétence pratique qui repose sur des principes simples : donner du contexte, structurer sa demande, être explicite sur le résultat attendu, et itérer.

Les équipes qui adoptent ces techniques dans leur quotidien — que ce soit sur ChatGPT, Claude ou Gemini — constatent un gain de temps mesurable et des résultats nettement plus exploitables.

La prochaine fois que vous obtenez une réponse décevante d’un LLM, avant de changer de modèle, changez votre prompt.

Un projet en tête ?

On vous aide à passer de l’idée à la production.