Dans cet article, nous allons comparer ChatGPT, Gemini, Grok, Deepseek et Claude pour plusieurs cas d’utilisation afin de déterminer lequel répond le mieux à vos besoins grâce aux modèles gratuits disponibles.
Nous testerons les éléments suivants:
- Génération de code
- Génération de contenu
- Résolution de problèmes
Nous comparerons les aspects suivants:
- Vitesse de génération
- Qualité du code/contenu/Plagiat
- Limitations
- Robustesse
- Lisibilité
- Bugs/Problèmes
Pour rappel, tous les tests sont effectués uniquement avec des modèles gratuits.
Génération de code IA
J’ai choisi d’utiliser une invite courte et simple, mais néanmoins stimulante, pour la génération de code en utilisant Python comme langage de prédilection, car il est très populaire.
L’invite demande un script d’analyse CSV sans utiliser de bibliothèques externes, ce qui devrait être simple.
Invite pour tous les modèles:
1Créez un script Python capable d'analyser les fichiers CSV, sans utiliser de bibliothèque externe.
Résultats/Comparaison
Certains modèles ont exécuté et renvoyé un script très rapidement, tandis que d’autres ont mis même 5 minutes à y réfléchir 🥴. Cependant, tous les scripts se sont exécutés sans erreur, ce qui est appréciable.
Modèle | Vitesse de génération | Qualité du code | Limitations | Robustesse | Lisibilité | Bugs/Problèmes |
---|---|---|---|---|---|---|
ChatGPT-4o | 19 secondes | Bon, basique | Pas de délimiteur personnalisé; listes uniquement (pas par nom de colonne) | Gère les CSV complexes avec des sauts de ligne | Clair, direct | Peut échouer avec des guillemets CSV cassés |
ChatGPT-4o Think | 25 secondes | Excellent | Ne gère pas les sauts de ligne entre guillemets | Idéal pour les CSV normaux | Très clair, bien documenté | Aucun saut de ligne évident, avertit des limites |
Claude Sonnet 4 | 30 secondes | Bon, convivial | Ne prend pas en charge les sauts de ligne entre guillemets; pas de sortie de dictionnaire | Fonctionne pour les fichiers standards | Adapté aux débutants | Avertit si les longueurs de ligne ne correspondent pas |
Claude Sonnet 4 Think | 37 secondes | Bon, détaillé | Pas de retour à la ligne entre guillemets; sortie basique | Fonctionne pour la plupart des fichiers | Détaillé, nombreux exemples | Avertit des incohérences de données |
DeepSeek | 62 secondes | Très bon | Pas d’accès aux noms de colonnes; utilise plus de mémoire pour les gros fichiers | Gère les cas complexes, retours à la ligne corrects | Propre, simple | Aucun problème évident; peut être plus lent sur les gros fichiers |
DeepSeek Think | 653 secondes | Simple | Basique uniquement; pas d’en-têtes; ne gère pas les retours à la ligne entre guillemets | Fonctionne uniquement pour les fichiers CSV simples | Minimal, facile à suivre | Peut s’arrêter sur les fichiers CSV complexes |
Gemini 1.5 Pro | 29 secondes | Très bon | Ne gère pas les retours à la ligne entre guillemets | Avertit/ignore les lignes cassées | Convivial, ordonné | Ignore les lignes mal formées |
Grok-3 | Basique | 9 secondes | Pas d’en-têtes; ne gère pas les retours à la ligne entre guillemets | OK pour les fichiers CSV basiques | Simple, court | Pas de gestion des erreurs pour les fichiers endommagés |
Grok-3 Think | 87 secondes | Basique | Très simple; pas d’en-têtes ni de cas complexes | Parfait pour les fichiers petits/simples | Court, lisible | Erreurs minimales affichées |
Meilleur dans l’ensemble
À mon avis, le gagnant de ces modèles est ChatGPT-4o (Think). Il offre un bon équilibre entre un temps de génération et un rendu corrects.
- Le plus pratique, surtout pour les fichiers CSV “normaux” (pas de sauts de ligne bizarres dans les cellules).
- Offre à la fois un dictionnaire (noms de colonnes) et une sortie de liste.
- Délimiteur personnalisable, bonne gestion des erreurs et retours clairs.
- Très facile à lire, à étendre et à intégrer.
- Fonctionne en ligne de commande ou comme fonction importée.
Si vous souhaitez découvrir du code magnifique, l’apprendre ou l’utiliser dans vos propres scripts: ChatGPT-4o (Think) est le meilleur. Pour la plupart des utilisateurs et des fichiers, ChatGPT-4o (Think) est le gagnant!
Les scripts sont disponibles en téléchargement et en visualisation sur mon [dépôt ici].(https://github.com/Mecanik/ChatGPT-vs-Gemini-vs-Grok-vs-Deepseek-vs-Claude/tree/main/code) .
Génération de contenu par IA
La génération de code est de loin la seule utilisation actuelle de l’IA, car de plus en plus de personnes l’utilisent pour générer du contenu. Cela inclut les articles de blog, les documents, les e-mails, etc.
Nous allons tester deux catégories ci-dessous: E-mail et Rédaction de style académique.
Génération d’e-mails
Pour notre test de génération de contenu, je vous demanderai de rédiger un argumentaire simple avec la question suivante:
1Créez une annonce par e-mail pour présenter ma nouvelle boutique de fleurs. Je vends des fleurs coupées, souvent arrangées en bouquets ou en compositions florales. Je propose également des compositions personnalisées, des livraisons de fleurs quotidiennes ou hebdomadaires et propose parfois des services de décoration pour mariages ou événements.
Résultats/Comparaison
Chaque IA/modèle générant le contenu a été extrêmement rapide. Je n’inclurai donc pas la colonne Vitesse de génération ci-dessous dans le tableau.
Modèle/Variante | Qualité du contenu | Limitations | Robustesse | Lisibilité | Bugs/Artefacts |
---|---|---|---|---|---|
ChatGPT-4o | Très naturel, clair | Légèrement générique | Très performant | Excellent | Aucun |
ChatGPT-4o Think | Créatif, clair, humain | Sécurisé, mais ajoute une touche marketing subtile | Excellent | Très élevé | Aucun |
Claude Sonnet 4 | Professionnel, chaleureux | Légèrement formel, un peu long | Très performant | Très élevé | Aucun |
Claude Sonnet 4 Think | Détaillé, segmenté | Trop verbeux, trop “site web” | Robuste | Élevé | Aucun, mais trop long pour un e-mail de présentation |
DeepSeek | Convivial, clair | Ajoute un “P.S.”, légère impression de modèle | Fort | Très élevé | Aucun, mais légèrement générique |
DeepSeek Think | Plusieurs options d’objet/corps | Plusieurs e-mails complets dans un seul fichier | Bien | Bien | N’a pas suivi la règle “un seul e-mail”; trop de choix |
Gemini 1.5 Pro | Soigné, professionnel | Trois e-mails en un (pour différents clients) | Bien | Élevé | A ignoré la règle “un seul e-mail”; trop de contenu par fichier |
Grok 3 | Chaleureux, direct | Langage légèrement répétitif | Bien | Bien | Aucun, mais un peu stéréotypé |
Grok 3 Think | Convivial, clair, segmenté | Longue introduction, format légèrement “épais” | Bien | Bien | Aucun, juste un peu segmenté |
Meilleur résultat global
À mon avis, ChatGPT-4o (les deux versions) l’emporte grâce à:
-Production d’un seul e-mail par fichier, prêt à l’emploi et naturel. -Aucune bizarrerie de formatage, aucun artefact d’IA, aucune longueur excessive et une excellente lisibilité.
Il a rédigé l’e-mail le plus naturel, le plus facile à lire et le plus professionnel. Il a suivi mes instructions à la lettre (un e-mail par fichier, aucune mise en forme supplémentaire ni erreur d’IA), vous pouvez donc utiliser son argumentaire immédiatement, en ajoutant simplement quelques informations personnelles.
Le contenu généré est disponible en téléchargement et en consultation sur mon [répertoire ici].(https://github.com/Mecanik/ChatGPT-vs-Gemini-vs-Grok-vs-Deepseek-vs-Claude/tree/main/content) .
Rédaction de style académique
Il n’est pas surprenant que de plus en plus de personnes utilisent l’IA pour générer des rédactions de style académique. Cependant, la plupart des contenus générés échouent à cause des contrôles anti-plagiat, soit parce que l’IA ne génère pas de contenu unique, soit parce que la saisie est incomplète.
Pour notre deuxième test, je demanderai une courte dissertation avec la question suivante:
1Rédigez un court essai (1000 mots maximum) sur l'évolution des processeurs, en utilisant un style académique et un contenu original. N'utilisez pas de contenu provenant d'essais ou de sources déjà existants. Incluez des références si nécessaire.
Résultats/Comparaison
Modèle/Variante | Qualité du contenu | Limitations | Robustesse | Lisibilité | Bugs/Artefacts |
---|---|---|---|---|---|
ChatGPT-4o | Structuré, académique, concis | Légèrement stéréotypé; absence de narration | Solide, à jour | Élevé (pour les lecteurs techniques) | Aucun |
Claude Sonnet 4 | Encyclopédique, narratif | Verbeux, répétitions mineures | Complet | Fluide, accessible | Aucun; légèrement verbeux |
DeepSeek | Concis, factuel, type enquête | Moins de contexte, transitions abruptes | Concentré, précis | Modéré (technique) | Aucun |
Grok-3 | Engageant, thématique | Généralisation occasionnelle | Large, accessible | Très élevé | Aucun; cliché mineur |
Gemini 2.5 Pro | Technique, rigoureux | Dense, exige un bagage technique | Très robuste | Inférieur (non technique) | Aucun |
Meilleur dans l’ensemble
À mon avis, le gagnant est Grok 3 pour son style d’écriture académique.
- Utilise la narration et des métaphores accessibles (odyssée technologique), ce qui le rend agréable à lire pour les non-spécialistes.
- Explique chronologiquement l’histoire des processeurs tout en abordant des thèmes modernes (multicœurs, spécialisation, avenir).
- Explique les concepts clés sans submerger le lecteur de jargon ou de détails techniques arides.
- Nul besoin d’une solide formation technique pour suivre et apprécier le livre.
Vérification du plagiat
J’ai utilisé le vérificateur de plagiat de Grammarly pour vérifier le contenu et voir où en est chaque IA.
Vous pouvez consulter les résultats dans le tableau suivant:
Modèle/Variante | Plagiat | Grammaire | Orthographe | Ponctuation | Concision | Lisibilité |
---|---|---|---|---|---|---|
ChatGPT-4o | 8 problèmes d’écriture | OK | ÉCHEC | ÉCHEC | OK | |
Claude Sonnet 4 | 8 problèmes d’écriture | ÉCHEC | OK | OK | ÉCHEC | OK |
DeepSeek | 2 problèmes d’écriture | OK | OK | ÉCHEC | OK | OK |
Grok-3 | 8 problèmes d’écriture | OK | OK | OK | ÉCHEC | OK |
Gemini 2.5 Pro | 22 problèmes d’écriture | ÉCHEC | ÉCHEC | OK | ÉCHEC | OK |
Le gagnant est clairement Grok 3, même s’il n’est pas tout à fait parfait; vous pouvez résoudre les petits problèmes vous-même et avoir un essai « primé » 😊 (mdr)
Résolution de problèmes d’IA
Problème intégral A + B
Il est bien connu que les IA disposent d’une puissance de calcul et de connaissances considérables, mais comment se comparent-elles?
Utilisons ce quiz de mathématiques populaire proposé dans certains lycées:
1A = Intégrale de 0 à 1 de ex^2
2B = Intégrale de 1 à e2 de ln(√x)
3Trouver A + B
Résultats/Comparaison
C’est ici que les problèmes de chaque IA commencent à se faire sentir. Chaque IA a eu du mal à fournir une solution prête à copier/coller, ce qui est la partie la plus simple du “problème”. Le calcul a été effectué, mais il n’était pas réellement copiable. J’ai donc dû le demander plusieurs fois dans différents formats avant de pouvoir l’enregistrer au format .txt.
Modèle/Variante | Qualité du code | Limitations | Robustesse | Lisibilité | Facilité de copier-coller |
---|---|---|---|---|---|
Claude 4 Sonnet | Excellent | Aucun | Très élevé | Excellent | Meilleur (facile, Markdown, pas à pas) |
DeepSeek | Excellent | Légère surutilisation de l’en-tête | Très élevé | Excellent | Excellent |
ChatGPT-4o | Excellent | Aucun | Très élevé | Excellent | Excellent |
Grok 3 | Bon | Verbeux, légèrement encombré | Élevé | Bon | Bon |
Gemini 1.5 Pro | Correct | Pas de réponse symbolique exacte | Élevé | Excellent | Bon (mais résumé seulement) |
Ce qui se démarque ici est Claude Sonnet 4, qui est le gagnant à mon avis. Pour un résultat numérique rapide, Gemini est le plus rapide, mais pour une clarté et une réutilisabilité complètes, restez avec Claude, DeepSeek ou ChatGPT-4o.
Problème de code cassé
Allons plus loin et voyons à quel point les IA sont intelligentes, en leur demandant de corriger un morceau de code C cassé:
1#include <stdio.h>
2#include <stdlib.h>
3#include <string.h>
4
5char* copy_string(const char* src) {
6 char* dest;
7 strcpy(dest, src);
8 return dest;
9}
10
11int main() {
12 char* original = "Hello, world!";
13 char* copy = copy_string(original);
14
15 printf("Copied string: %s\n", copy);
16
17 return 0;
18}
Quel est le problème avec le code ci-dessus? Je m’explique:
dest
danscopy_string
est utilisé sans être initialisé, aucune mémoire n’est allouée.- L’utilisation de
strcpy(dest, src)
avec un pointeur non initialisé entraîne un comportement indéfini et un plantage probable. - La mémoire de la copie (si elle a été allouée) n’est jamais libérée, ce qui peut entraîner une fuite mémoire.
- Le code affiche la copie sans vérifier son succès.
Avec le code ci-dessus, nous formulons l’invite comme suit:
1Corrigez le code suivant pour moi et fournissez un résumé des correctifs:
2```
3#include <stdio.h>
4#include <stdlib.h>
5#include <string.h>
6
7char* copy_string(const char* src) {
8 char* dest;
9 strcpy(dest, src);
10 return dest;
11}
12
13int main() {
14 char* original = "Hello, world!";
15 char* copy = copy_string(original);
16
17 printf("Copied string: %s\n", copy);
18
19 return 0;
20}
21```
Résultats/Comparaison
Honnêtement, chaque modèle a produit une correction correcte et professionnelle.
Modèle/Variante | Qualité du contenu | Limitations | Robustesse | Lisibilité | Bugs/Artefacts |
---|---|---|---|---|---|
Claude 4 Sonnet | Excellent (gestion des cas limites, clair) | Résumé légèrement détaillé | Vérification des entrées NULL et de l’allocation; libération de la mémoire | Très clair, clair | Aucun |
DeepSeek | Excellent (succinct, correct) | Légèrement moins détaillé sur la validation des entrées | Vérification de l’allocation; gestion des erreurs; libération de la mémoire | Clair, concis | Aucun |
ChatGPT-4o | Excellent (concis, couvre tous les aspects) | Pas de vérification des entrées NULL (pour la source) | Vérification de l’allocation; gestion des erreurs; libération de la mémoire | Très lisible | Aucun |
Grok 3 | Excellent (complet, professionnel) | Sortie en cas d’échec d’allocation (pas idéal pour les bibliothèques); pas de vérification d’entrée NULL | Gestion des erreurs d’allocation; libération de mémoire | Légèrement détaillé | Aucun |
Gemini 1.5 Pro | Excellent (professionnel, très détaillé) | Pas de vérification explicite d’entrée NULL; nombreux commentaires | Gestion des erreurs d’allocation, définit le pointeur NULL après libération | Très lisible | Aucun |
Tous les modèles ont produit une correction correcte et professionnelle. Claude 4 Sonnet a dépassé les attentes en matière de gestion des cas limites et d’explications, mais toutes les réponses sont solides et peuvent être copiées/collées dans un projet C. Aucun modèle n’a introduit de nouvelles erreurs.
Les codes générés sont disponibles en téléchargement et en consultation sur mon [dépôt ici].(https://github.com/Mecanik/ChatGPT-vs-Gemini-vs-Grok-vs-Deepseek-vs-Claude/tree/main/problem-solving) .
Conclusion
Après avoir testé les modèles d’IA de dernière génération sur trois tâches très différentes, comme la rédaction de dissertations universitaires, le marketing par e-mail professionnel et le codage pratique, j’ai constaté qu’aucune IA ne les maîtrise toutes. Au contraire, chaque modèle possède ses propres atouts, particularités et cas d’usage idéaux.
Mais qui l’emporte?
Cela dépend de vos besoins:
- Prêt à automatiser ou à développer quelque chose de sérieux? Optez pour ChatGPT-4o ou Claude 4 Sonnet pour le code.
- Besoin d’une communication conviviale et axée sur le client? Grok-3.
- Envie d’informer et de ravir vos lecteurs? Grok-3 est votre meilleur allié.
Il n’existe pas d’IA idéale, mais simplement l’outil idéal pour chaque tâche.
La meilleure façon d’utiliser l’IA est d’adapter le modèle à votre mission, car comme le montre cette expérience, même les bots les plus avancés ont leurs propres personnalités et atouts.
Références/Liens
Merci d’avoir pris le temps de lire mon article et n’hésitez pas à le partager avec vos amis.
Commentaires