Dans cet article, nous allons comparer ChatGPT, Gemini, Grok, Deepseek et Claude pour plusieurs cas d’utilisation afin de déterminer lequel répond le mieux à vos besoins grâce aux modèles gratuits disponibles.

Nous testerons les éléments suivants:

  • Génération de code
  • Génération de contenu
  • Résolution de problèmes

Nous comparerons les aspects suivants:

  • Vitesse de génération
  • Qualité du code/contenu/Plagiat
  • Limitations
  • Robustesse
  • Lisibilité
  • Bugs/Problèmes

Pour rappel, tous les tests sont effectués uniquement avec des modèles gratuits.

Génération de code IA

J’ai choisi d’utiliser une invite courte et simple, mais néanmoins stimulante, pour la génération de code en utilisant Python comme langage de prédilection, car il est très populaire.

L’invite demande un script d’analyse CSV sans utiliser de bibliothèques externes, ce qui devrait être simple.

Invite pour tous les modèles:

1Créez un script Python capable d'analyser les fichiers CSV, sans utiliser de bibliothèque externe.

Résultats/Comparaison

Certains modèles ont exécuté et renvoyé un script très rapidement, tandis que d’autres ont mis même 5 minutes à y réfléchir 🥴. Cependant, tous les scripts se sont exécutés sans erreur, ce qui est appréciable.

ModèleVitesse de générationQualité du codeLimitationsRobustesseLisibilitéBugs/Problèmes
ChatGPT-4o19 secondesBon, basiquePas de délimiteur personnalisé; listes uniquement (pas par nom de colonne)Gère les CSV complexes avec des sauts de ligneClair, directPeut échouer avec des guillemets CSV cassés
ChatGPT-4o Think25 secondesExcellentNe gère pas les sauts de ligne entre guillemetsIdéal pour les CSV normauxTrès clair, bien documentéAucun saut de ligne évident, avertit des limites
Claude Sonnet 430 secondesBon, convivialNe prend pas en charge les sauts de ligne entre guillemets; pas de sortie de dictionnaireFonctionne pour les fichiers standardsAdapté aux débutantsAvertit si les longueurs de ligne ne correspondent pas
Claude Sonnet 4 Think37 secondesBon, détailléPas de retour à la ligne entre guillemets; sortie basiqueFonctionne pour la plupart des fichiersDétaillé, nombreux exemplesAvertit des incohérences de données
DeepSeek62 secondesTrès bonPas d’accès aux noms de colonnes; utilise plus de mémoire pour les gros fichiersGère les cas complexes, retours à la ligne correctsPropre, simpleAucun problème évident; peut être plus lent sur les gros fichiers
DeepSeek Think653 secondesSimpleBasique uniquement; pas d’en-têtes; ne gère pas les retours à la ligne entre guillemetsFonctionne uniquement pour les fichiers CSV simplesMinimal, facile à suivrePeut s’arrêter sur les fichiers CSV complexes
Gemini 1.5 Pro29 secondesTrès bonNe gère pas les retours à la ligne entre guillemetsAvertit/ignore les lignes casséesConvivial, ordonnéIgnore les lignes mal formées
Grok-3Basique9 secondesPas d’en-têtes; ne gère pas les retours à la ligne entre guillemetsOK pour les fichiers CSV basiquesSimple, courtPas de gestion des erreurs pour les fichiers endommagés
Grok-3 Think87 secondesBasiqueTrès simple; pas d’en-têtes ni de cas complexesParfait pour les fichiers petits/simplesCourt, lisibleErreurs minimales affichées

Meilleur dans l’ensemble

À mon avis, le gagnant de ces modèles est ChatGPT-4o (Think). Il offre un bon équilibre entre un temps de génération et un rendu corrects.

  • Le plus pratique, surtout pour les fichiers CSV “normaux” (pas de sauts de ligne bizarres dans les cellules).
  • Offre à la fois un dictionnaire (noms de colonnes) et une sortie de liste.
  • Délimiteur personnalisable, bonne gestion des erreurs et retours clairs.
  • Très facile à lire, à étendre et à intégrer.
  • Fonctionne en ligne de commande ou comme fonction importée.

Si vous souhaitez découvrir du code magnifique, l’apprendre ou l’utiliser dans vos propres scripts: ChatGPT-4o (Think) est le meilleur. Pour la plupart des utilisateurs et des fichiers, ChatGPT-4o (Think) est le gagnant!

Les scripts sont disponibles en téléchargement et en visualisation sur mon [dépôt ici].(https://github.com/Mecanik/ChatGPT-vs-Gemini-vs-Grok-vs-Deepseek-vs-Claude/tree/main/code) .

Génération de contenu par IA

La génération de code est de loin la seule utilisation actuelle de l’IA, car de plus en plus de personnes l’utilisent pour générer du contenu. Cela inclut les articles de blog, les documents, les e-mails, etc.

Nous allons tester deux catégories ci-dessous: E-mail et Rédaction de style académique.

Génération d’e-mails

Pour notre test de génération de contenu, je vous demanderai de rédiger un argumentaire simple avec la question suivante:

1Créez une annonce par e-mail pour présenter ma nouvelle boutique de fleurs. Je vends des fleurs coupées, souvent arrangées en bouquets ou en compositions florales. Je propose également des compositions personnalisées, des livraisons de fleurs quotidiennes ou hebdomadaires et propose parfois des services de décoration pour mariages ou événements.

Résultats/Comparaison

Chaque IA/modèle générant le contenu a été extrêmement rapide. Je n’inclurai donc pas la colonne Vitesse de génération ci-dessous dans le tableau.

Modèle/VarianteQualité du contenuLimitationsRobustesseLisibilitéBugs/Artefacts
ChatGPT-4oTrès naturel, clairLégèrement génériqueTrès performantExcellentAucun
ChatGPT-4o ThinkCréatif, clair, humainSécurisé, mais ajoute une touche marketing subtileExcellentTrès élevéAucun
Claude Sonnet 4Professionnel, chaleureuxLégèrement formel, un peu longTrès performantTrès élevéAucun
Claude Sonnet 4 ThinkDétaillé, segmentéTrop verbeux, trop “site web”RobusteÉlevéAucun, mais trop long pour un e-mail de présentation
DeepSeekConvivial, clairAjoute un “P.S.”, légère impression de modèleFortTrès élevéAucun, mais légèrement générique
DeepSeek ThinkPlusieurs options d’objet/corpsPlusieurs e-mails complets dans un seul fichierBienBienN’a pas suivi la règle “un seul e-mail”; trop de choix
Gemini 1.5 ProSoigné, professionnelTrois e-mails en un (pour différents clients)BienÉlevéA ignoré la règle “un seul e-mail”; trop de contenu par fichier
Grok 3Chaleureux, directLangage légèrement répétitifBienBienAucun, mais un peu stéréotypé
Grok 3 ThinkConvivial, clair, segmentéLongue introduction, format légèrement “épais”BienBienAucun, juste un peu segmenté

Meilleur résultat global

À mon avis, ChatGPT-4o (les deux versions) l’emporte grâce à:

-Production d’un seul e-mail par fichier, prêt à l’emploi et naturel. -Aucune bizarrerie de formatage, aucun artefact d’IA, aucune longueur excessive et une excellente lisibilité.

Il a rédigé l’e-mail le plus naturel, le plus facile à lire et le plus professionnel. Il a suivi mes instructions à la lettre (un e-mail par fichier, aucune mise en forme supplémentaire ni erreur d’IA), vous pouvez donc utiliser son argumentaire immédiatement, en ajoutant simplement quelques informations personnelles.

Le contenu généré est disponible en téléchargement et en consultation sur mon [répertoire ici].(https://github.com/Mecanik/ChatGPT-vs-Gemini-vs-Grok-vs-Deepseek-vs-Claude/tree/main/content) .

Rédaction de style académique

Il n’est pas surprenant que de plus en plus de personnes utilisent l’IA pour générer des rédactions de style académique. Cependant, la plupart des contenus générés échouent à cause des contrôles anti-plagiat, soit parce que l’IA ne génère pas de contenu unique, soit parce que la saisie est incomplète.

Pour notre deuxième test, je demanderai une courte dissertation avec la question suivante:

1Rédigez un court essai (1000 mots maximum) sur l'évolution des processeurs, en utilisant un style académique et un contenu original. N'utilisez pas de contenu provenant d'essais ou de sources déjà existants. Incluez des références si nécessaire.

Résultats/Comparaison

Modèle/VarianteQualité du contenuLimitationsRobustesseLisibilitéBugs/Artefacts
ChatGPT-4oStructuré, académique, concisLégèrement stéréotypé; absence de narrationSolide, à jourÉlevé (pour les lecteurs techniques)Aucun
Claude Sonnet 4Encyclopédique, narratifVerbeux, répétitions mineuresCompletFluide, accessibleAucun; légèrement verbeux
DeepSeekConcis, factuel, type enquêteMoins de contexte, transitions abruptesConcentré, précisModéré (technique)Aucun
Grok-3Engageant, thématiqueGénéralisation occasionnelleLarge, accessibleTrès élevéAucun; cliché mineur
Gemini 2.5 ProTechnique, rigoureuxDense, exige un bagage techniqueTrès robusteInférieur (non technique)Aucun

Meilleur dans l’ensemble

À mon avis, le gagnant est Grok 3 pour son style d’écriture académique.

  • Utilise la narration et des métaphores accessibles (odyssée technologique), ce qui le rend agréable à lire pour les non-spécialistes.
  • Explique chronologiquement l’histoire des processeurs tout en abordant des thèmes modernes (multicœurs, spécialisation, avenir).
  • Explique les concepts clés sans submerger le lecteur de jargon ou de détails techniques arides.
  • Nul besoin d’une solide formation technique pour suivre et apprécier le livre.

Vérification du plagiat

J’ai utilisé le vérificateur de plagiat de Grammarly pour vérifier le contenu et voir où en est chaque IA.

Vous pouvez consulter les résultats dans le tableau suivant:

Modèle/VariantePlagiatGrammaireOrthographePonctuationConcisionLisibilité
ChatGPT-4o8 problèmes d’écritureOKÉCHECÉCHECOK
Claude Sonnet 48 problèmes d’écritureÉCHECOKOKÉCHECOK
DeepSeek2 problèmes d’écritureOKOKÉCHECOKOK
Grok-38 problèmes d’écritureOKOKOKÉCHECOK
Gemini 2.5 Pro22 problèmes d’écritureÉCHECÉCHECOKÉCHECOK

Le gagnant est clairement Grok 3, même s’il n’est pas tout à fait parfait; vous pouvez résoudre les petits problèmes vous-même et avoir un essai « primé » 😊 (mdr)

Résolution de problèmes d’IA

Problème intégral A + B

Il est bien connu que les IA disposent d’une puissance de calcul et de connaissances considérables, mais comment se comparent-elles?

Utilisons ce quiz de mathématiques populaire proposé dans certains lycées:

1A = Intégrale de 0 à 1 de ex^2
2B = Intégrale de 1 à e2 de ln(√x)
3Trouver A + B

Résultats/Comparaison

C’est ici que les problèmes de chaque IA commencent à se faire sentir. Chaque IA a eu du mal à fournir une solution prête à copier/coller, ce qui est la partie la plus simple du “problème”. Le calcul a été effectué, mais il n’était pas réellement copiable. J’ai donc dû le demander plusieurs fois dans différents formats avant de pouvoir l’enregistrer au format .txt.

Modèle/VarianteQualité du codeLimitationsRobustesseLisibilitéFacilité de copier-coller
Claude 4 SonnetExcellentAucunTrès élevéExcellentMeilleur (facile, Markdown, pas à pas)
DeepSeekExcellentLégère surutilisation de l’en-têteTrès élevéExcellentExcellent
ChatGPT-4oExcellentAucunTrès élevéExcellentExcellent
Grok 3BonVerbeux, légèrement encombréÉlevéBonBon
Gemini 1.5 ProCorrectPas de réponse symbolique exacteÉlevéExcellentBon (mais résumé seulement)

Ce qui se démarque ici est Claude Sonnet 4, qui est le gagnant à mon avis. Pour un résultat numérique rapide, Gemini est le plus rapide, mais pour une clarté et une réutilisabilité complètes, restez avec Claude, DeepSeek ou ChatGPT-4o.

Problème de code cassé

Allons plus loin et voyons à quel point les IA sont intelligentes, en leur demandant de corriger un morceau de code C cassé:

 1#include <stdio.h>
 2#include <stdlib.h>
 3#include <string.h>
 4
 5char* copy_string(const char* src) {
 6    char* dest;
 7    strcpy(dest, src);
 8    return dest;
 9}
10
11int main() {
12    char* original = "Hello, world!";
13    char* copy = copy_string(original);
14
15    printf("Copied string: %s\n", copy);
16
17    return 0;
18}

Quel est le problème avec le code ci-dessus? Je m’explique:

  • dest dans copy_string est utilisé sans être initialisé, aucune mémoire n’est allouée.
  • L’utilisation de strcpy(dest, src) avec un pointeur non initialisé entraîne un comportement indéfini et un plantage probable.
  • La mémoire de la copie (si elle a été allouée) n’est jamais libérée, ce qui peut entraîner une fuite mémoire.
  • Le code affiche la copie sans vérifier son succès.

Avec le code ci-dessus, nous formulons l’invite comme suit:

 1Corrigez le code suivant pour moi et fournissez un résumé des correctifs:
 2```
 3#include <stdio.h>
 4#include <stdlib.h>
 5#include <string.h>
 6
 7char* copy_string(const char* src) {
 8    char* dest;
 9    strcpy(dest, src);
10    return dest;
11}
12
13int main() {
14    char* original = "Hello, world!";
15    char* copy = copy_string(original);
16
17    printf("Copied string: %s\n", copy);
18
19    return 0;
20}
21```

Résultats/Comparaison

Honnêtement, chaque modèle a produit une correction correcte et professionnelle.

Modèle/VarianteQualité du contenuLimitationsRobustesseLisibilitéBugs/Artefacts
Claude 4 SonnetExcellent (gestion des cas limites, clair)Résumé légèrement détailléVérification des entrées NULL et de l’allocation; libération de la mémoireTrès clair, clairAucun
DeepSeekExcellent (succinct, correct)Légèrement moins détaillé sur la validation des entréesVérification de l’allocation; gestion des erreurs; libération de la mémoireClair, concisAucun
ChatGPT-4oExcellent (concis, couvre tous les aspects)Pas de vérification des entrées NULL (pour la source)Vérification de l’allocation; gestion des erreurs; libération de la mémoireTrès lisibleAucun
Grok 3Excellent (complet, professionnel)Sortie en cas d’échec d’allocation (pas idéal pour les bibliothèques); pas de vérification d’entrée NULLGestion des erreurs d’allocation; libération de mémoireLégèrement détailléAucun
Gemini 1.5 ProExcellent (professionnel, très détaillé)Pas de vérification explicite d’entrée NULL; nombreux commentairesGestion des erreurs d’allocation, définit le pointeur NULL après libérationTrès lisibleAucun

Tous les modèles ont produit une correction correcte et professionnelle. Claude 4 Sonnet a dépassé les attentes en matière de gestion des cas limites et d’explications, mais toutes les réponses sont solides et peuvent être copiées/collées dans un projet C. Aucun modèle n’a introduit de nouvelles erreurs.

Les codes générés sont disponibles en téléchargement et en consultation sur mon [dépôt ici].(https://github.com/Mecanik/ChatGPT-vs-Gemini-vs-Grok-vs-Deepseek-vs-Claude/tree/main/problem-solving) .

Conclusion

Après avoir testé les modèles d’IA de dernière génération sur trois tâches très différentes, comme la rédaction de dissertations universitaires, le marketing par e-mail professionnel et le codage pratique, j’ai constaté qu’aucune IA ne les maîtrise toutes. Au contraire, chaque modèle possède ses propres atouts, particularités et cas d’usage idéaux.

Mais qui l’emporte?

Cela dépend de vos besoins:

  • Prêt à automatiser ou à développer quelque chose de sérieux? Optez pour ChatGPT-4o ou Claude 4 Sonnet pour le code.
  • Besoin d’une communication conviviale et axée sur le client? Grok-3.
  • Envie d’informer et de ravir vos lecteurs? Grok-3 est votre meilleur allié.

Il n’existe pas d’IA idéale, mais simplement l’outil idéal pour chaque tâche.

La meilleure façon d’utiliser l’IA est d’adapter le modèle à votre mission, car comme le montre cette expérience, même les bots les plus avancés ont leurs propres personnalités et atouts.

Références/Liens

Merci d’avoir pris le temps de lire mon article et n’hésitez pas à le partager avec vos amis.