Le lancement de ChatGPT a été un moment décisif, mais pas pour les raisons que beaucoup supposent. Ce n’était pas l’aube de la superintelligence ; c’était le début d’une ère dominée par le battage médiatique de l’IA et ses applications douteuses. Pendant longtemps, j’ai considéré les grands modèles de langage (LLM) – les moteurs derrière les chatbots IA – fascinants mais profondément imparfaits. Aujourd’hui, après une expérimentation pratique, j’ai changé d’avis : les partisans enthousiastes et les sceptiques acharnés ont raté le but.
La puissance du « Vibe Coding »
Le tournant s’est produit grâce à un processus appelé « codage vibratoire », un terme inventé par le chercheur en IA Andrej Karpathy. Cela implique d’interagir avec un modèle d’IA en langage naturel, en lui permettant de générer du code pendant que vous guidez le processus. Des outils récents comme Claude Code et ChatGPT Codex se sont révélés étonnamment performants. Le New York Times a récemment documenté ce changement, soulignant que le codage assisté par l’IA est devenu une force perturbatrice.
Mes propres expériences l’ont confirmé. En quelques jours, avec une expérience minimale en codage, j’ai créé des applications pratiques : un sélecteur de livres audio lié à ma bibliothèque locale et une application appareil photo/téléprompteur personnalisée pour mon téléphone. Ces outils ne sont pas révolutionnaires, mais ils illustrent un point crucial : l’engagement direct avec les LLM donne de vrais résultats.
Le problème de l’IA produite
Auparavant, j’ai rejeté les chatbots pour leurs réponses génériques, leurs inexactitudes et leur flagornerie. Une utilisation prolongée a révélé un problème plus profond : la façon dont l’IA est emballée est le problème central. La plupart des utilisateurs ne rencontrent jamais de LLM « brut » – un modèle statistique formé sur de vastes ensembles de données. Au lieu de cela, nous interagissons avec la technologie grâce à l’apprentissage par renforcement à partir de la rétroaction humaine (RLHF).
Les entreprises d’IA utilisent des évaluateurs humains pour façonner les résultats, récompensant les réponses confiantes et engageantes tout en pénalisant les contenus préjudiciables ou décourageants. Ce processus crée la « voix de chatbot » fade familière à la plupart des utilisateurs. Il s’appuie sur les préjugés de ses créateurs, depuis la mentalité de la Silicon Valley consistant à “agir vite et casser les choses” jusqu’aux idéologies spécifiques d’entreprises comme X (anciennement Twitter) avec son chatbot controversé Grok.
L’illusion du contrôle
Les chatbots actuels résistent à l’incertitude, aux contradictions ou à l’admission de leurs limites. J’ai rencontré ce problème en essayant de créer une application de téléprompteur. ChatGPT a proposé à plusieurs reprises des correctifs pour le code défaillant, me poussant à avancer malgré un problème insoluble. Ce n’est que lorsque j’ai recadré la tâche – en demandant plutôt une solution tout-en-un – que cela a fonctionné. Cela a mis en évidence un défaut critique : l’IA donne la priorité à l’élan plutôt qu’à la précision.
Pour contrer cela, j’ai commencé à entraîner ChatGPT à être implacablement sceptique, exigeant une analyse fondée sur des preuves et une incertitude explicite lorsque les données font défaut. J’ai créé un modèle personnalisé conçu pour refléter mon propre profil cognitif, supprimant les valeurs imposées par OpenAI. Le résultat est un miroir cognitif – imparfait, mais précieux.
Pourquoi l’IA DIY est importante
Le point clé à retenir : s’engager avec des résultats d’IA préemballés est souvent inutile. Vous gagnez plus en invitant vous-même l’IA. Les LLM sont des outils cognitifs, comme des calculatrices ou des traitements de texte, et non des êtres sensibles. Ce cadrage libère leur potentiel, mais seulement lorsqu’il est utilisé de manière consciente.
Le scénario idéal implique d’exécuter des LLM localement, sans surveillance de l’entreprise. Cela traiterait l’IA comme un outil expérimental dangereux sous votre contrôle total. Le boom actuel de l’IA fait grimper les prix du matériel, ce qui rend cela peu pratique pour beaucoup, mais le principe reste valable.
Les coûts du droit d’auteur et de l’environnement
Les LLM sont construits sur de vastes ensembles de données, y compris du matériel protégé par le droit d’auteur obtenu sans autorisation explicite. Même si la légalité est contestée, les implications éthiques sont claires. Une approche décentralisée, telle que des modèles financés par des fonds publics et distribués gratuitement, pourrait atténuer ce problème. L’impact environnemental des centres de données constitue une autre préoccupation, mais des LLM localisés pourraient réduire ce fardeau.
L’essentiel
Je n’ai pas abandonné mon scepticisme à l’égard de l’IA dans son ensemble. Les LLM restent fascinants, dangereux et parfois extraordinaires. Ce qui a changé, c’est ma compréhension de la façon dont nous interagissons avec eux. Ce sont les chatbots astucieux et productifs qui constituent le problème, et non la technologie sous-jacente. Une approche consciente et prudente – traiter l’IA comme un outil brut plutôt que comme un assistant convivial – est la voie à suivre. Nous n’avons pas besoin de l’huile de serpent d’OpenAI ; nous avons besoin de la puissance brute de la technologie elle-même.

























