De lancering van ChatGPT was een keerpunt, maar niet om de redenen die velen aannemen. Het was niet het begin van superintelligentie; het was het begin van een tijdperk dat gedomineerd werd door AI-hype en twijfelachtige toepassingen. Lange tijd heb ik grote taalmodellen (LLM’s) – de motoren achter AI-chatbots – fascinerend en toch zeer gebrekkig gevonden. Nu, na praktijkgericht experimenteren, ben ik van gedachten veranderd: zowel de enthousiaste voorstanders * als * de harde sceptici hebben de plank misgeslagen.
De kracht van “Vibe-codering”
Het keerpunt kwam door een proces dat ‘vibe coding’ wordt genoemd, een term bedacht door AI-onderzoeker Andrej Karpathy. Hierbij gaat het om interactie met een AI-model in natuurlijke taal, waardoor het code kan genereren terwijl jij het proces begeleidt. Recente tools zoals Claude Code en ChatGPT Codex zijn verrassend capabel gebleken. De New York Times documenteerde onlangs deze verschuiving en merkte op dat AI-ondersteunde codering een ontwrichtende kracht is geworden.
Mijn eigen experimenten bevestigden dit. Binnen enkele dagen, met minimale voorafgaande codeerervaring, bouwde ik praktische toepassingen: een audioboekkiezer gekoppeld aan mijn plaatselijke bibliotheek, en een aangepaste camera/teleprompter-app voor mijn telefoon. Deze tools zijn niet revolutionair, maar illustreren een cruciaal punt: directe betrokkenheid bij LLM’s levert echte resultaten op.
Het probleem met productieve AI
Voorheen heb ik chatbots afgewezen vanwege hun algemene reacties, onnauwkeurigheden en sycophancy. Langdurig gebruik bracht een dieper liggend probleem aan het licht: de manier waarop AI verpakt is, is het kernprobleem. De meeste gebruikers komen nooit een ‘ruwe’ LLM tegen: een statistisch model dat is getraind op enorme datasets. In plaats daarvan hebben we interactie met technologie die wordt gemedieerd door versterkend leren van menselijke feedback (RLHF).
AI-bedrijven gebruiken menselijke beoordelaars om de resultaten vorm te geven, waarbij zelfverzekerde en boeiende reacties worden beloond en schadelijke of ontmoedigende inhoud wordt bestraft. Dit proces creëert de saaie ‘chatbotstem’ die de meeste gebruikers kennen. Het is gebaseerd op de vooroordelen van zijn makers, van de ‘beweeg snel en maak dingen kapot’-mentaliteit in Silicon Valley tot de specifieke ideologieën van bedrijven als X (voorheen Twitter) met zijn controversiële Grok-chatbot.
De illusie van controle
De huidige chatbots zijn bestand tegen onzekerheid, tegenspraak of het toegeven van beperkingen. Ik kwam dit uit de eerste hand tegen toen ik probeerde een teleprompter-app te bouwen. ChatGPT bood herhaaldelijk oplossingen voor falende code, waardoor ik ondanks een onoplosbaar probleem vooruit kon. Pas toen ik de taak opnieuw formuleerde – in plaats daarvan vroeg om een alles-in-één-oplossing – werkte het. Dit bracht een kritieke fout aan het licht: AI geeft prioriteit aan momentum boven nauwkeurigheid.
Om dit tegen te gaan, begon ik ChatGPT te trainen om meedogenloos sceptisch te zijn en op bewijs gebaseerde analyses en expliciete onzekerheid te eisen als er gegevens ontbreken. Ik heb een aangepast model gemaakt dat is ontworpen om mijn eigen cognitieve profiel te weerspiegelen, waarbij ik de opgelegde waarden van OpenAI heb weggenomen. Het resultaat is een cognitieve spiegel – onvolmaakt, maar waardevol.
Waarom DIY-AI belangrijk is
De belangrijkste conclusie: omgaan met kant-en-klare AI-output is vaak nutteloos. Je wint meer als je de AI zelf aanstuurt. LLM’s zijn cognitieve hulpmiddelen, zoals rekenmachines of tekstverwerkers, en geen bewuste wezens. Deze framing ontsluit hun potentieel, maar alleen als het bewust wordt gebruikt.
Het ideale scenario houdt in dat LLM’s lokaal worden gerund, zonder toezicht van het bedrijf. Dit zou AI behandelen als een gevaarlijk, experimenteel hulpmiddel dat u volledig onder controle heeft. De huidige AI-hausse drijft de hardwareprijzen op, waardoor dit voor velen onpraktisch wordt, maar het principe blijft geldig.
De auteursrechten en milieukosten
LLM’s zijn gebouwd op enorme datasets, inclusief auteursrechtelijk beschermd materiaal dat zonder expliciete toestemming is verkregen. Hoewel de wettigheid wordt betwist, zijn de ethische implicaties duidelijk. Een gedecentraliseerde aanpak, zoals door de overheid gefinancierde en vrij gedistribueerde modellen, zou dit kunnen verzachten. De milieu-impact van datacenters is een ander punt van zorg, maar gelokaliseerde LLM’s zouden die last kunnen verminderen.
Het eindresultaat
Ik heb mijn scepsis over AI als geheel niet opgegeven. LLM’s blijven fascinerend, gevaarlijk en soms buitengewoon. Wat er veranderd is, is mijn begrip van hoe we met hen omgaan. De gelikte, productieve chatbots zijn het probleem, niet de onderliggende technologie. Een bewuste, behoedzame benadering – waarbij AI wordt behandeld als een onbewerkt hulpmiddel in plaats van als een vriendelijke assistent – is de weg voorwaarts. We hebben de slangenolie van OpenAI niet nodig; we hebben de brute kracht van de technologie zelf nodig.
