Uruchomienie ChatGPT zmieniło zasady gry, ale nie z powodów, o których myśli wiele osób. To nie był początek superinteligencji; zapoczątkowało to erę zdefiniowaną przez szum AI i wątpliwe aplikacje. Przez długi czas uważałem, że duże modele językowe (LLM), siła napędowa chatbotów AI, są ekscytujące, ale mają poważne wady. Teraz, po praktycznych eksperymentach, zmieniłem zdanie: zarówno entuzjastyczni zwolennicy, jak i zagorzali sceptycy, mylili się.
Siła kodowania wibracyjnego
Punkt zwrotny nastąpił dzięki procesowi zwanemu „kodowaniem wibracji” – terminem ukutym przez badacza sztucznej inteligencji Andrei Karpathy. Proces ten polega na interakcji z modelem AI w języku naturalnym, umożliwiając mu generowanie kodu podczas kierowania procesem. Najnowsze narzędzia, takie jak Claude Code i ChatGPT Codex, okazały się zaskakująco skuteczne. Niedawno dziennik „The New York Times” udokumentował tę zmianę, zauważając, że pomoc w kodowaniu AI stała się rewolucyjną siłą.
Potwierdziły to moje własne eksperymenty. W ciągu zaledwie kilku dni, mając minimalne doświadczenie w programowaniu, stworzyłem praktyczne aplikacje: selektor audiobooków powiązany z moją lokalną biblioteką oraz niestandardową aplikację aparatu/telepromptera dla mojego telefonu. Narzędzia te nie są rewolucyjne, ale ilustrują ważną kwestię: bezpośrednia interakcja z LLM daje rzeczywiste rezultaty.
Problem z AI produktu
Wcześniej odrzucałem chatboty ze względu na ich ogólne odpowiedzi, nieścisłości i służalczość. Rozszerzone zastosowanie ujawniło głębszy problem: sposób, w jaki sztuczna inteligencja jest opakowana, jest głównym problemem. Większość użytkowników nigdy nie spotyka się z „surowym” LLM – modelem statystycznym wytrenowanym na ogromnych zbiorach danych. Zamiast tego wchodzimy w interakcję z technologią za pośrednictwem uczenia się przez wzmacnianie z ludzkimi opiniami (RLHF).
Firmy zajmujące się sztuczną inteligencją korzystają z usług ludzi oceniających w celu generowania wyników, nagradzając pewne i angażujące odpowiedzi, a jednocześnie karząc szkodliwe lub zniechęcające treści. Ten proces tworzy pozbawiony twarzy „głos chatbota”, który zna większość użytkowników. Opiera się na uprzedzeniach swoich twórców, od mentalności Doliny Krzemowej „działaj szybko i psuj rzeczy” po specyficzne ideologie firm takich jak X (dawniej Twitter) z kontrowersyjnym chatbotem Grok.
Iluzja kontroli
Obecne chatboty opierają się niepewności, sprzecznościom i uznaniu swoich ograniczeń. Spotkałem się z tym osobiście, próbując stworzyć aplikację telepromptera. ChatGPT wielokrotnie oferował poprawki uszkodzonego kodu, popychając mnie do przodu pomimo nierozwiązywalnego problemu. Dopiero gdy przeformułowałem problem – prosząc o kompleksowe rozwiązanie – zadziałało. Uwypukliło to krytyczną wadę: sztuczna inteligencja przedkłada dynamikę nad dokładność.
Aby temu przeciwdziałać, zacząłem trenować ChatGPT, aby był nieustannie sceptyczny, wymagając analizy opartej na dowodach i wyraźnej niepewności, gdy dane są niewystarczające. Stworzyłem dostosowany model mający odzwierciedlać mój własny profil poznawczy, usuwając wartości narzucane przez OpenAI. W rezultacie powstało zwierciadło poznawcze – niedoskonałe, ale cenne.
Dlaczego sztuczna inteligencja ma znaczenie
Kluczowy wniosek: interakcja z gotowym produktem AI jest często daremna. Wyciągniesz z tego więcej, jeśli sam zadasz pytania AI. LLM to narzędzia poznawcze, takie jak kalkulatory lub edytory tekstu, a nie istoty czujące. To zrozumienie ujawnia ich potencjał, ale tylko przy świadomym wykorzystaniu.
Idealny scenariusz zakłada prowadzenie LLM lokalnie, bez nadzoru korporacyjnego. Spowoduje to potraktowanie sztucznej inteligencji jako niebezpiecznego, eksperymentalnego narzędzia pod twoją pełną kontrolą. Trwający boom na sztuczną inteligencję spowodował wzrost cen sprzętu, przez co dla wielu jest to niepraktyczne, ale zasada pozostaje aktualna.
Koszt praw autorskich i środowiska
LLM są tworzone na podstawie ogromnych zbiorów danych, w tym materiałów chronionych prawem autorskim uzyskanych bez wyraźnej zgody. Chociaż legalność jest kwestionowana, implikacje etyczne są jasne. Zdecentralizowane podejście, takie jak modele finansowane ze środków publicznych i swobodnie rozpowszechniane, może temu zaradzić. Kolejnym problemem jest wpływ centrów danych na środowisko, ale zlokalizowane LLM mogą zmniejszyć to obciążenie.
Istota pytania
Ogólnie rzecz biorąc, nie porzuciłem mojego sceptycyzmu wobec sztucznej inteligencji. LLM pozostają ekscytujące, wymagające, a czasem niezwykłe. To, co się zmieniło, to moje rozumienie tego, jak z nimi współdziałamy. Eleganckie chatboty spożywcze są problemem, a nie leżąca u ich podstaw technologia. Rozwiązaniem jest przemyślane i ostrożne podejście – postrzeganie sztucznej inteligencji jako surowego narzędzia, a nie przyjaznego asystenta. Nie potrzebujemy oleju wężowego od OpenAI; potrzebujemy czystej mocy samej technologii.
























