Spuštění ChatGPT změnilo hru, ale ne z důvodů, které si mnozí lidé myslí. To nebyl úsvit superinteligence; to znamenalo začátek éry definované humbukem AI a spornými aplikacemi. Dlouho jsem si myslel, že velké jazykové modely (LLM), hnací síla AI chatbotů, jsou vzrušující, ale hluboce chybné. Nyní, po praktických experimentech, jsem změnil názor: jak nadšení příznivci, tak zanícení skeptici se mýlili.
Síla vibračního kódování
Zlom nastal díky procesu zvanému „kódování vibrací“, což je termín, který vytvořil výzkumník AI Andrei Karpathy. Tento proces zahrnuje interakci s modelem umělé inteligence v přirozeném jazyce, což mu umožňuje generovat kód, zatímco proces řídíte. Nedávné nástroje jako Claude Code a ChatGPT Codex byly překvapivě účinné. The New York Times nedávno zdokumentoval tento posun a poznamenal, že pomoc s kódováním AI dorazila jako rušivá síla.
Moje vlastní experimenty to potvrdily. Během několika dní, s minimálními předchozími zkušenostmi s programováním, jsem vytvořil praktické aplikace: výběr audioknih propojený s mojí místní knihovnou a vlastní aplikaci pro fotoaparát/teleprompter pro můj telefon. Tyto nástroje nejsou revoluční, ale ilustrují důležitý bod: přímá interakce s LLM přináší skutečné výsledky.
Problém s AI produktu
Dříve jsem chatboty zavrhl pro jejich obecné odpovědi, nepřesnosti a podlézavost. Rozšířené používání odhalilo hlubší problém: způsob, jakým je AI zabalena, je zásadní problém. Většina uživatelů se nikdy nesetká se „surovým“ LLM – statistickým modelem trénovaným na obrovských souborech dat. Místo toho komunikujeme s technologií zprostředkovanou posilováním učení s lidskou zpětnou vazbou (RLHF).
Společnosti s umělou inteligencí využívají lidské hodnotitele k vytváření výstupů, odměňují sebevědomé a poutavé odpovědi a zároveň penalizují škodlivý nebo odrazující obsah. Tento proces vytváří onen anonymní „hlas chatbota“, který většina uživatelů zná. Zakotvuje předsudky svých tvůrců, od mentality „rychle se hýbej a rozbíjej věci“ v Silicon Valley až po specifické ideologie společností jako X (dříve Twitter) s kontroverzním chatbotem Grokem.
Iluze kontroly
Současní chatboti odolávají nejistotě, rozporům nebo uznání svých omezení. Osobně jsem se s tím setkal při pokusu o vytvoření aplikace teleprompter. ChatGPT opakovaně nabízel opravy nefunkčního kódu, což mě hnalo vpřed navzdory neřešitelnému problému. Teprve když jsem problém přeformuloval – požádal jsem o řešení „vše v jednom“, fungovalo to. To zdůraznilo kritickou chybu: AI upřednostňuje dynamiku před přesností.
Abych tomu zabránil, začal jsem trénovat ChatGPT, aby byl neúnavně skeptický a vyžadoval analýzu založenou na důkazech a explicitní nejistotu, když jsou data nedostatečná. Vytvořil jsem přizpůsobený model navržený tak, aby odrážel můj vlastní kognitivní profil a odstranil hodnoty vnucené OpenAI. Výsledkem bylo kognitivní zrcadlo – nedokonalé, ale cenné.
Proč na DIY AI záleží
Klíčové informace: Interakce s hotovým výstupem AI je často marná. Více z toho získáte, když si sami položíte otázky týkající se AI. LLM jsou kognitivní nástroje, jako jsou kalkulačky nebo textové procesory, nikoli vnímající bytosti. Toto pochopení odhaluje jejich potenciál, ale pouze s vědomým využitím.
Ideální scénář zahrnuje provozování LLM lokálně, bez firemního dohledu. To bude s umělou inteligencí zacházet jako s nebezpečným experimentálním nástrojem pod vaší úplnou kontrolou. Pokračující boom umělé inteligence zvýšil ceny hardwaru, což je pro mnohé nepraktické, ale princip stále platí.
Náklady na autorská práva a životní prostředí
LLM jsou vytvářeny z obrovských datových souborů, včetně materiálu chráněného autorským právem získaného bez výslovného povolení. Ačkoli je zákonnost sporná, etické důsledky jsou jasné. Decentralizovaný přístup, jako jsou veřejně financované a volně distribuované modely, to může zmírnit. Dalším problémem je dopad datových center na životní prostředí, ale lokalizované LLM mohou tuto zátěž snížit.
Podstata otázky
Nevzdal jsem se své skepse ohledně AI obecně. LLM zůstávají vzrušující, náročné a někdy mimořádné. Co se změnilo, je moje chápání toho, jak s nimi komunikujeme. Problémem jsou elegantní chatboti s potravinami, nikoli základní technologie. Cestou vpřed je záměrný, opatrný přístup – AI vidět spíše jako hrubý nástroj než jako přátelského pomocníka. Nepotřebujeme hadí olej od OpenAI; potřebujeme surovou sílu samotné technologie.
























