Il cambiamento dell’intelligenza artificiale: perché lo scetticismo è ora giustificato

20
Il cambiamento dell’intelligenza artificiale: perché lo scetticismo è ora giustificato

Il lancio di ChatGPT è stato un momento spartiacque, ma non per le ragioni che molti suppongono. Non erano gli albori della superintelligenza; era l’inizio di un’era dominata dall’hype sull’intelligenza artificiale e da applicazioni discutibili. Per molto tempo ho considerato i modelli linguistici di grandi dimensioni (LLM) – i motori dietro i chatbot di intelligenza artificiale – affascinanti ma profondamente imperfetti. Ora, dopo aver sperimentato sul campo, ho cambiato idea: sia gli entusiasti sostenitori che gli aspri scettici hanno mancato il bersaglio.

Il potere della “codificazione delle vibrazioni”

Il punto di svolta è arrivato attraverso un processo chiamato “vibe coding”, un termine coniato dal ricercatore di intelligenza artificiale Andrej Karpathy. Ciò comporta l’interazione con un modello di intelligenza artificiale in linguaggio naturale, lasciando che generi codice mentre guidi il processo. Strumenti recenti come Claude Code e ChatGPT Codex si sono dimostrati sorprendentemente capaci. Il New York Times ha recentemente documentato questo cambiamento, sottolineando che la codifica assistita dall’intelligenza artificiale è arrivata come una forza dirompente.

I miei esperimenti lo hanno confermato. In pochi giorni, con una minima esperienza di codifica, ho creato applicazioni pratiche: un selettore di audiolibri collegato alla mia biblioteca locale e un’app personalizzata per fotocamera/teleprompter per il mio telefono. Questi strumenti non sono rivoluzionari, ma illustrano un punto cruciale: il coinvolgimento diretto con i LLM produce risultati reali.

Il problema dell’intelligenza artificiale prodotta

In precedenza, avevo respinto i chatbot per le loro risposte generiche, inesattezze e servilismo. L’uso prolungato ha rivelato un problema più profondo: il modo in cui l’intelligenza artificiale è confezionata è il problema principale. La maggior parte degli utenti non incontra mai un LLM “grezzo”, un modello statistico addestrato su vasti set di dati. Invece, interagiamo con la tecnologia mediata dall’apprendimento per rinforzo dal feedback umano (RLHF).

Le aziende di intelligenza artificiale utilizzano valutatori umani per modellare i risultati, premiando risposte sicure e coinvolgenti e penalizzando contenuti dannosi o scoraggianti. Questo processo crea la blanda “voce chatbot” familiare alla maggior parte degli utenti. Si basa sui pregiudizi dei suoi creatori, dalla mentalità “muoviti velocemente e rompi le cose” della Silicon Valley alle ideologie specifiche di aziende come X (ex Twitter) con il suo controverso chatbot Grok.

L’illusione del controllo

Gli attuali chatbot resistono all’incertezza, alla contraddizione o all’ammissione di limiti. L’ho riscontrato in prima persona mentre cercavo di creare un’app di teleprompter. ChatGPT ha offerto ripetutamente soluzioni per errori di codice, spingendomi ad andare avanti nonostante un problema irrisolvibile. Solo quando ho riformulato il compito, chiedendo invece una soluzione tutto in uno, ha funzionato. Ciò ha evidenziato un difetto critico: l’intelligenza artificiale dà priorità allo slancio rispetto alla precisione.

Per contrastare questo, ho iniziato ad addestrare ChatGPT a essere incessantemente scettico, richiedendo analisi basate sull’evidenza ed esplicita incertezza quando mancano i dati. Ho creato un modello personalizzato progettato per riflettere il mio profilo cognitivo, eliminando i valori imposti da OpenAI. Il risultato è uno specchio cognitivo: imperfetto, ma prezioso.

Perché l’intelligenza artificiale fai-da-te è importante

Il punto fondamentale: interagire con output di intelligenza artificiale preconfezionati è spesso inutile. Guadagni di più stimolando tu stesso l’IA. Gli LLM sono strumenti cognitivi, come calcolatrici o elaboratori di testi, non esseri senzienti. Questa inquadratura sblocca il loro potenziale, ma solo se usata consapevolmente.

Lo scenario ideale prevede l’esecuzione di LLM a livello locale, senza supervisione aziendale. Ciò tratterebbe l’intelligenza artificiale come uno strumento pericoloso e sperimentale sotto il tuo pieno controllo. L’attuale boom dell’intelligenza artificiale fa lievitare i prezzi dell’hardware, rendendolo impraticabile per molti, ma il principio rimane valido.

Il diritto d’autore e i costi ambientali

I LLM si basano su vasti set di dati, incluso materiale protetto da copyright ottenuto senza autorizzazione esplicita. Sebbene la legalità sia contestata, le implicazioni etiche sono chiare. Un approccio decentralizzato, come modelli finanziati con fondi pubblici e distribuiti gratuitamente, potrebbero mitigare questo problema. L’impatto ambientale dei data center è un’altra preoccupazione, ma i LLM localizzati potrebbero ridurre tale onere.

Il risultato finale

Non ho abbandonato il mio scetticismo sull’intelligenza artificiale nel suo insieme. Gli LLM rimangono affascinanti, pericolosi e occasionalmente straordinari. Ciò che è cambiato è la mia comprensione di come interagiamo con loro. Il problema sono i chatbot intelligenti e produttivi, non la tecnologia sottostante. Un approccio consapevole e cauto, ovvero trattare l’intelligenza artificiale come uno strumento grezzo piuttosto che come un assistente amichevole, è la strada da seguire. Non abbiamo bisogno dell’olio di serpente di OpenAI; abbiamo bisogno della potenza pura della tecnologia stessa.