O lançamento do ChatGPT foi um divisor de águas, mas não pelos motivos que muitos supõem. Não foi o início da superinteligência; foi o início de uma era dominada pelo entusiasmo da IA e por aplicações questionáveis. Durante muito tempo, considerei os grandes modelos de linguagem (LLMs) – os motores por trás dos chatbots de IA – fascinantes, mas profundamente falhos. Agora, depois da experimentação prática, mudei de ideia: tanto os proponentes entusiasmados e os céticos severos erraram o alvo.
O poder da “codificação Vibe”
O ponto de viragem veio através de um processo chamado “vibe coding”, um termo cunhado pelo investigador de IA Andrej Karpathy. Isso envolve interagir com um modelo de IA em linguagem natural, permitindo que ele gere código enquanto você orienta o processo. Ferramentas recentes como Claude Code e ChatGPT Codex provaram ser surpreendentemente capazes. O New York Times documentou recentemente esta mudança, observando que a codificação assistida por IA chegou como uma força disruptiva.
Meus próprios experimentos confirmaram isso. Em poucos dias, com experiência mínima em codificação, criei aplicativos práticos: um seletor de audiolivros vinculado à minha biblioteca local e um aplicativo de câmera/teleprompter personalizado para meu telefone. Estas ferramentas não são revolucionárias, mas ilustram um ponto crucial: o envolvimento direto com LLMs produz resultados reais.
O problema com IA produzida
Anteriormente, rejeitei os chatbots por suas respostas genéricas, imprecisões e bajulação. O uso prolongado revelou um problema mais profundo: a forma como a IA é embalada é o problema central. A maioria dos usuários nunca encontra um LLM “bruto” – um modelo estatístico treinado em vastos conjuntos de dados. Em vez disso, interagimos com a tecnologia mediada pela aprendizagem por reforço a partir do feedback humano (RLHF).
As empresas de IA usam avaliadores humanos para moldar os resultados, recompensando respostas confiantes e envolventes e, ao mesmo tempo, penalizando conteúdos prejudiciais ou desencorajadores. Este processo cria a “voz do chatbot” familiar para a maioria dos usuários. Ele se baseia nos preconceitos de seus criadores, desde a mentalidade de “agir rápido e quebrar as coisas” do Vale do Silício até as ideologias específicas de empresas como a X (anteriormente Twitter) com seu controverso chatbot Grok.
A Ilusão de Controle
Os chatbots atuais resistem à incerteza, à contradição ou à admissão de limitações. Encontrei isso em primeira mão ao tentar construir um aplicativo de teleprompter. O ChatGPT ofereceu repetidamente soluções para falhas de código, empurrando-me para frente apesar de um problema insolúvel. Somente quando reformulei a tarefa – pedindo uma solução completa – é que funcionou. Isso destacou uma falha crítica: a IA prioriza o impulso em detrimento da precisão.
Para combater isso, comecei a treinar o ChatGPT para ser implacavelmente cético, exigindo análises baseadas em evidências e incerteza explícita quando faltam dados. Criei um modelo customizado projetado para refletir meu próprio perfil cognitivo, eliminando os valores impostos pela OpenAI. O resultado é um espelho cognitivo – imperfeito, mas valioso.
Por que a IA DIY é importante
A principal conclusão: envolver-se com resultados de IA pré-empacotados muitas vezes é inútil. Você ganha mais solicitando você mesmo a IA. LLMs são ferramentas cognitivas, como calculadoras ou processadores de texto, e não seres sencientes. Esse enquadramento libera seu potencial, mas somente quando usado com atenção.
O cenário ideal envolve a execução de LLMs localmente, sem supervisão corporativa. Isso trataria a IA como uma ferramenta experimental perigosa sob seu controle total. O atual boom da IA faz subir os preços do hardware, tornando isto impraticável para muitos, mas o princípio permanece válido.
Os direitos autorais e os custos ambientais
Os LLMs são baseados em vastos conjuntos de dados, incluindo material protegido por direitos autorais obtido sem permissão explícita. Embora a legalidade seja contestada, as implicações éticas são claras. Uma abordagem descentralizada, como modelos financiados publicamente e distribuídos gratuitamente, poderia mitigar esta situação. O impacto ambiental dos data centers é outra preocupação, mas os LLMs localizados poderiam reduzir esse fardo.
O resultado final
Não abandonei meu ceticismo em relação à IA como um todo. Os LLMs permanecem fascinantes, perigosos e, ocasionalmente, extraordinários. O que mudou foi minha compreensão de como interagimos com eles. Os chatbots sofisticados e produtivos são o problema, não a tecnologia subjacente. Uma abordagem consciente e cautelosa – tratando a IA como uma ferramenta bruta e não como um assistente amigável – é o caminho a seguir. Não precisamos do óleo de cobra da OpenAI; precisamos do poder bruto da própria tecnologia.
