El lanzamiento de ChatGPT fue un momento decisivo, pero no por las razones que muchos suponen. No fueron los albores de la superinteligencia; Fue el comienzo de una era dominada por la exageración de la IA y aplicaciones cuestionables. Durante mucho tiempo, consideré que los modelos de lenguajes grandes (LLM, por sus siglas en inglés), los motores detrás de los chatbots de IA, eran fascinantes pero profundamente defectuosos. Ahora, después de una experimentación práctica, he cambiado de opinión: tanto los entusiastas defensores como los duros escépticos han errado el blanco.
El poder de la “codificación de vibraciones”
El punto de inflexión se produjo a través de un proceso llamado “codificación de vibraciones”, término acuñado por el investigador de IA Andrej Karpathy. Esto implica interactuar con un modelo de IA en lenguaje natural, permitiéndole generar código mientras usted guía el proceso. Herramientas recientes como Claude Code y ChatGPT Codex han demostrado ser sorprendentemente capaces. El New York Times documentó recientemente este cambio y señaló que la codificación asistida por IA ha llegado como una fuerza disruptiva.
Mis propios experimentos lo confirmaron. En cuestión de días, con una mínima experiencia previa en codificación, creé aplicaciones prácticas: un selector de audiolibros vinculado a mi biblioteca local y una aplicación de cámara/teleprompter personalizada para mi teléfono. Estas herramientas no son revolucionarias, pero ilustran un punto crucial: la interacción directa con los LLM produce resultados reales.
El problema de la IA productizada
Anteriormente, despreciaba a los chatbots por sus respuestas genéricas, imprecisiones y adulación. El uso extendido reveló un problema más profundo: la forma en que se empaqueta la IA es el problema central. La mayoría de los usuarios nunca encuentran un LLM “en bruto”, un modelo estadístico entrenado en grandes conjuntos de datos. En cambio, interactuamos con tecnología mediada por el aprendizaje reforzado a partir de la retroalimentación humana (RLHF).
Las empresas de inteligencia artificial utilizan evaluadores humanos para dar forma a los resultados, recompensando las respuestas seguras y atractivas y penalizando el contenido dañino o desalentador. Este proceso crea la suave “voz del chatbot” familiar para la mayoría de los usuarios. Se alimenta de los prejuicios de sus creadores, desde la mentalidad de “moverse rápido y romper cosas” de Silicon Valley hasta las ideologías específicas de empresas como X (anteriormente Twitter) con su controvertido chatbot Grok.
La ilusión del control
Los chatbots actuales se resisten a la incertidumbre, la contradicción o a admitir limitaciones. Me encontré con esto de primera mano mientras intentaba crear una aplicación de teleprompter. ChatGPT ofreció repetidamente soluciones para el código defectuoso, lo que me impulsó a seguir adelante a pesar de un problema sin solución. Sólo cuando reformulé la tarea, pidiendo en su lugar una solución todo en uno, funcionó. Esto puso de relieve un defecto crítico: la IA prioriza el impulso sobre la precisión.
Para contrarrestar esto, comencé a entrenar a ChatGPT para que sea implacablemente escéptico, exigiendo análisis basados en evidencia e incertidumbre explícita cuando faltan datos. Creé un modelo personalizado diseñado para reflejar mi propio perfil cognitivo, eliminando los valores impuestos por OpenAI. El resultado es un espejo cognitivo: imperfecto, pero valioso.
Por qué es importante la IA casera
La conclusión clave: interactuar con resultados de IA preempaquetados a menudo es inútil. Obtienes más si solicitas a la IA tú mismo. Los LLM son herramientas cognitivas, como calculadoras o procesadores de texto, no seres sintientes. Este encuadre libera su potencial, pero sólo cuando se utiliza con atención.
El escenario ideal implica ejecutar LLM localmente, sin supervisión corporativa. Esto trataría a la IA como una herramienta experimental peligrosa bajo su total control. El actual auge de la IA hace subir los precios del hardware, lo que hace que esto sea poco práctico para muchos, pero el principio sigue siendo válido.
Los derechos de autor y los costos ambientales
Los LLM se basan en vastos conjuntos de datos, incluido material protegido por derechos de autor obtenido sin permiso explícito. Si bien se cuestiona la legalidad, las implicaciones éticas son claras. Un enfoque descentralizado, como modelos financiados con fondos públicos y de distribución gratuita, podría mitigar esto. El impacto ambiental de los centros de datos es otra preocupación, pero los LLM localizados podrían reducir esa carga.
El resultado final
No he abandonado mi escepticismo sobre la IA en su conjunto. Los LLM siguen siendo fascinantes, peligrosos y, en ocasiones, extraordinarios. Lo que ha cambiado es mi comprensión de cómo interactuamos con ellos. Los chatbots ingeniosos y elaborados son el problema, no la tecnología subyacente. El camino a seguir es adoptar un enfoque consciente y cauteloso (tratar la IA como una herramienta básica en lugar de un asistente amigable). No necesitamos el aceite de serpiente de OpenAI; Necesitamos el poder bruto de la tecnología misma.

























