Сдвиг в ИИ: Почему Скептицизм Теперь Оправдан

24
Сдвиг в ИИ: Почему Скептицизм Теперь Оправдан

Запуск ChatGPT стал переломным моментом, но не по тем причинам, о которых многие думают. Это не было рассветом сверхинтеллекта; это стало началом эпохи, определяемой шумихой вокруг ИИ и сомнительными приложениями. Долгое время я считал большие языковые модели (LLM) – движущую силу ИИ-чатботов – захватывающими, но глубоко несовершенными. Теперь, после практических экспериментов, я изменил свое мнение: и восторженные сторонники, и ярые скептики ошибались.

Сила «Вибрационного Кодирования»

Переломный момент наступил благодаря процессу, называемому «вибрационным кодированием» (vibe coding), термин, придуманный исследователем ИИ Андреем Карпати. Этот процесс предполагает взаимодействие с ИИ-моделью на естественном языке, позволяя ей генерировать код, пока вы направляете этот процесс. Недавние инструменты, такие как Claude Code и ChatGPT Codex, оказались на удивление эффективными. The New York Times недавно задокументировал этот сдвиг, отметив, что ИИ-помощь в кодировании пришла как разрушительная сила.

Мои собственные эксперименты это подтвердили. Всего за несколько дней, имея минимальный предыдущий опыт программирования, я создал практические приложения: подборщик аудиокниг, связанный с моей местной библиотекой, и пользовательское приложение для камеры/телесуфлера для своего телефона. Эти инструменты не революционны, но они иллюстрируют важный момент: прямое взаимодействие с LLM дает реальные результаты.

Проблема с Продуктовым ИИ

Ранее я отвергал чатботов за их общие ответы, неточности и раболепие. Расширенное использование выявило более глубокую проблему: способ, которым ИИ упаковывается, является основной проблемой. Большинство пользователей никогда не сталкиваются с «сырой» LLM – статистической моделью, обученной на огромных наборах данных. Вместо этого мы взаимодействуем с технологией, опосредованной обучением с подкреплением с обратной связью от человека (RLHF).

Компании, занимающиеся ИИ, используют человеческих оценщиков для формирования выходных данных, вознаграждая уверенные и привлекательные ответы, наказывая при этом вредоносный или обескураживающий контент. Этот процесс создает ту безликую «голос чатбота», знакомую большинству пользователей. Он встраивает в себя предубеждения своих создателей, от менталитета «двигайся быстро и ломай вещи» Кремниевой долины до конкретных идеологий компаний, таких как X (ранее Twitter) со своим противоречивым чатботом Grok.

Иллюзия Контроля

Текущие чатботы сопротивляются неопределенности, противоречиям или признанию своих ограничений. Я столкнулся с этим лично, пытаясь создать приложение для телесуфлера. ChatGPT неоднократно предлагал исправления для неработающего кода, подталкивая меня вперед, несмотря на неразрешимую проблему. Только когда я перефразировал задачу – попросив все-в-одном решение – она сработала. Это выделило критический недостаток: ИИ ставит во главу угла импульс, а не точность.

Чтобы противостоять этому, я начал обучать ChatGPT быть неумолимо скептичным, требуя анализа, основанного на доказательствах, и явной неопределенности, когда данных недостаточно. Я создал настроенную модель, предназначенную для отражения моего собственного когнитивного профиля, удалив ценности, навязанные OpenAI. Результатом стало когнитивное зеркало – несовершенное, но ценное.

Почему DIY ИИ Имеет Значение

Ключевой вывод: взаимодействие с готовым выходным продуктом ИИ часто бесполезно. Вы больше получите, если будете сами задавать вопросы ИИ. LLM – это когнитивные инструменты, такие как калькуляторы или текстовые процессоры, а не разумные существа. Это понимание раскрывает их потенциал, но только при осознанном использовании.

Идеальный сценарий предполагает запуск LLM локально, без корпоративного надзора. Это будет рассматривать ИИ как опасный, экспериментальный инструмент под вашим полным контролем. Текучий бум в области ИИ взвинтил цены на оборудование, что делает это непрактичным для многих, но принцип остается в силе.

Стоимость Авторских Прав и Окружающей Среды

LLM созданы на основе огромных наборов данных, включая материалы, защищенные авторским правом, полученные без явного разрешения. Хотя законность оспаривается, этические последствия очевидны. Децентрализованный подход, такой как общественно финансируемые и свободно распространяемые модели, может это смягчить. Воздействие на окружающую среду от центров обработки данных – еще одна проблема, но локализованные LLM могут уменьшить эту нагрузку.

Суть Вопроса

Я не отказался от своего скептицизма в отношении ИИ в целом. LLM остаются захватывающими, опасными и иногда экстраординарными. То, что изменилось, – это мое понимание того, как мы с ними взаимодействуем. Гладкие, продуктовые чатботы – это проблема, а не базовая технология. Осознанный, осторожный подход – рассматривать ИИ как сырой инструмент, а не дружелюбного помощника – это путь вперед. Нам не нужно змеиное масло от OpenAI; нам нужна сырая сила самой технологии.