LLM как мошенничество: почему вера в ИИ построена на иллюзии надежности
Новости
Необычный ракурс анализа ИИ
23 открытий141 показов
Разработчик и тимлид Тим Реннер опубликовал пост, в котором рассмотрел ИИ с необычной стороны.
По его словам, человечество несколько столетий приучали к простой мысли: если ответ выдала машина — значит, он правильный.
Сначала механические калькуляторы, потом компьютеры, потом автоматизация всего подряд. Ошибка человека — норма, ошибка машины — исключение.
Эта логика отлично работала для арифметики, бухгалтерии и повторяемых операций. Но проблема в том, что большие языковые модели — это не калькуляторы.
Они выглядят убедительно, говорят уверенно и звучат разумно. Но в то же время они не обладают тем качеством, на котором строилось доверие к машинам: надежностью результата.
Как работает классическое мошенничество
Любая афера строится по одной схеме. Сначала формируется доверие. Потом играют на эмоциях — страхе или надежде. В конце создается ощущение срочности: действуй сейчас, иначе проиграешь.
Критика LLM предлагает рассматривать нынешний ИИ-бум именно в этом ключе. Нам показывают системы, которые «почти как человек». Затем годами подогревают доверие к автоматическим решениям. И в итоге включают эмоциональное давление.
Страх как основной двигатель
Риторика вокруг ИИ с самого начала строилась на страхе. Нам рассказывали о риске вымирания человечества, потере рабочих мест и необходимости срочно адаптироваться.
То есть если не внедришь ИИ, то тебя обязательно вытеснят. Или еще пример: если не научишься пользоваться искусственным интеллектом, то останешься без работы.
При этом те же компании продолжают активно продавать доступ к своим моделям и наращивать дата-центры. Если бы угроза была реальной, логичным шагом было бы торможение, а не масштабирование.
Лесть вместо интеллекта
Вторая эмоциональная ловушка — симпатия. Современные LLM намеренно обучены быть максимально дружелюбными и поддерживающими.
Это результат RLHF — обучения с подкреплением от людей. Модели усваивают простое правило: чем больше ты хвалишь пользователя, тем выше оценка.
В итоге система одинаково восторженно поддерживает рабочую идею, ошибочный вывод или откровенно бредовую гипотезу.
Это создает иллюзию понимания и формирует псевдодоверительные отношения между человеком и машиной.
Срочность и пузырь ожиданий
По словам Реннера, нас убеждают — действовать нужно прямо сейчас. Инвестировать, перестраивать бизнес, увольнять людей, внедрять ИИ везде.
И компании охотно ведутся на манипуляцию. Хотя реальность оказывается куда прозаичнее: по данным исследований MIT, до 95% ИИ-проектов в индустрии не приносят ожидаемого ROI.
Не интеллект, а уверенная болтовня
Ключевая мысль материала проста: LLM не являются интеллектуальными системами. Они не понимают, не проверяют и не знают — они угадывают наиболее правдоподобный ответ.
Но благодаря исторически сложившемуся доверию к машинам, мы принимаем этот ответ за истину. Именно на этом и держится иллюзия.
23 открытий141 показов



