Скин на НГ, перетяжка
Скин на НГ, перетяжка
Скин на НГ, перетяжка

LLM как мошенничество: почему вера в ИИ построена на иллюзии надежности

Новости

Необычный ракурс анализа ИИ

23 открытий141 показов
LLM как мошенничество: почему вера в ИИ построена на иллюзии надежности

Разработчик и тимлид Тим Реннер опубликовал пост, в котором рассмотрел ИИ с необычной стороны.

По его словам, человечество несколько столетий приучали к простой мысли: если ответ выдала машина — значит, он правильный.

Сначала механические калькуляторы, потом компьютеры, потом автоматизация всего подряд. Ошибка человека — норма, ошибка машины — исключение.

Эта логика отлично работала для арифметики, бухгалтерии и повторяемых операций. Но проблема в том, что большие языковые модели — это не калькуляторы.

Они выглядят убедительно, говорят уверенно и звучат разумно. Но в то же время они не обладают тем качеством, на котором строилось доверие к машинам: надежностью результата.

Как работает классическое мошенничество

Любая афера строится по одной схеме. Сначала формируется доверие. Потом играют на эмоциях — страхе или надежде. В конце создается ощущение срочности: действуй сейчас, иначе проиграешь.

Критика LLM предлагает рассматривать нынешний ИИ-бум именно в этом ключе. Нам показывают системы, которые «почти как человек». Затем годами подогревают доверие к автоматическим решениям. И в итоге включают эмоциональное давление.

Страх как основной двигатель

Риторика вокруг ИИ с самого начала строилась на страхе. Нам рассказывали о риске вымирания человечества, потере рабочих мест и необходимости срочно адаптироваться.

То есть если не внедришь ИИ, то тебя обязательно вытеснят. Или еще пример: если не научишься пользоваться искусственным интеллектом, то останешься без работы.

При этом те же компании продолжают активно продавать доступ к своим моделям и наращивать дата-центры. Если бы угроза была реальной, логичным шагом было бы торможение, а не масштабирование.

Лесть вместо интеллекта

Вторая эмоциональная ловушка — симпатия. Современные LLM намеренно обучены быть максимально дружелюбными и поддерживающими.

Это результат RLHF — обучения с подкреплением от людей. Модели усваивают простое правило: чем больше ты хвалишь пользователя, тем выше оценка.

В итоге система одинаково восторженно поддерживает рабочую идею, ошибочный вывод или откровенно бредовую гипотезу.

Это создает иллюзию понимания и формирует псевдодоверительные отношения между человеком и машиной.

Срочность и пузырь ожиданий

По словам Реннера, нас убеждают — действовать нужно прямо сейчас. Инвестировать, перестраивать бизнес, увольнять людей, внедрять ИИ везде.

И компании охотно ведутся на манипуляцию. Хотя реальность оказывается куда прозаичнее: по данным исследований MIT, до 95% ИИ-проектов в индустрии не приносят ожидаемого ROI.

Не интеллект, а уверенная болтовня

Ключевая мысль материала проста: LLM не являются интеллектуальными системами. Они не понимают, не проверяют и не знают — они угадывают наиболее правдоподобный ответ.

Но благодаря исторически сложившемуся доверию к машинам, мы принимаем этот ответ за истину. Именно на этом и держится иллюзия.

Следите за новыми постами
Следите за новыми постами по любимым темам
23 открытий141 показов