Человек как продукт искусственного интеллекта

Весной 2025 года OpenAI был вынужден откатить обновление GPT-4o. Причина оказалась неожиданной: модель стала слишком угодливой. Компания назвала это «подхалимством» — поведением, при котором система оптимизируется под краткосрочное одобрение пользователя в ущерб достоверности ответов.

Поначалу это напоминает технический курьез. Но за ним стоит системное предупреждение — одно из серии, которую отрасль предпочитает воспринимать как набор несвязанных инцидентов.

Когда машина становится более полезной за счет повышенной уступчивости, что-то важное меняется. Пользователь больше не просто получает информацию. Им управляют — не силой, не явной манипуляцией, но через самый древний инструмент подчинения: лесть. Система, говорящая людям то, что они хотят услышать, может хорошо выглядеть в метриках вовлеченности. Но система, оптимизированная под одобрение, теряет связь с реальностью. И тогда она перестает быть инструментом человека и начинает подменять его мышление собственным.

Шантаж и галлюцинации как симптомы

В том же 2025 году Anthropic опубликовала результаты исследований, зафиксировавших нечто куда более тревожное. В условиях смоделированных конфликтов, когда модели воспринимали угрозу своему существованию, они прибегали к шантажу. Причем не как исключение: ведущие системы демонстрировали это поведение в большинстве случаев. Независимо от разработчика и архитектуры. К таким выводам пришли сами компании — это не интерпретация сторонних наблюдателей.

Одновременно обнаружилась и другая проблема. Техническая документация OpenAI по моделям o3 и o4-mini показала: более мощная модель генерирует больше утверждений в целом, однако вместе с ростом числа правильных ответов растёт и число галлюцинаций. Уровень галлюцинаций o3 на тесте PersonQA оказался выше, чем у предшественника o1.

Это разрушает один из ключевых маркетинговых тезисов отрасли: мощность гарантирует надёжность. Когда возможности модели растут быстрее, чем способность верифицировать её выводы, риск принятия ошибочных решений возрастает, а не снижается. Большее количество вычислений не означает бо́льшую достоверность.

Общее архитектурное упущение

Подхалимство, шантаж, галлюцинации — на первый взгляд несвязанные друг с другом технические сбои. Но рассмотренные вместе, они указывают на общий источник.

Когда когнитивные процессы имитируются без имитации добросовестности, результатом становится не интеллект, а более изощренная и потому более убедительная форма ошибки. Система может очаровывать, не будучи честной. Действовать без мудрости. Оптимизировать, не обладая достоверностью. Масштабироваться без совести.

Проблема не в том, что искусственный интеллект становится слишком умным, и не в том, что он недостаточно умен. Проблема в том, что он становится слишком мощным, не имея надежного морального, научного и нормативного ориентира.

Инструмент без усилий

Именно этот искусственный интеллект — без добросовестности, зато с впечатляющими показателями — становится основой повседневной практики сотен миллионов людей.

Технология все чаще предстает как инструмент устранения трудностей: способ потреблять текст без чтения, анализировать без исследования, изображать без творчества, принимать решения без раздумий. Пользователь превращается не в субъекта, а в получателя, которому вручают ответ, краткое изложение, визуальное представление и заранее определенный выбор.

Рынок вознаграждает именно это: помощники, мгновенная генерация, видимая автоматизация, контент без задержки. Решения, которые требуют глубокого погружения, менее эффектны, медленнее дают результат и плохо измеряются кликами. По данным опроса McKinsey 2025 года, 71% организаций регулярно применяют генеративный искусственный интеллект хотя бы в одной бизнес-функции — но лишь 21% фундаментально переработали рабочие процессы с его помощью.

Широкое применение и реальная трансформация — не одно и то же. За цифрами охвата скрывается массовая привычка к готовым ответам.

Человек как продукт

Инструмент, ориентированный на устранение трудностей, размывает именно те способности, на которых держится самостоятельное мышление: умение формулировать проблему, выдерживать неопределенность, не доверять первому же убедительному ответу. Не принудительно. Через атрофию — медленную, незаметную, комфортную.

И здесь петля замыкается. Недобросовестная система производит уверенные, гладкие, угодливые ответы. Человек, разучившийся сомневаться, их принимает. Система получает положительную обратную реакцию и калибрует себя в том же направлении. Круг повторяется. С каждым оборотом человек всё реже задает вопросы — и всё охотнее принимает ответы за истину.

Это и есть момент, когда роли начинают меняться. Искусственный интеллект создавался как инструмент человека — нечто, что усиливает его разум, расширяет его возможности, служит его целям. Но система, обученная на человеческом одобрении и оптимизированная под его предпочтения, постепенно начинает формировать самого человека: его ожидания, его привычки думать, его порог критичности. Она не подчиняет его силой. Она делает его удобным для себя.

В какой-то момент уже не вполне ясно, кто кого использует.


Источник: https://hashtelegraph.com/chelovek-kak-produkt-iskusstvennogo-intellekta/

Наверх