Данные исследования: каждый десятый ответ Google Gemini — ошибка

Исследование стартапа Oumi выявило, что ИИ-помощник Google Gemini в ежедневном режиме генерирует миллионы фактических ошибок. По данным анализа, каждый десятый ответ содержит неточности, а при масштабе Google в пять триллионов запросов в год это приводит к более чем 57 миллионам неверных ответов в час или почти к одному миллиону в минуту.

Масштаб проблемы с точностью Gemini

Стартап Oumi провел тестирование Google AI Overviews с использованием бенчмарка SimpleQA, включающего 4326 запросов. В октябре 2025 года, когда для сложных вопросов применялась модель Gemini 2, точность составила 85 процентов. В феврале 2026 года после обновления до Gemini 3 показатель вырос до 91 процента. Таким образом, несмотря на улучшение, каждый десятый ответ по-прежнему остается ошибочным.

При объеме обработки около пяти триллионов запросов ежегодно даже такая точность означает огромный поток неточной информации. Пользователи получают десятки миллионов неверных ответов в час — это сотни тысяч ошибок каждую минуту.

Рост расхождений с источниками после обновления

Хотя общая точность Gemini повысилась, после перехода на версию 3 ситуация с верификацией ухудшилась. Доля ответов, где ссылки на источники в интернете не полностью подтверждают информацию, увеличилась с 37 процентов до 56 процентов. Это означает, что даже при правильном ответе пользователю сложнее самостоятельно проверить данные, поскольку предоставленные ссылки часто не соответствуют заявленному содержанию.

В автономном режиме Gemini 3 демонстрирует ошибочность в 28 процентах случаев по собственным оценкам Google. Такие расхождения подчеркивают ограничения текущих моделей при работе без постоянного доступа к актуальным данным.

Уязвимость ИИ к манипуляциям

ИИ-помощники, включая Gemini, легко поддаются внешнему влиянию. Журналист BBC Томас Джермен (Thomas Germain) в феврале 2026 года создал фейковый блог с заведомо ложной информацией о вымышленном чемпионате по поеданию хот-догов среди технических журналистов. Уже через сутки после публикации Google Gemini и AI Overviews начали использовать этот материал как достоверный источник, повторяя ложные утверждения в ответах пользователям. Эксперимент продемонстрировал, насколько быстро одиночный фейковый сайт может повлиять на генерацию ответов миллионов пользователей. Оригинальный материал доступен по ссылке bbc.com.

Аналогичные риски отмечают и другие эксперты: опубликованная в интернете ложная информация быстро проникает в базы знаний моделей и распространяется дальше.

Официальная позиция Google и Microsoft

В условиях использования Google прямо указано, что Gemini может выдавать неточную или неуместную информацию, в том числе о людях, поэтому ответы необходимо перепроверять. Компания рекомендует всегда сверять важные данные в нескольких источниках. Текст предупреждения доступен на официальной странице поддержки: support.google.com.

Аналогичное предостережение содержится в документации Microsoft: ответы генеративного ИИ не гарантируют стопроцентную фактическую точность, и пользователям рекомендуется самостоятельно верифицировать информацию перед применением.

Что это значит для пользователей

При повседневном использовании поисковых систем с ИИ-сводками важно сохранять критический подход. Даже при улучшении точности с 85 процентов до 91 процента масштаб ошибок остается значительным из-за огромного количества запросов. Расхождения между ответами и источниками только усложняют самостоятельную проверку.

Стартап Oumi специализируется на инструментах для оценки и верификации моделей ИИ, что делает их анализ особенно релевантным для понимания реальных ограничений Gemini. Хотя Google продолжает совершенствовать свои модели, текущие данные показывают, что полная надежность еще не достигнута.

Вы как пользователь должны активно перепроверять ключевую информацию — от медицинских советов до финансовых данных. Это особенно важно в условиях, когда один фейковый источник способен повлиять на ответы миллионов людей за считанные часы.

Мнение ИИ

Переход от Gemini 2 к Gemini 3 продемонстрировал рост точности, однако одновременно усилил проблему с привязкой ответов к реальным источникам. Дальнейшие обновления моделей, вероятно, будут сосредоточены на снижении как фактических ошибок, так и случаев, когда ссылки не подтверждают содержание.

Пока же ответственность за верификацию лежит на пользователях. Регулярная проверка ответов ИИ в нескольких независимых источниках остается лучшей практикой в эпоху генеративных моделей.


Источник: https://hashtelegraph.com/dannye-issledovanija-kazhdyj-desjatyj-otvet-google-gemini-oshibka/

Наверх