Исследование The New York Times указало на критическую проблему в ИИ-ответах: алгоритм Gemini 3 выдает ложную информацию в 9% случаев. Несмотря на технологическое обновление, система продолжает генерировать миллионы фейков ежедневно.
Об этом пишет РБК-Украина со ссылкой на исследование.
Для оценки точности в эксперименте использовали бенчмарк SimpleQA от OpenAI - список из 4000 вопросов с верифицированными ответами. Исследование показало, что точность выросла с 85% в Gemini 2.5 до 91% в Gemini 3. Однако, если экстраполировать этот процент ошибок на все поисковые запросы, Google выдает десятки миллионов некорректных ответов в день.
Отчет приводит примеры провалов алгоритма:
Техгигант резко раскритиковал результаты анализа. Представитель Google Нед Адрианс заявил: "В этом исследовании есть серьезные дыры. Оно не отражает то, что люди на самом деле ищут в Google".
В компании считают, что сам тест SimpleQA содержит некорректную информацию.
Также выяснилось, что техногигант использует разные модели в зависимости от запроса пользователя. Чтобы результаты загружались быстрее, система чаще всего использует модель Gemini Flash, которая является более дешевой и быстрой, однако менее точной, чем Gemini 3.1 Pro.
Ключевая проблема, по мнению Google, заключается в том, что AI Overviews поощряет людей принимать короткие резюме вместо проверки первоисточников по "синим ссылкам". Сама же компания добавляет дисклеймер: "ИИ может допускать ошибки, поэтому проверяйте ответы".
Разработчики уточнили, что просмотреть настройки конфиденциальности и поиска в своем браузере можно в меню "Настройки".