Искусственный интеллект страдает от человеческих галлюцинаций

6 июля 2025

Искусственный интеллект (ИИ) продолжает удивлять своими возможностями, но вместе с тем вызывает всё больше вопросов о своей надёжности. Новое исследование, проведённое компанией OpenAI, выявило тревожную тенденцию: чем сложнее становятся языковые модели, такие как ChatGPT или Gemini, тем чаще они допускают так называемые "галлюцинации" — выдают ложную информацию, которая при этом звучит крайне убедительно. Согласно данным OpenAI, две новейшие модели, o3 и o4-mini, в определённых тестах демонстрируют "галлюцинации" в 33% и 48% случаев соответственно. Это в два-три раза больше, чем у их предшественников. Такие показатели вызывают серьёзные опасения, особенно учитывая, что ИИ всё чаще используется в чувствительных сферах, таких как медицина, юриспруденция и научные исследования, где ошибки могут иметь серьёзные последствия.