OpenAI объяснили, почему ИИ продолжают выдумывать ответы
08.09.2025 (15:21)
08.09.2025
Новости и анонсы
OpenAI объяснили, почему ИИ продолжают выдумывать ответы
Компания признала, что решить проблему с «галлюционированием» не удалось, хотя в ChatGPT-5 весь упор был сделан на нее.
Причина — система оценки. Чем больше правильных ответов даст ИИ-модель, тем больше баллов она получит.
А если модель признается, что не знает ответ или не разбирается в вопросе, то потеряет их.
Логика такая: лучше угадать, чем не сказать ничего, даже если шанс дать правильный ответ мал. Именно отсюда появляются красивые цифры в отчетах.
OpenAI предложили пересмотреть систему оценки:
Интересно, что галюны чаще ловят крупные модели. Маленькие ошибаются реже, потому что их база знаний ограничена.
➡️ Ранее разобрали, почему ИИ часто ссылаются на страницу 404.
Автор поста не указан
© dice.expert — SEO-справочник по маркетингу