Чем больше условий, тем тупее нейронка
Почитал об этом пост у коллеги и удивился, насколько точно это описывает мой последний опыт работы с ИИ.
Мы привыкли, что для получения четкого и целевого ответа нейронке нужно разъяснить максимально все. Особенно, если говорим про SEO, где важны контекст и параметры.
Но исследование arXiv показало: чем больше требований в промте, тем хуже нейросеть выполняет задачу. И это распространяется даже на самые простые таски типа вставки ключевых слов.
Я призадумался. А ведь действительно: сколько бы ни становилось новых моделей, как бы они ни улучшались, тупняки все равно начнутся. И количество тупняков коррелируется с тем, насколько глубоко уходишь в решение задачи — дал больше условий, контекста, требований.
Условно, до 5-10 первых ответов нейронка отвечает всегда лучше, чем если вести диалог на 20+ правок — начинается каша, путаница, первые условия забываются. ИИ прям очевидно тяжелее думается, и требования начинают конфликтовать между собой.
Особенно это заметно с современными моделями.
Сейчас ChatGPT 5 в разы лучше подхватывает, что тебе нужно, даже если какое-то условие будет упущено.
Например, мне нужно написать текст для заполнения странички контентом. Если раньше я обязательно просил сокращать смыслы и не «лить воду», то сейчас это не нужно — мусорных формулировок стало значительно меньше.
А вот джипитишка двухлетней давности на короткий и неподробный промт выдаст чистый кринж, который нужно будет дорабатывать.
Тексты были на уровне: «Оптимизация сайта — это важный вопрос, которым задаются люди, которые хотят улучшить свой сайт…»
Так что лучше отдать это свободное условие под обозначение TOV и тематики сайта.
А вы как, ставите себе ограничение на объем и количество условий в промте?