Как я работаю с ключами
1. Собранные сырые ключи скармливаю промпту
2. На основе ключей определяются интенты
3. На основе интентов определяются сущности
4. Список найденных сущностей расширяется и дополняется связанными и неявными сущностями
5. Сущности группируются в домены
6. Для всех доменов и всех сущностей определяются новые интенты
7. Интенты кластеризуются
8. Строится таксономия на основе сущностей и интентов
9. Таксономия наполняется контентом (генерачим по мега правилам — см промптоведение)
10. В контент внедряем часть ключей (если их там еще нет)
11. Проводим самоконтроль всего этого барахла
12. В контент внедряем перелинковку
13. Проводим самоконтроль всего этого барахла
14. Выгрузка на сайт, вычитка
Это если кратко. Если чуть более подробно — смотрите и читайте 1 и 2 сезон промптоведения — там много из этого расписано.
Это я к чему написал вообще. Тут товарищ мой говорит, что LLM уравняло качество контента для всего инета и у всех в среднем одно и тоже.
А вот фиг там.
Я выдал мои боевые промпты товарищам, записал видео как с ними работать, как поднастраивать ежели чего. Показал все настройки в LLM.
А качество выходного контента у меня и товарищей совершенно разные. Даже на моих боевых промптах. Я помыслил и понял что дело в двух вещах:
1. Входные данные в промпт
2. Вычитка (в меньшей степени).
О том как готовить данные для промпта — можно целую книгу написать. То как делю это я — моё личное ноу-хау, кое я юзаю успешно более года. В рамках статей в канале это не расписать, да и не стоит этого делать.
В общем юзайте схему, совершенствуйте её. Читайте Промптоведение.