Prompt Battle
Сравнение техник промптинга бок о бок
Prompt Battle
Кратко изложи сложный текст в ключевых тезисах
Zero-ShotZS
Прямой вопрос без примеров
Few-ShotFS
С примерами
Chain of ThoughtCoT
Пошаговые рассуждения
Tree of ThoughtsToT
Несколько путей рассуждений
Self-ConsistencySC
Несколько попыток, выбор лучшей
Least-to-MostL2M
Разбивка на подзадачи
ReflexionREF
Самокритика и улучшение
Role PlayRP
Роль эксперта
Step-BackSB
Сначала абстрагируйся, потом отвечай
Chain of VerificationCoV
Проверка своего ответа
Program of ThoughtPoT
Напиши код для решения
Structured OutputSO
JSON/структурированный формат
Analogical ReasoningAR
Рассуждение через аналогии
Socratic MethodSM
Рассуждение через вопросы
ContrastiveCON
Определи, чего НЕ делать
Rephrase & RespondRaR
Сначала перефразируй вопрос
Multi-Persona DebateMPD
Эксперты спорят, потом вывод
Constraint-BasedCB
Жёсткие ограничения на вывод
Emotional PromptingEP
Добавь эмоциональный контекст
Chain of DensityCoD
Итеративное сжатие
Выбрано: 2 (⚡ 2 запросов)
Архитектура трансформеров, представленная в статье 2017 года "Attention is All You Need", произвела революцию в обработке естественного языка. В отличие от предыдущих моделей seq2seq, основанных на рекуррентных нейронных сетях, трансформеры используют механизм self-attention для параллельной обработки целых последовательностей. Это обеспечивает гораздо более быстрое обучение и лучшую обработку дальних зависимостей. Архитектура состоит из кодировщика и декодировщика, каждый из которых включает несколько слоёв self-attention и feed-forward сетей. Ключевые инновации включают multi-head attention, позволяющий модели обращать внимание на разные позиции одновременно, и позиционное кодирование, сохраняющее информацию о порядке элементов. Трансформеры лежат в основе моделей BERT, GPT и T5, которые достигли лучших результатов по множеству NLP-бенчмарков.
⚡ 2 запросов