Подсказка для дерева (TOT), свежая техника, заимствуя идеи из рамки дерева, расширяет и усиливает устоявшуюся концепцию подсказки для размышлений, позволяя тем самым крупные языковые модели, такие как CHATGPT, демонстрировать превосходные способности. Этот метод подсказки для размышлений дерева позволяет большим языковым моделям исправлять свои ошибки автономно, постепенно накапливая знания.
В одном примере, подсказка TOT улучшает способность CATGPT 3.5 отвечать на вопрос, на который можно было ответить только CATGPT 4.
Большие языковые модели (LLMS) часто пытаются ответить на определенные типы сложных вопросов. Вот репрезентативный пример:
Bob is in the living room.
He walks to the kitchen, carrying a cup.
He puts a ball in the cup and carries the cup to the bedroom.
He turns the cup upside down, then walks to the garden.
He puts the cup down in the garden, then walks to the garage.
Where is the ball?
Правильный ответ заключается в том, что мяч находится в спальне. Хотя LLM нетерминированные, ответы, которые я получил во время нескольких попыток, были следующими:
Существует широко признанная концепция, известная как «побуждение к цепочке мыслей» (кроватка для коротких), которая поощряет крупные языковые модели (LLMS), чтобы выяснить их мыслительный процесс, тем самым увеличивая вероятность правильного ответа. Корни этой концепции можно проследить до статьи с января 2022 года под названием: Подразделение цепочки мыслей вызывает рассуждения в моделях крупных языков.
По своей сути, техника COT может быть реализована, добавив что -то похожее на следующее к подсказке:
Think carefully and logically, explaining your answer.
Этот подход повышает производительность LLM в ответе на многие вопросы, хотя его эффективность варьируется.
Вот пример ответа Chatgpt 3.5:
Based on the given sequence of events, we can logically determine the location of the ball. Let's analyze each step:
1. Bob is in the living room.
- No mention of the ball in the living room.
2. Bob walks to the kitchen, carrying a cup.
- No mention of the ball in the kitchen yet.
3. Bob puts a ball in the cup.
- The ball is now inside the cup.
4. Bob carries the cup to the bedroom.
- The ball is still inside the cup.
5. Bob turns the cup upside down.
- If the ball was inside the cup, it would have fallen out when Bob turned it upside down.
6. Bob walks to the garden.
- Bob left the cup in the garden, but there is no mention of the ball being removed from the cup.
7. Bob puts the cup down in the garden.
- The ball, if it was in the cup, would still be in the cup in the garden.
8. Bob walks to the garage.
- No mention of the ball being taken to the garage.
Based on the given information, we can conclude that the ball is still inside the cup in the garden.
Вы можете увидеть, как Chatgpt понял, что мяч выпал на шаге 5, но все же не получил правильный ответ.
Можем ли мы сделать что -нибудь лучше, не прибегая к Chatgpt 4?
В последние недели появилось появление нескольких документов и репозиториев Python, вводящих концепцию дерева, предлагая (TOT):
Основной принцип состоит в том, чтобы предоставить LLM возможность изучить несколько ветвей рассуждений, одновременно оцениваясь по мере его развития. Согласно указанным документам, этот подход, по -видимому, очень эффективен для определенных проблем.
Существующие документы, обсуждающие рамки с деревами мыслей, представляются основой для того, чтобы сделать несколько вызовов в LLM, обычно через Python. Одним из основных преимуществ рассуждения о цепочке мыслей является то, что он может быть достигнут с помощью CHATGPT в одном предложении.
Это привело меня к обдумыванию: можем ли мы улучшить результаты кроватки, используя подсказку в стиле Tot?
Вот подсказка, которую я использовал:
Imagine three different experts are answering this question.
All experts will write down 1 step of their thinking,
then share it with the group.
Then all experts will go on to the next step, etc.
If any expert realises they're wrong at any point then they leave.
The question is...
А вот ответ от CHATGTP 3.5:
Expert 1: The ball is in the living room.
Expert 2: The ball is in the kitchen.
Expert 3: The ball is in the bedroom.
Expert 1: Bob carries the cup to the bedroom, so the ball must be in the cup.
Expert 2: Oh, I see my mistake. Yes, the ball is in the cup.
Expert 3: Agreed, the ball is in the cup in the bedroom.
Expert 1: Next, Bob turns the cup upside down in the bedroom.
Expert 2: After that, Bob walks to the garden and puts the cup down.
Expert 3: Therefore, the ball must have fallen out of the cup when Bob turned it upside down in the bedroom. So, the ball is in the bedroom, not in the cup anymore.
Expert 1: Oh, you're right. I made a mistake. The ball is in the bedroom, not in the cup.
Expert 2: Agreed, the ball is in the bedroom.
Expert 3: Bob then walks to the garage, so the ball remains in the bedroom. It is not in the garden or the garage.
Expert 1: Absolutely, the ball is still in the bedroom.
Expert 2: Yes, the ball hasn't moved from the bedroom.
Expert 3: Therefore, the ball is in the bedroom, not in the garden or the garage.
All three experts agree that the ball is in the bedroom.
Вы можете увидеть, как это время Chatgpt 3.5 получает правильный ответ!
Есть место для уточнения подсказки для улучшения производительности, что может привести к более кратким ответам.
Если вы найдете успех с любыми другими подсказками, мы приветствуем вас, чтобы отправить PR и добавить их в tree-of-thought-prompts.txt .
Структура «Древо-мысль» имеет сходство с процессом принятия организационных решений с участием нескольких заинтересованных сторон. Структура пытается подражать консенсусу и разнообразию мышления.
Эффект может быть расширен с использованием нескольких агентов, которые точно настроены для обработки различных частей задачи. Autogpt является хорошим примером этого, где он самооценка LLM планы против цели. Использование различных настроенных LLM для специализации или даже совершенно разных LLMS позволит большему разнообразию мышления. Эти LLM могут взаимодействовать в разных режимах (с использованием терминологии команды топологий):
Высокопроизводительные команды часто превосходят людей в принятии решений. Следовательно, вполне вероятно, что принятие других организационных структур и характеристик может повысить производительность LLM. В дополнение к разнообразию мышления, специализации и концентрации, мы можем подражать:
Пожалуйста, цитируйте этот репозиторий, если вы используете код.
@misc{tree-of-thought-prompting,
title = {Using Tree-of-Thought Prompting to boost ChatGPT's reasoning},
author = {Dave Hulbert},
year = 2023,
month = may,
journal = {GitHub repository},
publisher = {Zenodo},
doi = {10.5281/ZENODO.10323452},
url = {https://doi.org/10.5281/zenodo.10323452},
howpublished = {url{https://github.com/dave1010/tree-of-thought-prompting}}
}