Иллюзия рассуждений
Иллюзия рассуждений в LLMS связана с их способностью генерировать когерентный и контекстуально релевантный текст. При представленной подсказке или вопросе LLMS может создавать ответы, которые, по -видимому, являются результатом логической мысли. Тем не менее, это в первую очередь связано с их вероятностным характером и тем фактом, что они были обучены огромным количествам текстовых данных. LLM, по сути, изучают закономерности и ассоциации в этих данных, позволяя им предсказать наиболее вероятное следующее слово или фразу в данном контексте.
Перспектива Возняка на интеллект и рассуждения
Интересный момент, поднятый Стивом Возняком в хакерах, которые хотели - 2009 год критикует, как мы часто определяем интеллект:
«Итак, мы не учим думать так же, как учимся, вы знаете, строгого рота. И интеллект не определяется как кто -то, у кого есть мозг, который может думать и думать и рассматривать все возможности и придумать лучшее решение. О, нет! Интеллект говорит то же самое, что и все остальные. Вы читаете одни и те же газетные статьи. Вы смотрели одни и те же новости. Почти как религия. И собрать его вместе и придумывать свои собственные решения.
Это понимание подчеркивает критический вопрос для LLMS: можем ли мы научить модели по -настоящему «думать» разнообразными и творческими способами, или они просто имитируют социальные нормы и модели, на которых они обучались?
Понимание рассуждений
Рассуждение, по своей сути, включает в себя способность делать выводы или делать выводы на основе данной информации или доказательств. Это требует применения логики, критического мышления и навыков решения проблем.
Некоторые виды рассуждений:
В то время как LLMS может имитировать некоторые из этих форм с помощью предварительно обученных паттернов, истинные рассуждения требуют преднамеренной когнитивной структуры, которой им не хватает.
Преднамеренная когнитивная структура - это структурированный умственный подход, который включает в себя:
По сути, это способ мышления, который выходит за рамки автоматических ответов или предварительных моделей. Это требует активного взаимодействия с информацией, способностью выносить обоснованные суждения и способность творчески решать проблемы.
Представьте себе детектив, решающий преступление.
Преднамеренная когнитивная структура будет включать в себя:
Напротив, простая система сопоставления моделей может:
Реализация рассуждений в LLMS с помощью обучения подкреплению
Примечание: в основе возможностей Openai O1 лежит его крупномасштабный алгоритм обучения подкрепления. Этот подход учит модели, как продуктивно думать, поощряя ее генерировать цепи мысли, которые приводят к правильным решениям.
Пример Python: проблема с клубникой решена с помощью GPT3.5 + Cot "рассуждения"
from openai import AzureOpenAI
# Define constants
AZURE_OPENAI_ENDPOINT = ""
AZURE_OPENAI_API_KEY = ""
az_client = AzureOpenAI ( azure_endpoint = AZURE_OPENAI_ENDPOINT , api_version = "2023-07-01-preview" , api_key = AZURE_OPENAI_API_KEY )
ai_response = az_client . chat . completions . create (
model = "gpt-35-turbo" ,
messages = [
{ "role" : "user" , "content" : "Count the occurrences of the letter 'r' in the word 'strawberry'." },
]
)
print ( "gpt-35-turbo" )
print ( ai_response . choices [ 0 ]. message . content )
print ( "------------" )
ai_response = az_client . chat . completions . create (
model = "gpt-35-turbo" ,
messages = [
{ "role" : "user" , "content" : "Count the occurrences of the letter 'r' in the word 'strawberry'." },
{ "role" : "system" , "content" : """
<chain of thought>
EXAMPLE: Count the occurrences of the letter 'p' in the word 'apple'.
To determine the number of occurrences of the letter 'p' in the word 'apple', we scan through the word letter by letter:
'a' (0), 'p' (1), 'p' (2), 'l' (0), 'e' (0).
Therefore, the letter 'p' appears 2 times.
</chain of thought>
IMPORTANT! USE ABOVE CHAIN OF THOUGHT TO GENERATE YOUR RESPONSE!
""" }
]
)
print ( "gpt-35-turbo with CoT" )
print ( ai_response . choices [ 0 ]. message . content )
print ( "------------" )Выход
gpt-35-turbo
There are 2 occurrences of the letter 'r' in the word 'strawberry'.
------------
gpt-35-turbo with CoT
To determine the number of occurrences of the letter 'r' in the word 'strawberry', we scan through the word letter by letter:
- 's' (0)
- 't' (0)
- 'r' (1)
- 'a' (0)
- 'w' (0)
- 'b' (0)
- 'e' (0)
- 'r' (2)
- 'r' (3)
- 'y' (0)
Therefore, the letter 'r' appears 3 times in the word 'strawberry'.
------------
Проблемы и будущие направления
Ресурсы
Почему не может считать LLM?
Что на самом деле значит учиться?