

#120- A ilusão do raciocínio dos LLMs.
8 snips Jun 26, 2025
Descubra as limitações surpreendentes dos modelos de linguagem em comparação com o raciocínio humano. Um estudo da Apple revela resultados intrigantes que convidam à reflexão crítica. Além disso, a conversa aborda a inconsistência nas opiniões sobre inteligência artificial, destacando a importância de uma formação sólida na área. Uma oportunidade única para quem deseja se aprofundar em Deep Learning!
AI Snips
Chapters
Transcript
Episode notes
LLMs não pensam realmente
- O paper da Apple confirma que LLMs não possuem raciocínio real humano.
- Eles apenas geram tokens baseados em padrões aprendidos, não pensam de verdade.
Como modelos reasoning funcionam
- Modelos de reasoning quebram problemas complexos em etapas menores para resolver.
- Modelos sem reasoning tentam responder diretamente, usando menos tokens e menos 'tempo de pensamento'.
Desempenho conforme dificuldade
- Para problemas fáceis, modelos sem reasoning às vezes têm desempenho igual ou melhor.
- Para problemas intermediários, modelos de reasoning se saem melhor; ambos falham em problemas difíceis.