
#132- História dos LLMs.
Vida com IA
00:00
Por que Attention All You Need foi disruptivo
Filipe pergunta qual era o contexto em 2017 e explica como o paper substituiu BLSTM por atenção e criou o Transformer.
Play episode from 01:59
Transcript

Filipe pergunta qual era o contexto em 2017 e explica como o paper substituiu BLSTM por atenção e criou o Transformer.