
#132- História dos LLMs.
Vida com IA
00:00
Por que Attention All You Need foi disruptivo
Filipe pergunta qual era o contexto em 2017 e explica como o paper substituiu BLSTM por atenção e criou o Transformer.
Transcript
Play full episode
Filipe pergunta qual era o contexto em 2017 e explica como o paper substituiu BLSTM por atenção e criou o Transformer.