Pular para o conteúdo
Voltar aos episódios
[HZ] #14 - O Paper que Criou ChatGPT, Claude e Gemini | Hipótese Zero

[HZ] #14 - O Paper que Criou ChatGPT, Claude e Gemini | Hipótese Zero

15 min6 de janeiro de 2026T1 E14

Hipótese Zero

[HZ] #14 - O Paper que Criou ChatGPT, Claude e Gemini | Hipótese Zero

0:0015:02

Ouça este episódio no Spotify

[HZ] #14 - O Paper que Criou ChatGPT, Claude e Gemini | Hipótese Zero

Compartilhar:

Downloads

Áudio do Episódio

MP3 • Download offline

Assine para baixar

Downloads de áudio e PDF são exclusivos para assinantes. Ver planos

Sobre este episódio

Em 2017, oito pesquisadores do Google publicaram um paper que mudaria para sempre a história da tecnologia. "Attention Is All You Need" introduziu o Transformer — a arquitetura por trás de ChatGPT, Claude, Gemini e praticamente toda IA que você usa hoje. Neste episódio, a gente mergulha fundo nesse paper revolucionário para entender: 🔬 Por que eliminar redes recorrentes era considerado impossível 🧠 Como o mecanismo de "self-attention" permite que máquinas entendam contexto ⚡ O segredo por trás do treinamento 10x mais rápido 🎯 As 3 lições que você pode aplicar no seu campo Os números são impressionantes: de 28.4 BLEU em tradução (novo recorde mundial) a mais de 100.000 citações acadêmicas. Mas o mais fascinante é a história de como uma ideia "simples" desafiou décadas de suposições e criou uma indústria de trilhões de dólares. 📚 SOBRE O ESTUDO "Attention Is All You Need" Autores: Vaswani, Shazeer, Parmar, Uszkoreit, Jones, Gomez, Kaiser, Polosukhin Publicado: NeurIPS 2017 Citações: 100.000+ 📄 Paper Original (Download Gratuito) 📥 Baixar PDF: arxiv.org 👉 Siga o ResumoCast no Spotify para mais episódios toda semana! 🎙️ Hipótese Zero | Ciência traduzida para quem transforma #InteligenciaArtificial #MachineLearning #Transformers #ChatGPT #Ciencia

Em 2017, oito pesquisadores do Google publicaram um paper que mudaria para sempre a história da tecnologia. "Attention Is All You Need" introduziu o Transformer — a arquitetura por trás de ChatGPT, Claude, Gemini e praticamente toda IA que você usa hoje.

Neste episódio, a gente mergulha fundo nesse paper revolucionário para entender:

🔬 Por que eliminar redes recorrentes era considerado impossível
🧠 Como o mecanismo de "self-attention" permite que máquinas entendam contexto
⚡ O segredo por trás do treinamento 10x mais rápido
🎯 As 3 lições que você pode aplicar no seu campo

Os números são impressionantes: de 28.4 BLEU em tradução (novo recorde mundial) a mais de 100.000 citações acadêmicas. Mas o mais fascinante é a história de como uma ideia "simples" desafiou décadas de suposições e criou uma indústria de trilhões de dólares.

📚 SOBRE O ESTUDO
"Attention Is All You Need"
Autores: Vaswani, Shazeer, Parmar, Uszkoreit, Jones, Gomez, Kaiser, Polosukhin
Publicado: NeurIPS 2017
Citações: 100.000+

📄 Paper Original (Download Gratuito)
📥 Baixar PDF: https://arxiv.org/pdf/1706.03762.pdf

👉 Siga o ResumoCast no Spotify para mais episódios toda semana!

🎙️ Hipótese Zero | Ciência traduzida para quem transforma

#InteligenciaArtificial #MachineLearning #Transformers #ChatGPT #Ciencia