Sutskever: Fim da ‘Era da Escalabilidade’ em IA
-
Maicon Ramos
- 2 minutos de leitura
Navegue por tópicos
Ilya Sutskever anunciou o fim da ‘Era da Escalabilidade’ em IA, priorizando pesquisa fundamental.
- Período: 2020-2025 viu ganhos com escala, mas retornos decrescentes.
- SSI: Foco em alinhamento e generalização para IA segura.
- Previsão: Superinteligência em 5-20 anos.
- Críticas: Falta de métricas e contradições com uso de compute massivo.
Ilya Sutskever, fundador da Safe Superintelligence Inc. (SSI) e ex-cientista-chefe da OpenAI, declarou o fim da “Era da Escalabilidade” em inteligência artificial. A afirmação veio em entrevista ao Dwarkesh Podcast, publicada em 25 de novembro de 2025.
De 2020 a 2025, a indústria priorizou aumento de parâmetros, dados e compute, impulsionando modelos como GPT-4. Sutskever argumenta que essa abordagem atingiu retornos marginais decrescentes, com falhas em generalização e alinhamento.
Problemas da Escalabilidade
Modelos atuais cometem erros “infantis”, como inconsistências lógicas, apesar de vastos dados de treinamento. Ajustes finos não resolvem reward hacking nem garantem valores humanos alinhados.
“A crença de que 100x a escala transforma tudo não é verdadeira”, disse Sutskever.
Estratégia da SSI: Volta à Pesquisa
A SSI se posiciona como empresa de “era da pesquisa“, focando em aprendizado por deployment real, funções de valor para vida senciente e self-play multiagente. A startup levantou US$ 1,02 bilhão em rodada seed em março de 2025, mas valuation não foi divulgado.
Rumores de oferta rejeitada da Meta circulam, mas sem confirmação oficial.
Previsões para Superinteligência
Sutskever estima 5-20 anos para IA super-humana, condicionada a avanços em generalização e alinhamento. “Estamos entrando na era da pesquisa, mas com grandes computadores”, admitiu ele.
O Lado B: Críticas e Limitações
- Falta de dados: Sem métricas concretas para retornos decrescentes; estudos como Stanford HAI 2025 mostram ganhos lineares em tarefas complexas.
- Contradição: SSI usa infraestrutura massiva, similar à escala criticada.
- Alinhamento filosófico: Yoshua Bengio questiona viabilidade de funções de valor universal, per The Rundown AI.
- Impacto em startups: Pode reforçar oligopólios, limitando acesso a compute para open-source.
Comunidade em fóruns como Reddit critica a visão como vaga, priorizando arquitetura sobre escala pura.
Impactos na Indústria
A declaração pode reavaliar investimentos bilionários em infra de IA, beneficiando pesquisa em eficiência, mas arriscando atrasos em AGI.














