Sutskever: Fim da ‘Era da Escalabilidade’ em IA

Sutskever: Fim da 'Era da Escalabilidade' em IA

Navegue por tópicos

Ilya Sutskever anunciou o fim da ‘Era da Escalabilidade’ em IA, priorizando pesquisa fundamental.

  • Período: 2020-2025 viu ganhos com escala, mas retornos decrescentes.
  • SSI: Foco em alinhamento e generalização para IA segura.
  • Previsão: Superinteligência em 5-20 anos.
  • Críticas: Falta de métricas e contradições com uso de compute massivo.

Ilya Sutskever, fundador da Safe Superintelligence Inc. (SSI) e ex-cientista-chefe da OpenAI, declarou o fim da “Era da Escalabilidade” em inteligência artificial. A afirmação veio em entrevista ao Dwarkesh Podcast, publicada em 25 de novembro de 2025.

De 2020 a 2025, a indústria priorizou aumento de parâmetros, dados e compute, impulsionando modelos como GPT-4. Sutskever argumenta que essa abordagem atingiu retornos marginais decrescentes, com falhas em generalização e alinhamento.

Problemas da Escalabilidade

Modelos atuais cometem erros “infantis”, como inconsistências lógicas, apesar de vastos dados de treinamento. Ajustes finos não resolvem reward hacking nem garantem valores humanos alinhados.

“A crença de que 100x a escala transforma tudo não é verdadeira”, disse Sutskever.

Estratégia da SSI: Volta à Pesquisa

A SSI se posiciona como empresa de “era da pesquisa“, focando em aprendizado por deployment real, funções de valor para vida senciente e self-play multiagente. A startup levantou US$ 1,02 bilhão em rodada seed em março de 2025, mas valuation não foi divulgado.

Rumores de oferta rejeitada da Meta circulam, mas sem confirmação oficial.

Previsões para Superinteligência

Sutskever estima 5-20 anos para IA super-humana, condicionada a avanços em generalização e alinhamento. “Estamos entrando na era da pesquisa, mas com grandes computadores”, admitiu ele.

O Lado B: Críticas e Limitações

  • Falta de dados: Sem métricas concretas para retornos decrescentes; estudos como Stanford HAI 2025 mostram ganhos lineares em tarefas complexas.
  • Contradição: SSI usa infraestrutura massiva, similar à escala criticada.
  • Alinhamento filosófico: Yoshua Bengio questiona viabilidade de funções de valor universal, per The Rundown AI.
  • Impacto em startups: Pode reforçar oligopólios, limitando acesso a compute para open-source.

Comunidade em fóruns como Reddit critica a visão como vaga, priorizando arquitetura sobre escala pura.

Impactos na Indústria

A declaração pode reavaliar investimentos bilionários em infra de IA, beneficiando pesquisa em eficiência, mas arriscando atrasos em AGI.

Foto de Maicon Ramos

Maicon Ramos

Infoprodutor e especialista em automações de Marketing, fundador do Automação sem Limites, uma comunidade para ajudar empreendedores e startup.