Como substituir a Siri por IA Local e Grátis no iPhone

Como substituir a Siri por IA Local e Grátis no iPhone

Navegue por tópicos

O app Locally AI permite instalar modelos de linguagem open-source (como Gemma e Llama) diretamente no iPhone, funcionando 100% offline.

  • Privacidade: Zero envio de dados para nuvens.
  • Performance: Uso do framework MLX da Apple para maior velocidade.
  • Integração: Compatível com o Action Button do iPhone 15 Pro/16.
  • Custo: Aplicativo e modelos gratuitos.

Usuários de iPhone agora podem substituir a Siri por assistentes de inteligência artificial (IA) open-source que rodam inteiramente no dispositivo. Através do aplicativo Locally AI, é possível instalar modelos avançados, como o Gemma do Google e o Llama 3.2 da Meta, permitindo a execução de comandos de voz, traduções e resoluções matemáticas sem a necessidade de conexão com a internet ou envio de dados para a nuvem.

Privacidade total e execução offline

Diferente da Siri, que utiliza um sistema híbrido (processamento local e em servidores remotos), o Locally AI opera de forma 100% on-device após o download inicial dos modelos. Essa arquitetura elimina a dependência de APIs externas e impede o compartilhamento de dados com Big Techs, oferecendo o que especialistas chamam de “soberania de IA”.

O aplicativo é otimizado para a arquitetura de memória unificada dos chips Apple Silicon, utilizando o framework MLX da própria Apple. Segundo relatórios, essa otimização torna a ferramenta até 1,5x mais rápida que concorrentes como o Private LLM.

Integração com o Action Button e Modelos Suportados

Para quem possui iPhones da linha 15 Pro ou 16, a experiência é potencializada pela vinculação do app ao Action Button. Ao configurar o botão para disparar o atalho do Locally AI, o usuário pode ativar o assistente instantaneamente via voz (“Hey, Locally AI”) para tarefas como:

  • Tradução instantânea: Conversão de idiomas sem roaming de dados.
  • Educação e Matemática: Explicação de conceitos complexos e resolução de equações passo a passo.
  • Visão Computacional: Análise de fotos para identificação de objetos ou raças de animais.

A gama de modelos disponíveis é ampla, variando conforme a capacidade do hardware:

Modelo Tamanho Sugerido Hardware Recomendado
Llama 3.2 / Gemma 3 3B a 4B parâmetros iPhone 15 (Base)
Llama 3.1 / Qwen 2.5 8B parâmetros iPhone 15 Pro / 16+
Qwen 3 / DeepSeek R1 12B+ parâmetros iPad M1+ / Macs M-Series

O “Lado B”: Limitações e Requisitos

Apesar da gratuidade e da velocidade, a implementação de IA local traz trade-offs significativos. O primeiro é o armazenamento: cada modelo pode ocupar entre 3GB e 20GB de espaço interno. Além disso, embora o framework MLX seja eficiente, modelos de grande porte (como os de 12B parâmetros) podem drenar a bateria mais rapidamente em dispositivos mais antigos.

Outro ponto crítico é a integração sistêmica. Enquanto a Siri consegue controlar nativamente o HomeKit ou agendar lembretes no calendário da Apple, o Locally AI foca em processamento de linguagem e raciocínio, não possuindo o mesmo nível de controle sobre as configurações profundas do iOS.

Como configurar

Para implementar a substituição, o usuário deve baixar o app na App Store, selecionar o modelo desejado na aba Models e, em seguida, acessar Ajustes > Action Button > Atalho para selecionar o Locally AI.

Foto de Maicon Ramos

Maicon Ramos

Infoprodutor e especialista em automações de Marketing, fundador do Automação sem Limites, uma comunidade para ajudar empreendedores e startup.