Como substituir a Siri por IA Local e Grátis no iPhone
-
Maicon Ramos
- 3 minutos de leitura
Navegue por tópicos
O app Locally AI permite instalar modelos de linguagem open-source (como Gemma e Llama) diretamente no iPhone, funcionando 100% offline.
- Privacidade: Zero envio de dados para nuvens.
- Performance: Uso do framework MLX da Apple para maior velocidade.
- Integração: Compatível com o Action Button do iPhone 15 Pro/16.
- Custo: Aplicativo e modelos gratuitos.
Usuários de iPhone agora podem substituir a Siri por assistentes de inteligência artificial (IA) open-source que rodam inteiramente no dispositivo. Através do aplicativo Locally AI, é possível instalar modelos avançados, como o Gemma do Google e o Llama 3.2 da Meta, permitindo a execução de comandos de voz, traduções e resoluções matemáticas sem a necessidade de conexão com a internet ou envio de dados para a nuvem.
Privacidade total e execução offline
Diferente da Siri, que utiliza um sistema híbrido (processamento local e em servidores remotos), o Locally AI opera de forma 100% on-device após o download inicial dos modelos. Essa arquitetura elimina a dependência de APIs externas e impede o compartilhamento de dados com Big Techs, oferecendo o que especialistas chamam de “soberania de IA”.
O aplicativo é otimizado para a arquitetura de memória unificada dos chips Apple Silicon, utilizando o framework MLX da própria Apple. Segundo relatórios, essa otimização torna a ferramenta até 1,5x mais rápida que concorrentes como o Private LLM.
Integração com o Action Button e Modelos Suportados
Para quem possui iPhones da linha 15 Pro ou 16, a experiência é potencializada pela vinculação do app ao Action Button. Ao configurar o botão para disparar o atalho do Locally AI, o usuário pode ativar o assistente instantaneamente via voz (“Hey, Locally AI”) para tarefas como:
- Tradução instantânea: Conversão de idiomas sem roaming de dados.
- Educação e Matemática: Explicação de conceitos complexos e resolução de equações passo a passo.
- Visão Computacional: Análise de fotos para identificação de objetos ou raças de animais.
A gama de modelos disponíveis é ampla, variando conforme a capacidade do hardware:
| Modelo | Tamanho Sugerido | Hardware Recomendado |
|---|---|---|
| Llama 3.2 / Gemma 3 | 3B a 4B parâmetros | iPhone 15 (Base) |
| Llama 3.1 / Qwen 2.5 | 8B parâmetros | iPhone 15 Pro / 16+ |
| Qwen 3 / DeepSeek R1 | 12B+ parâmetros | iPad M1+ / Macs M-Series |
O “Lado B”: Limitações e Requisitos
Apesar da gratuidade e da velocidade, a implementação de IA local traz trade-offs significativos. O primeiro é o armazenamento: cada modelo pode ocupar entre 3GB e 20GB de espaço interno. Além disso, embora o framework MLX seja eficiente, modelos de grande porte (como os de 12B parâmetros) podem drenar a bateria mais rapidamente em dispositivos mais antigos.
Outro ponto crítico é a integração sistêmica. Enquanto a Siri consegue controlar nativamente o HomeKit ou agendar lembretes no calendário da Apple, o Locally AI foca em processamento de linguagem e raciocínio, não possuindo o mesmo nível de controle sobre as configurações profundas do iOS.
Como configurar
Para implementar a substituição, o usuário deve baixar o app na App Store, selecionar o modelo desejado na aba Models e, em seguida, acessar Ajustes > Action Button > Atalho para selecionar o Locally AI.









