Recursos de IA do iPhone deverão ser executados sem internet

 William Schendes
William Schendes

A Apple está preparando recursos de inteligência artificial para o iOS 18 que não dependerão de servidores em nuvem.

A informação vem de Mark Gurman, jornalista da Bloomberg conhecido por adiantar informações da Apple, que, na sua newsletter "Power On" do último domingo (14) disse que os primeiros recursos de IA da empresa “funcionarão inteiramente no dispositivo”.

“Isso significa que não há nenhum componente de processamento em nuvem no grande modelo de linguagem da empresa, o software que alimenta os novos recursos”, disse Gurman.

Recursos de IA do iPhone serão executados sem internet
(Imagem: IA/ Copilot)

Essa fala do jornalista parece estar relacionada com o artigo publicado por pesquisadores da Apple em dezembro do ano passado, explicando que memórias flash NAND poderiam ser usadas para substituir memórias RAM em dispositivos móveis e conseguir rodar modelos IA localmente nos iPhones. Dessa forma, seria possível executar tarefas de IA sem necessitar de datacenters, como acontece com o ChatGPT.

No entanto, atualmente, não há indícios de que a próxima família de iPhones utilizará memórias NAND para executar tarefas de IA.

Sabe-se que a Apple está em negociações com outras empresas para implementar um modelo de IA no iOS 18. Como reportou Gurman em meados de março, a fabricante estava em negociações com o Google para implementar o chatbot de IA Gemini no sistema operacional do iPhone para potencializar novos recursos de software que seriam lançados ainda este ano.

Como reportou o MacRumors, há especulações de que o iOS 18 trará novos recursos de IA generativa para a ferramenta de pesquisa Spotlight, Siri, Safari, Atalhos, Apple Music, Mensagens, Keynote e mais.

Recentemente, a Apple também apresentou um novo modelo de IA chamado ReALM (Reference Resolution As Language Modeling), que poderá alimentar a assistente de voz Siri no futuro. Esse sistema, como reportaram pesquisadores da companhia, seria capaz de realizar tarefas complexas como compreensão de elementos visuais na tela. Saiba mais.

Outro modelo apresentado por pesquisadores da Apple é o Ferret-UI, desenvolvido para compreensão de tela de dispositivos, que, no futuro, também pode ser integrado com a Siri e melhorar a acessibilidade dos dispositivos.

FIQUE POR DENTRO!

 William Schendes
William Schendes
Jornalista em formação pela Universidade Metodista de São Paulo (UMESP). Escreve sobre tecnologia, games e ciência desde 2022. Tem experiência com hard news, mas também produziu artigos, reportagens, reviews e tutoriais.
recomenda: