A decisão da Apple de adiar a implantação dos recursos renovados do Siri Assistant levou a muita especulação sobre por que a empresa ainda não é capaz de fornecer a atualização baseada em inteligência da Apple.
Enquanto a própria Apple admitiu que “demoramos mais do que pensávamos” para se tornar a Siri mais inteligente e mais inteligente, pronta para o horário nobre, outros observadores têm teorias diferentes sobre por que o recurso projetado para os melhores modelos de iPhone está passando por contratempos de desenvolvimento.
Mark Gurman, da Bloomberg, relatou recentemente que a empresa está lutando com a consistência desses recursos, que incluem a capacidade de os aplicativos tomarem medidas em nome do usuário no que está sendo chamado de AI “Agentic”.
O iPhone 16 tem £ 100 de desconto por tempo limitado
A Amazon acabou de tirar £ 100 do iPhone 16, tornando -a uma atualização acessível para quem deseja um dos mais recentes telefones da Apple a um preço razoável.
- Amazon
- Foi de £ 799
- Agora apenas £ 699
No entanto, um desenvolvedor pensa que a confiabilidade atual, com a qual a principal questão da Apple está lutando é as vulnerabilidades de segurança inerentes à nova tecnologia.
Desenvolvedor Simon Willison (via 9to5mac) calcula que a preocupação interna pode ser sobre algo chamado ataques de injeção imediata, que é um problema que ocorre quando atores maliciosos são capazes de enganar uma IA de que a solicitação seja proveniente de um usuário.
No dele site Willison escreveu: “Esses novos recursos de inteligência da Apple envolvem a Siri respondendo a solicitações para acessar informações em aplicativos e, em seguida, executar ações em nome do usuário.
“Esta é a pior combinação possível para ataques rápidos de injeção! Sempre que um sistema baseado em LLM tem acesso a dados privados, ferramentas que ele pode chamar e exposição a instruções potencialmente maliciosas (como e-mails e mensagens de texto de estranhos não confiáveis), há um risco significativo de que um invasor possa subverter essas ferramentas e usá-las para danificar ou exfiltrar os dados de um usuário. “
Infelizmente, isso não é algo que a Apple poderá facilmente se locomover porque, atualmente, grandes modelos de idiomas são inerentemente suscetíveis a esse tipo de ataque. Como ousado bola de fogo John Gruber colocaA Apple teria que fazer desenvolvimentos “inovadores” para superar esse problema.
Ele escreveu: “Eles precisam resolver um problema irritante – ainda não resolvido pelo Openai, Google ou qualquer outro laboratório de IA líder – para entregar o que já prometeram”.
As apostas são muito altas
A Apple aposta continuamente sua reputação de ser uma empresa de privacidade e desenvolveu confiança entre a base de usuários por esse motivo. Vimos muito recentemente que a Apple não fala nessa frente, puxando um recurso de criptografia no Reino Unido porque o governo exigiu uma porta dos fundos nela.
Uma versão de buggy para essa nova tecnologia seria amplamente tolerada pelos usuários. No entanto, algo que compromete sua segurança on -line teria enormes e enormes consequências.
É um ponto difícil para a Apple, porque não pode se dar ao luxo de ficar para trás na corrida de IA, mas isso pode significar arriscar -se com o qual não se sente confortável.
