A Apple supostamente dará ao iOS 19 uma grande revisão de design este ano, fazendo com que o sistema operacional do iPhone se pareça mais com o Visionos do que os lançamentos anteriores do iOS.
Uma grande reforma de design pode ser apenas o que a Apple precisa à luz de seu recente fiasco de inteligência da Apple. A Apple, assistente inteligente da Siri, prometeu no verão passado por pelo menos um ano. A melhor maneira de tornar o iOS emocionante é dar uma nova camada de tinta. Pelo menos isso é algo que os usuários do iPhone OST se importam mais com os recursos da IA.
Mas a Apple também está preparando novos recursos para acompanhar o redesenho, e uma funcionalidade interessante do AirPods vazou. A Apple planeja trazer suporte à tradução ao vivo aos AirPods através da atualização do iOS 19, e a boa notícia é que o recurso deve funcionar com seus AirPods existentes.
Além disso, desde que mencionei a Apple Intelligence antes, a tradução ao vivo é facilmente algo que a Apple poderia vender sob o guarda -chuva de recursos da AI do iPhone. Não seria o único.
O Live Translate é um dos primeiros recursos do Galaxy AI que a Samsung anunciou no final de 2023. Aprendemos que os telefones principais traduziriam conversas de chamada em tempo real, no dispositivo, antes de vermos todos os outros truques no conjunto de aplicativos e recursos da Galaxy AI.
A Samsung atualizou a tradução ao vivo antes do evento descompactado do verão passado para trabalhar em telefones Galaxy com displays dobráveis. Independentemente do fator de forma de telefone, você não precisa necessariamente de fones de ouvido para traduzir ao vivo para o trabalho.
Eu não ficaria surpreso se a Apple incluísse a tradução ao vivo na Apple Intelligence, porque traduzir o discurso ao vivo como acontece é realmente um processo que envolve a IA. Os algoritmos entendem a fala, convertem -a em texto e depois traduzem e transformam -o de volta em voz.
Teremos que esperar a Apple explicar como a tradução ao vivo funciona no iOS 19, mas Bloomberg’s Mark Gurman tem um exemplo:
A capacidade funcionará assim: se um falante de inglês estiver ouvindo alguém falar em espanhol, o iPhone traduzirá o discurso e a transmitirá para os AirPods do usuário em inglês. Enquanto isso, as palavras do falante de inglês serão traduzidas para o espanhol e reproduzidas pelo iPhone.
Esse é um uso inteligente de hardware para ambas as partes da conversa poderem conversar por voz em tempo real.
Dado que o iPhone fará a tradução real, o recurso deve funcionar com qualquer modelo AirPods existente. Também deve funcionar com outros fones de ouvido sem fio, assumindo que a Apple deseja expandir o suporte para os rivais do AirPods. Mas acho que a Apple prefere manter o recurso como uma funcionalidade somente AirPods que ajuda a empresa a diferenciar ainda mais seus fones de ouvido dos concorrentes.
O relatório também observa que a Apple está trabalhando em novos hardware AirPods, incluindo o AirPods Pro 3 e um modelo com câmeras embutidas para a Apple Intelligence.