A startup de chip de inteligência artificial Cerebras Systems Inc. disse hoje que começou a implantar seus chips aceleradoras de IA em escala de wafer em seis novos data centers em nuvem na América do Norte e na França para fornecer inferência de IA ultra-rápida.
A empresa também anunciou uma nova parceria com a Hugging Face Inc., um hub mais conhecido por sediar os modelos de aprendizado de máquina e IA de código aberto, que trará a plataforma de inferência da empresa para abraçar o Face Hub.
O Cerebras é mais conhecido por sua arquitetura especializada que é executada em bolachas de silício do tamanho de uma placa de jantar para computação de alto desempenho ou sistemas HPC. Isso permite que a empresa forneça um serviço de inferência, que permite servir modelos como a LLAMA 3,3 70B da Meta Plataform Inc. em mais de 2.000 tokens por segundo.
“Cerebras está turbo, o futuro da liderança da IA com desempenho, escala e eficiência incomparáveis - esses novos data centers globais servirão como espinha dorsal para a próxima onda de inovação de IA”, disse Dhiraj Mallick, diretor de operações da Cerebras Systems.
Lançado em agosto de 2024, o Serviço de Inferência da AI da empresa ganhou força rapidamente com os principais clientes da IA. Os clientes notáveis incluem a IA Mistral, uma startup francesa líder que oferece o assistente de IA e o chatbot le chat, e o mecanismo de pesquisa de IA, perplexidade AI Inc.
A empresa está se expandindo lançando os novos data centers no Texas, Minnesota, Oklahoma e Geórgia, juntamente com os campi em Montreal, Canadá e França. Cerebras disse que manterá a propriedade total das instalações em Oklahoma City e Montreal. Os outros centros serão operados em parceria com a G42, um parceiro estratégico.
“A demanda por inferência está fora dos gráficos”, disse John Furrier, executivo -chefe da Cerebras, ao CEO da Siliconangle em uma entrevista.
À medida que a demanda por modelos de raciocínio, como o OpenAI e o Deepseek R1, continua a aumentar, a necessidade de inferência mais rápida seguirá. Esses modelos usam uma técnica de “cadeia de pensamento” para resolver problemas complexos, dividindo -os em etapas lógicas menores para alcançar a solução e exibir seu “pensamento” à medida que avançam. Isso também significa que os modelos podem levar minutos para encontrar uma solução final, mas, usando a inferência de cerebras, os modelos podem executar um raciocínio profundo em segundos.
Abraçando a parceria de rosto
Uma nova parceria entre abraçar o rosto e cerebras trará inferência de IA de alta velocidade a milhões de desenvolvedores em todo o mundo.
Inferência de cérebras é capaz de administrar os modelos mais populares do setor em mais de 2.000 tokens por segundo. A empresa disse que isso é mais de 70 vezes mais rápido que as soluções comparáveis baseadas em nuvem que usam unidades de processamento gráficas mais poderosas da NVIDIA Inc..
A oportunidade de usar esse novo serviço sem precisar ir a uma parte externa diretamente dentro do rosto abraçando, facilitará que os desenvolvedores experimentem modelos e construam suas próprias soluções mais rapidamente.
Isso é especialmente importante à medida que a IA Agentic se torna a norma. É um tipo de IA que pode agir e atingir objetivos sem supervisão humana. Os agentes da IA “Razão” através de tarefas complexas, usam ferramentas externas e analisam os dados para concluir as metas. Esse tipo de solução de problemas requer muito poder de computação de IA.
“Ao disponibilizar a inferência de cerebras através do Hugging Face, estamos capacitando os desenvolvedores a trabalhar mais rápido e com mais eficiência com os modelos de IA de código aberto, desencadeando o potencial para uma inovação ainda maior entre os setores”, disse Feldman. “Isso facilita para seus 5 milhões de desenvolvedores diferentes apontarem, clicar e obter a inferência mais rápida da Terra”.
Os desenvolvedores podem ativar a inferência de cerebras ao usar o HUGGING FACE HUB, selecionando “Cerebras” como seu provedor na plataforma para qualquer modelo de código aberto ao usar a interface de programação de aplicativos de inferência.
Foto: Sistemas Cerebras
Seu voto de apoio é importante para nós e nos ajuda a manter o conteúdo livre.
Um clique abaixo suporta nossa missão de fornecer conteúdo gratuito, profundo e relevante.
Junte -se à nossa comunidade no YouTube
Junte -se à comunidade que inclui mais de 15.000 especialistas em #Cubealumni, incluindo o CEO da Amazon.com, Andy Jassy, o fundador e CEO da Dell Technologies, Michael Dell, o CEO da Intel Pat Gelsinger e muito mais luminárias e especialistas.
OBRIGADO