Início Tecnologia Cerebras anuncia seis novos data centers de acelerador de IA em toda...

Cerebras anuncia seis novos data centers de acelerador de IA em toda a América do Norte e França

13
0

A startup de chip de inteligência artificial Cerebras Systems Inc. disse hoje que começou a implantar seus chips aceleradoras de IA em escala de wafer em seis novos data centers em nuvem na América do Norte e na França para fornecer inferência de IA ultra-rápida.

A empresa também anunciou uma nova parceria com a Hugging Face Inc., um hub mais conhecido por sediar os modelos de aprendizado de máquina e IA de código aberto, que trará a plataforma de inferência da empresa para abraçar o Face Hub.

O Cerebras é mais conhecido por sua arquitetura especializada que é executada em bolachas de silício do tamanho de uma placa de jantar para computação de alto desempenho ou sistemas HPC. Isso permite que a empresa forneça um serviço de inferência, que permite servir modelos como a LLAMA 3,3 70B da Meta Plataform Inc. em mais de 2.000 tokens por segundo.

“Cerebras está turbo, o futuro da liderança da IA ​​com desempenho, escala e eficiência incomparáveis ​​- esses novos data centers globais servirão como espinha dorsal para a próxima onda de inovação de IA”, disse Dhiraj Mallick, diretor de operações da Cerebras Systems.

Lançado em agosto de 2024, o Serviço de Inferência da AI da empresa ganhou força rapidamente com os principais clientes da IA. Os clientes notáveis ​​incluem a IA Mistral, uma startup francesa líder que oferece o assistente de IA e o chatbot le chat, e o mecanismo de pesquisa de IA, perplexidade AI Inc.

A empresa está se expandindo lançando os novos data centers no Texas, Minnesota, Oklahoma e Geórgia, juntamente com os campi em Montreal, Canadá e França. Cerebras disse que manterá a propriedade total das instalações em Oklahoma City e Montreal. Os outros centros serão operados em parceria com a G42, um parceiro estratégico.

“A demanda por inferência está fora dos gráficos”, disse John Furrier, executivo -chefe da Cerebras, ao CEO da Siliconangle em uma entrevista.

À medida que a demanda por modelos de raciocínio, como o OpenAI e o Deepseek R1, continua a aumentar, a necessidade de inferência mais rápida seguirá. Esses modelos usam uma técnica de “cadeia de pensamento” para resolver problemas complexos, dividindo -os em etapas lógicas menores para alcançar a solução e exibir seu “pensamento” à medida que avançam. Isso também significa que os modelos podem levar minutos para encontrar uma solução final, mas, usando a inferência de cerebras, os modelos podem executar um raciocínio profundo em segundos.

Abraçando a parceria de rosto

Uma nova parceria entre abraçar o rosto e cerebras trará inferência de IA de alta velocidade a milhões de desenvolvedores em todo o mundo.

Inferência de cérebras é capaz de administrar os modelos mais populares do setor em mais de 2.000 tokens por segundo. A empresa disse que isso é mais de 70 vezes mais rápido que as soluções comparáveis ​​baseadas em nuvem que usam unidades de processamento gráficas mais poderosas da NVIDIA Inc..

A oportunidade de usar esse novo serviço sem precisar ir a uma parte externa diretamente dentro do rosto abraçando, facilitará que os desenvolvedores experimentem modelos e construam suas próprias soluções mais rapidamente.

Isso é especialmente importante à medida que a IA Agentic se torna a norma. É um tipo de IA que pode agir e atingir objetivos sem supervisão humana. Os agentes da IA ​​“Razão” através de tarefas complexas, usam ferramentas externas e analisam os dados para concluir as metas. Esse tipo de solução de problemas requer muito poder de computação de IA.

“Ao disponibilizar a inferência de cerebras através do Hugging Face, estamos capacitando os desenvolvedores a trabalhar mais rápido e com mais eficiência com os modelos de IA de código aberto, desencadeando o potencial para uma inovação ainda maior entre os setores”, disse Feldman. “Isso facilita para seus 5 milhões de desenvolvedores diferentes apontarem, clicar e obter a inferência mais rápida da Terra”.

Os desenvolvedores podem ativar a inferência de cerebras ao usar o HUGGING FACE HUB, selecionando “Cerebras” como seu provedor na plataforma para qualquer modelo de código aberto ao usar a interface de programação de aplicativos de inferência.

Foto: Sistemas Cerebras

Seu voto de apoio é importante para nós e nos ajuda a manter o conteúdo livre.

Um clique abaixo suporta nossa missão de fornecer conteúdo gratuito, profundo e relevante.

Junte -se à nossa comunidade no YouTube

Junte -se à comunidade que inclui mais de 15.000 especialistas em #Cubealumni, incluindo o CEO da Amazon.com, Andy Jassy, ​​o fundador e CEO da Dell Technologies, Michael Dell, o CEO da Intel Pat Gelsinger e muito mais luminárias e especialistas.

“O TheCube é um parceiro importante para o setor. Vocês realmente fazem parte de nossos eventos e nós realmente apreciamos que você venha e eu sei que as pessoas apreciam o conteúdo que você cria também ” – Andy Jassy

OBRIGADO

fonte