Importar GPU: Programação Python com CUDA

    31
    0

    A cada poucos anos, um desenvolvimento na computação resulta em uma mudança no mar e na necessidade de trabalhadores especializados para aproveitar a nova tecnologia. Seja COBOL nos anos 60 e 70, HTML nos anos 90 ou SQL na última década, sempre há algo novo para aprender no mundo da computação. A introdução de unidades de processamento gráfico (GPUs) para computação de uso geral é talvez o desenvolvimento recente mais importante para a computação, e se você deseja desenvolver algumas novas habilidades em Python para aproveitar a tecnologia moderna Dê uma olhada nesta introdução ao CUDA que permite aos desenvolvedores usar GPUs NVIDIA para computação de uso geral.

    Claro Cuda é uma plataforma proprietária e requer uma das placas gráficas suportadas pela NVIDIA Para executar, mas assumindo que a barreira à entrada é atendida, não é muito mais esforço para usá-lo para tarefas não gráficas. O guia analisa mais de perto a biblioteca de código aberto Pytorch, que permite que um desenvolvedor Python se aproxime rapidamente com os recursos do CUDA que o tornam tão atraente para pesquisadores e desenvolvedores em inteligência artificial, aprendizado de máquina, big data, e outras fronteiras na ciência da computação. O guia descreve como os threads são criados, como eles viajam dentro da GPU e trabalham em conjunto com outros threads, como a memória pode ser gerenciada tanto na CPU quanto na GPU, criando núcleos de CUDA e gerenciando tudo o mais envolvido em grande parte através das lentes do Python.

    Começar com algo assim é quase um requisito para permanecer relevante no campo de ciência da computação em ritmo acelerado, pois o aprendizado de máquina levou o centro do palco com quase tudo relacionado a computadores hoje em dia. Vale a pena notar que, estritamente falando, uma GPU da NVIDIA não é necessária para programação de GPU como essa; A AMD possui uma plataforma de computação de GPU chamada ROCM, mas apesar de ser de código aberto, ainda está por trás da NVIDIA nas taxas de adoção e, sem dúvida, no desempenho. Algumas outras ferramentas de aprendizado para a programação da GPU que vimos no passado incluem essa ferramenta baseada em quebra-cabeça, que ilustra alguns dos problemas específicos que as GPUs se destacam.

    fonte