public cloud compute  gpu

Servidores cloud concebidos para o tratamento de tarefas maciçamente paralelas

As instâncias GPU integram processadores gráficos NVIDIA Tesla V100 para responder às exigências do cálculo maciçamente paralelo. Integradas na oferta OVHcloud, estas instâncias oferecem as vantagens dos recursos a pedido e da faturação à hora, e adaptam-se às necessidades de machine learning ou deep learning.​

NVIDIA Tesla V100

Estas GPU, entre as mais potentes do mercado, foram concebidas para a exploração em datacenter. Aceleram os cálculos no que diz respeito à inteligência artificial (AI) e ao cálculo gráfico.

NVIDIA GPU Cloud

De forma a oferecer a melhor experiência de utilizador, a OVH e a NVIDIA associaram-se para criar a plataforma acelerada por GPU mais potente do mercado para o deep learning, o cálculo de alto rendimento e a inteligência artificial (AI), dando lugar à forma mais simples de implementar e manter containers acelerados por GPU, graças a um catálogo completo. Mais informações.

1 a 4 placas com desempenhos garantidos

As placas Tesla são diretamente fornecidas à instância através de PCI Passthrough, sem camada de virtualização, para que toda a potência seja dedicada à sua utilização. Além disso, podem ser ligadas até 4 placas para juntar os rendimentos de cada uma delas. Assim, o material fornece toda a sua capacidade de cálculo à sua aplicação.

Características dos NVIDIA Tesla V100

Desempenho com o impulso da GPU NVIDIA

Largura de banda de interligação bidirecional

Memória CoWoS Stacked HBM2
  • Precisão dupla: 7 teraflops
  • Precisão única: 14 teraflops
  • Deep Learning: 112 teraflops
  • PCIe 32 GB/s
  • Capacidade: 16 GB HBM2
  • Largura de banda: 900 GB/s

 

Caso de uso

Reconhecimento de imagens

Extrair informações de imagens para as classificar, para identificar um elemento ou para criar documentos mais complexos é necessário em muitos domínios. Imagiologia, redes sociais, proteção e segurança do público... Graças às frameworks como Caffe2, aliadas às GPU Tesla V100, isto já é possível e facilmente acessível.

Análise de situações

O tempo real impõe-se em certos casos, onde é esperada uma reação apropriada face a situações variadas e imprevisíveis. Este tipo de necessidade surge, por exemplo, para os carros autónomos ou a análise de tráfego da rede da Internet. É aí que o deep learning intervém para formar redes de neurónios que aprendem de forma autónoma, através de uma fase de treino.

Interação humana

No passado, o ser humano aprendeu a comunicar com máquinas e, atualmente, encontramo-nos numa era onde as máquinas aprendem a comunicar connosco. Quer seja por reconhecimento de voz ou por identificação de emoções por som ou vídeo, as ferramentas como TensorFlow permitem ultrapassar os limites dessas interações e possibilitam uma imensidão de utilizações.

Pronto para começar?

Crie uma conta e lance os seus serviços imediatamente

Iniciar

Modo de utilização

1

Iniciar

Execute a sua instância selecionando o modelo T1 mais adequado para si, assim como a imagem NGC.

2

Configurar

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Utilizar

A framework AI já está disponível para iniciar os cálculos.

tarif public cloud

Faturação do GPU

As instâncias GPU são faturadas da mesma forma que as outras instâncias: paga o que utiliza no final de cada mês. O preço depende do tamanho da instância utilizada e da duração de utilização.