Risponderemo a tutte le tue domande!

Tensorflow Alexnet benchmark

Tensorflow™ Alexnet benchmark

Attention: due to the newly amended License for Customer Use of Nvidia® GeForce® Sofware, the GPUs presented in the benchmark (GTX 1080, GTX 1080 TI) can not be used for training neural networks.(except blockchain processing). 

I servizi LeaderGPU® sono orientati a cambiare le regole del gioco del mercato del GPU Computing. Le caratteristiche distintive di LeaderGPU® dimostrano la sorprendente velocità di calcolo del modello Alexnet - 2,3 volte più veloce rispetto al cloud di Google e 2,2 volte più veloce rispetto ad AWS (i dati sono forniti per 8x GTX 1080). Il costo del noleggio al minuto della GPU in LeaderGPU® parte da 0,02 euro, che è 4,1 volte inferiore a quello di Google Cloud e 5,35 volte inferiore a quello di AWS (al 7 luglio 2017).

In questo articolo forniremo i risultati dei test per il modello Alexnet in servizi come LeaderGPU®, AWS e Google Cloud. Capirete perché LeaderGPU® è una scelta preferibile per tutte le esigenze di GPU Computing.

Tutti i test considerati sono stati effettuati utilizzando python 3.5 e Tensorflow-gpu 1.2 su macchine con GTX 1080, GTX 1080 TI e Tesla® P 100 con sistema operativo CentOS 7 installato e libreria CUDA® 8.0.

Per eseguire il test sono stati utilizzati i seguenti comandi:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Number of cards on the server) --model alexnet --batch_size 32 (64, 128, 256, 512)

Istanze GTX 1080

Il primo test del modello Alexnet sarà eseguito con le istanze della GTX 1080. I dati dell'ambiente di test (con lotti di 32, 64, 128, 256 e 512) sono forniti di seguito:

Ambiente di test:

  • Tipi di istanza: ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • Sistema operativo: CentOS 7
  • CUDA® / cuDNN: 8.0 / 5.1
  • Codice GitHub di TensorFlow™: b1e174e
  • hash GitHub del benchmark: 9165a70
  • Comando: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (opzionale 64, 128,256, 512)
  • Modello: Alexnet
  • Data dei test: giugno 2017

I risultati del test sono mostrati nel diagramma seguente:

Alexnet GTX 1080 test results

Istanze GTX 1080TI

Il passo successivo consiste nel testare il modello Alexnet con le istanze della GTX 1080TI. I dati dell'ambiente di test (con le dimensioni dei lotti 32, 64, 128, 256 e 512) sono riportati di seguito:

  • Tipi di istanza: ltbv21, ltbv18
  • GPU: 2x GTX 1080TI, 4x GTX 1080TI
  • Sistema operativo: CentOS 7
  • CUDA® / cuDNN: 8.0 / 5.1
  • Codice GitHub di TensorFlow™: b1e174e
  • hash GitHub del benchmark: 9165a70
  • Comando: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (opzionale 64, 128,256, 512)
  • Modello: Alexnet
  • Data dei test: giugno 2017

I risultati dei test sono mostrati nel diagramma seguente:

Alexnet GTX 1080 TI test results

Istanza Tesla® P100

Infine, è il momento di testare il modello Alexnet con le istanze Tesla® P100. L'ambiente di test (con lotti di dimensioni 32, 64, 128, 256 e 512) avrà il seguente aspetto:

  • Tipo di istanza: ltbv20
  • GPU: 2x NVIDIA® Tesla® P100
  • Sistema operativo: CentOS 7
  • CUDA® / cuDNN: 8.0 / 5.1
  • TensorFlow™ Codice GitHub: b1e174e
  • hash GitHub del benchmark: 9165a70
  • Comando: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (opzionale 64, 128, 256, 512)
  • Modello: Alexnet
  • Data del test: giugno 2017

I risultati del test sono mostrati nel diagramma seguente:

Alexnet Tesla® P100 test results

Test simili di Alexnet in Google cloud e AWS hanno mostrato i seguenti risultati:

GPU Nuvola di Google AWS
1x Tesla® K80 656 684
2 Tesla® K80 1209 1244
4x Tesla® K80 2328 2479
8x Tesla® K80 4640 4853

* I dati forniti sono stati ottenuti dalle seguenti fonti:

https://www.tensorflow.org/performance/benchmarks#details_for_google_compute_engine_nvidia_tesla_k80 https://www.tensorflow.org/performance/benchmarks#details_for_amazon_ec2_nvidia_tesla_k80

Ora calcoliamo il costo e il tempo di elaborazione di 1.000.000 di immagini su ciascuna macchina LeaderGPU®, AWS e Google. Il calcolo è stato effettuato in base al risultato più alto di ciascuna macchina.

GPU Numero di immagini Tempo Costo (al minuto) Costo totale
2 GTX 1080 1000000 5m 0,02 € 0,1 €
4x GTX 1080 1000000 2m 40sec 0,03 € 0,08 €
8x GTX 1080 1000000 1m 46sec 0,09 € 0,16 €
4x GTX 1080TI 1000000 2m 5sec 0,04 € 0,08 €
2х Tesla® P100 1000000 3m 15sec 0,08 € 0,26 €
8x Tesla® K80 Google cloud 1000000 3m 35sec 0,0825 €** 0,29 €
8x Tesla® K80 AWS 1000000 3m 26sec 0,107 € 0,36 €

** Il servizio cloud di Google non offre piani di pagamento al minuto. I calcoli dei costi al minuto si basano sul prezzo orario ($ 5,645).

Come si può dedurre dalla tabella, la velocità di elaborazione delle immagini nel modello VGG16 ha il risultato più alto con la GTX 1080 8x di LeaderGPU®, mentre:

  • Il costo iniziale del noleggio presso LeaderGPU® parte da appena 1,92 euro, che è circa 2,5 volte inferiore rispetto alle istanze di 8x Tesla® K80 di Google Cloud e circa 3,6 volte inferiore rispetto alle istanze di 8x Tesla® K80 di Google AWS;
  • il tempo di elaborazione è stato di 38 minuti e 53 secondi, ovvero 1,8 volte più veloce rispetto alle istanze di 8x Tesla® K80 di Google Cloud e 1,7 volte più veloce rispetto alle istanze di 8x Tesla® K80 di Google AWS.

Sulla base di questi dati si può concludere che LeaderGPU® è molto più redditizio rispetto ai suoi concorrenti. LeaderGPU® permette di ottenere la massima velocità a prezzi ottimali. Noleggiate le migliori GPU con prezzi flessibili su LeaderGPU® oggi stesso!

LEGAL WARNING:

PLEASE READ THE LICENSE FOR CUSTOMER USE OF NVIDIA® GEFORCE® SOFTWARE CAREFULLY BEFORE AGREEING TO IT, AND MAKE SURE YOU USE THE SOFTWARE IN ACCORDANCE WITH THE LICENSE, THE MOST IMPORTANT PROVISION IN THIS RESPECT BEING THE FOLLOWING LIMITATION OF USE OF THE SOFTWARE IN DATACENTERS:

«No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.»

BY AGREEING TO THE LICENSE AND DOWNLOADING THE SOFTWARE YOU GUARANTEE THAT YOU WILL MAKE CORRECT USE OF THE SOFTWARE AND YOU AGREE TO INDEMNIFY AND HOLD US HARMLESS FROM ANY CLAIMS, DAMAGES OR LOSSES RESULTING FROM ANY INCORRECT USE OF THE SOFTWARE BY YOU. 



Aggiornato: 18.03.2025

Pubblicato: 07.12.2017


Hai altre domande? Scrivici!

By clicking «I Accept» you confirm that you have read and accepted the website Terms and Conditions, Privacy Policy, and Moneyback Policy.