Soluzione di inferenza AI HPE con Qualcomm® Cloud AI 100

Un’infrastruttura a elevate prestazioni dai consumi energetici ridotti per i carichi di lavoro di inferenza AI/ML più impegnativi.

Inferenza AI a elevate prestazioni e consumi energetici ridotti dall'edge al cloud

Soluzione di inferenza AI basata sull’integrazione degli acceleratori Qualcomm Cloud AI 100 con i server HPE Edgeline EL8000 e HPE ProLiant DL385 Gen10 Plus v2. Migliora in modo sostanziale le prestazioni dei server nei carichi di lavoro di inferenza AI/ML per informazioni più rapide e una trasformazione dei dati più precisa dei modelli di visione artificiale e linguaggio naturale.

Leadership nelle prestazioni

Leadership nelle prestazioni

La combinazione degli acceleratori Qualcomm Cloud AI 100 e di HPE Edgeline e HPE ProLiant migliora le prestazioni e riduce la latenza associata ai modelli complessi di intelligenza artificiale e machine learning all'edge.

  • L'architettura a elevate prestazioni di Qualcomm Cloud AI 100 SoC è ottimizzata per l'inferenza del deep learning nel cloud e all'edge
  • La soluzione di inferenza AI più veloce e densa al mondo: MLPerf ™ 2.0
  • Operazioni con picco a numero intero (INT8): fino a 350 TOPS
  • Operazioni FP con picco (FP16): fino a 175 TFLOPS
Cos’è l’inferenza AI?

Per inferenza AI all'edge si intende l'implementazione dei modelli di AI addestrati al di fuori del data center e del cloud, nel punto in cui i dati vengono creati e possono essere sfruttati rapidamente a vantaggio dell’azienda.

Efficienza energetica

Efficienza energetica

Qualcomm Cloud AI 100 utilizza una tecnologia a bassi consumi energetici leader di settore, sviluppata sulla base delle tecnologie mobili degli ultimi dieci anni, con prestazioni per watt di prim'ordine.

  • Inviluppo di potenza TDP di 75 W: l’ideale per le distribuzioni edge
  • Core AI Qualcomm di sesta generazione
  • Il design dell'unità Tensor presenta un'efficienza energetica 5 volte superiore a quella di un'unità vettoriale
  • 8 MB di memoria per core ottimizzano il riutilizzo dei dati e riducono i consumi
Ulteriori informazioni sulla soluzione di inferenza AI HPE Edgeline con Qualcomm Cloud AI 100
Scalabilità edge to cloud

Scalabilità edge to cloud

HPE Edgeline supporta fino a otto acceleratori Qualcomm Cloud AI 100 in un singolo chassis EL8000 all'edge.

  • Incentrato sull'inferenza AI/ML nelle applicazioni cloud ed edge
  • Architettura per una tecnologia scalabile su più generazioni
Ulteriori informazioni sulla soluzione di inferenza AI HPE Edgeline con Qualcomm Cloud AI 100
Una ricca toolchain software

Una ricca toolchain software

Qualcomm Cloud AI 100 include un set completo di tool che consentono di ottimizzare e gestire facilmente i modelli addestrati per l'AI/ML nell'infrastruttura di inferenza AI.

  • Cloud AI 100 supporta più di 200 reti di deep learning per la computer vision, l'elaborazione del linguaggio naturale e la raccomandazione.
  • Il software Qualcomm supporta la compilazione, l'ottimizzazione e il deployment a partire da framework di ML standard di settore quali TensorFlow, PyTorch e ONNX.
Ulteriori informazioni sulla soluzione di inferenza AI HPE Edgeline con Qualcomm Cloud AI 100
Collaborazione tra HPE e Qualcomm

Una collaborazione tra HPE e Qualcomm incentrata sull'elaborazione inferenziale AI

Nell'aprile del 2022 HPE ha annunciato una partnership con Qualcomm volta a fornire un'accelerazione hardware a elevate prestazioni ed efficiente dal punto di vista energetico per i carichi di lavoro di inferenza AI.

AI 100 rappresenta la prima collaborazione sui prodotti tra HPE e Qualcomm e raccoglie i frutti di oltre dieci anni ricerca e sviluppo per offrire una tecnologia di accelerazione dell'inferenza deep learning ad alte prestazioni caratterizzata da consumi energetici ridotti, sicurezza, gestibilità ed efficienza.  
La partnership tra HPE e Qualcomm è significativa perché consente di ampliare ulteriormente il portafoglio di soluzioni HPE per l'inferenza AI. AI 100 è progettato per l'elaborazione dell'inferenza AI, uno degli scopi principali dell'AI, che consiste nella generazione di previsioni a partire da un modello addestrato.

Ulteriori informazioni sulla soluzione di inferenza AI HPE Edgeline con Qualcomm Cloud AI 100

HPE e Qualcomm offrono le prestazioni e la latenza migliori della categoria per i carichi di lavoro di inferenza AI dall’edge al data center

I benchmark MLPerf Inference v3.0 mostrano le prestazioni del sistema HPE con acceleratori Qualcomm Cloud AI100 integrati


Qualcomm è un marchio commerciale o un marchio registrato di Qualcomm Incorporated. Qualcomm Cloud AI è un prodotto di Qualcomm Technologies, Inc. e/o delle sue società controllate.