Dynatrace OpenPipeline per la piattaforma di analytics e automazione

di Redazione TecnoGazzetta

Dynatrace ha annunciato OpenPipeline®, una nuova tecnologia core che fornisce ai clienti un’unica pipeline per gestire l’acquisizione di dati su scala petabyte nella piattaforma Dynatrace® per alimentare analisi, intelligenza artificiale e automazioni sicure e convenienti.

Dynatrace OpenPipeline offre ai team di sviluppo, di sicurezza e operation piena visibilità e controllo dei dati che stanno inserendo nella piattaforma Dynatrace, preservando il contesto dei dati e gli ecosistemi cloud da cui hanno origine. Inoltre, valuta i flussi di dati da cinque a dieci volte più velocemente rispetto alle tecnologie legacy. Ne deriva che le aziende possono gestire meglio il volume sempre crescente e la varietà di dati provenienti dai loro ambienti ibridi e multicloud e consentire a più team di accedere alle risposte e alle automazioni basate sull’intelligenza artificiale della piattaforma Dynatrace senza bisogno di strumenti aggiuntivi.

Secondo Gartner®, “i carichi di lavoro moderni generano volumi crescenti – centinaia di terabyte e persino petabyte ogni giorno – di dati di telemetria provenienti da una varietà di fonti. Questo grande flusso rischia di sopraffare gli operatori responsabili di risorse, prestazioni e sicurezza. Il costo e la complessità associati alla gestione di questi dati possono superare i 10 milioni di dollari all’anno nelle grandi aziende[1]”.

Dynatrace OpenPipeline funziona con altre principali tecnologie della piattaforma di Dynatrace, come: Grail™ Data Lakehouse, topologia Smartscape® e Davis® Hypermodal AI, funzionali per affrontare le nuove sfide offrendo i seguenti vantaggi:

  • Analisi dei dati su scala petabyte: sfrutta algoritmi di elaborazione dei flussi in attesa di brevetto per ottenere un throughput di dati significativamente maggiore su scala petabyte.
  • Data ingestion unificata: consente ai team di acquisire e gestire dati di osservabilità, sicurezza ed eventi aziendali, inclusa Quality of Service (QoS) dedicata per eventi aziendali, da qualsiasi fonte e in qualsiasi formato, come Dynatrace® OneAgent, API Dynatrace e OpenTelemetry, con tempi di conservazione personalizzabili per casi d’uso individuali.
  • Analisi dei dati in tempo reale in fase di acquisizione: consente ai team di convertire dati non strutturati in formati strutturati e utilizzabili al momento dell’acquisizione, ad esempio trasformando i dati grezzi in serie temporali o dati di metrica e creando eventi aziendali dalle linee di log.
  • Contesto dei dati completo: arricchisce e conserva il contesto di punti dati eterogenei, inclusi parametri, trace, log, comportamento degli utenti, eventi aziendali, vulnerabilità, minacce, eventi del ciclo di vita e molti altri, riflettendo le diverse parti dell’ecosistema cloud da cui hanno avuto origine.
  • Controlli per la privacy e la sicurezza dei dati: offre agli utenti il controllo su quali dati analizzare, archiviare o escludere dall’analisi e include controlli di sicurezza e privacy completamente personalizzabili, come il mascheramento dei dati personali automatico e basato sui ruoli, per aiutare a soddisfare le esigenze specifiche dei clienti e requisiti normativi.
  • Gestione vantaggiosa dei dati: aiuta i team a evitare l’acquisizione di dati duplicati e riduce le esigenze di archiviazione trasformando i dati in formati utilizzabili, ad esempio da XML a JSON, e consentendo ai team di rimuovere campi non necessari senza perdere informazioni, contesto o flessibilità di analisi.

Vuoi ricevere gli aggiornamenti delle news di TecnoGazzetta? Inserisci nome ed indirizzo E-Mail:


Acconsento al trattamento dei dati personali (Info Privacy)