www,itcare.it usa i soli cookies tecnici : nessun cookie verrà generato per tracciare il tuo comportamento.Se vuoi puoi negare il consenso o visualizzare la nostra Privacy Policy. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsenti all'uso dei cookiBloccae. 

Sistemi di Monitoraggio

un punto di vista sulla necessità di proattività delle Service Operations

I sistemi IT stanno aumentando la loro complessità grazie allo sviluppo di applicativi sempre più business-related che garantiscono alle aziende il massimo in termini di efficenza: i big data, le integrazioni BYOD, i sistemi documentali, i flussi dati da e per i social o le console di helpdesk e selfservice degli stakeholder hanno radicazioni nei sistemi informativi molto estese.

La necessità di monitoraggio è sentita da molti per gestire in maniera proattiva le emergenze : la misurazione dei livelli di servizio, un efficiente sistema di alerting e una vasta gamma di report utili al board tecnico per prendere le decisioni del caso; sono esigenze che spesso CIO e ICT Manager hanno ben chiare e che sono necessarie per garantire tranquillità di business alla propria azienda.

 

Escalation

 

Se questi flussi e queste logiche, non sono correttamente monitorate, il rischio è di vedere un grave scollamento tra le metriche degli amministratori di sistema e l’esperienza degli utenti che tipicamente genera una pioggia di chiamate all'helpdesk.

Ogni applicativo, infatti, ha dei sublayer su cui si appoggia per funzionare: ambiente, energia, server, linee dati, servizi, processi, flussi. Spesso però, dal punto di vista del reparto IT tutto funziona bene, ma con tutta probabilità l’IT sta guardando le cose sbagliate.

Per rispondere a queste domande chiave, i manager dei datacenter devono anzitutto identificare quello che devono misurare. Per controllare la salute del CED e ridurre al minimo i tempi di inattività occorre mettere in piedi un sistema che preveda diversi livelli di misurazione: dal monitoraggio altamente granulare a quello basato sulle attrezzature, dall'analisi di flussi e servizi al reporting che tenga in considerazione il punto di vista dell'utente.

Controllare se l'attrezzatura è in perfetta forma non è più sufficiente. Garantire la giusta reattività ai problemi sta diventando una questione sulla scrivania di parecchi network, storage e datacenter manager. Il comune approccio basato sulla ridondanza deve comunque essere gestito da un sistema di analisi per capirne i tempi e i modi di intervento, così come misurare i tempi di downtime è fondamentale per capire se la politica pensata è sufficente o se è necessario alzare la qualità della protezione.

Pianificare e ottimizzare i consumi del data center, dimensionarlo ad hoc, proteggerlo da danni ambientali ed essere aggiornati sull’effettiva situazione climatica al suo interno. Questi sono solo alcuni degli aspetti che i responsabili dei sistemi informativi e i CIO delle aziende devono affrontare quotidianamente.

Se è vero che tutte le strade portano al cloud, è anche vero che in maniera imprevedibile, possono variare la complessità di analisi e di intervento per il ripristino degli applicativi. Così come variano anche le metriche da monitorare che devono tenere conto dei livelli di servizio concordate con i provider dei singoli servizi.

Diventa strategico utilizzare un “approccio predittivo”, che prevede il monitoraggio di:

Parametri ambientali (la funzionalità degli impianti di raffrescamento, la temperatura dell'ambiente e degli armadi, il fumo e l’umidità, gli allagamenti e gli accessi agli armadi rack)

Parametri di alimentazione (il monitoring della potenza assorbita, del carico dei sistemi UPS, della qualità dell'energia erogata e consumata)

Parametri di network (capacità, larghezza di banda, attivazione dei sistemi ridondanti, velocità e downtime)

Parametri di servizi infrastrutturali (servizi di directory, naming, autenticazione e di stampa)

Parametri dell'hardware di infrastruttura (sistemi di storage, backup e host di virtualizzazione)

Un corretto monitoraggio e un reporting granulare, consentirà di rilevare i problemi di dimensionamento dei sistemi e sopratutto dei servizi, prima che diventino emergenze.

"Solo ciò che è misurabile è migliorabile” insegnava Kuhn: La necessità di controllare e misurare è irrinunciabile per trovare la quadratura corretta tra gli SLA necessari e l'effort economico nonchè organizzativo per ottenerli:

Grazie all'utilizzo di sistemi modulari in tutta l’infrastruttura, sarà possibile sopravvivere senza grossi traumi a eventuali failure dei singoli pezzi del sistema
Funzionalità di bilanciamento del carico sulle linee dati o con sistemi di virtualizzazione intelligente dei server, dei dispositivi di storage e del networking,
Modalità di gestione intelligente del carico di lavoro all’interno di UPS e generatori, dei sistemi di sicurezza fisica o del raffrescamento metteranno al sicuro il datacenter.

Tutto questo ha un costo, è per questo che non si possono sempre e solo acquistare nuove soluzioni, nuovi hardware, raddoppiare o triplicare le strutture. E' necessario analizzare e comprendere i dati. Capire quali sono rischi e aiutare il management a capirne costi e benefici, per decidere la strada da intraprendere.

Valutare la salute dell’infrastruttura di un CED non è solo una questione IT, ma di business; se gli utenti affermano che le prestazioni sono di scarsa qualità, è inutile puntare il dito contro gli SLA e sostenere che le prestazioni ricadono all’interno dei limiti concordati: è la percezione degli utenti a definire la necessità di SLA più restrittivi.

 

GoldenCircle