L’evoluzione dell'infrastruttura tecnologica tra dati, app e intelligenza artificiale

lug 30

Scritto da Sara Loprete

Intelligenza artificiale, cybersecurity, resilienza e trasformazione digitale sono le buzzword del momento. Tuttavia, queste parole non sono solo questo, ma rappresentano le pietre miliari di un percorso per l’infrastruttura tecnologica delle aziende in continua evoluzione. Sfide complesse che richiedono soluzioni innovative ma adatte al proprio caso e strategie ben ponderate. Ci concentriamo su tre aspetti cruciali di questa trasformazione: la modernizzazione delle applicazioni, l’integrazione dell’intelligenza artificiale nelle infrastrutture e la protezione dei dati. 

 

La modernizzazione delle applicazioni

La modernizzazione delle applicazioni è un processo che può scaturire da diverse esigenze, come il desiderio di migliorare l’esperienza dei dipendenti o la competitività sul mercato. Questo processo spesso comporta il passaggio da sistemi monolitici a soluzioni basate su microservizi, che offrono maggiore flessibilità e scalabilità. Un esempio concreto è l’adozione di Kubernetes, una piattaforma che permette di gestire applicazioni containerizzate, garantendo un’infrastruttura resiliente e l’aggiornamento delle applicazioni senza tempi di inattività. Il passaggio da monolite a container comporta numerosi benefici, tra cui la riduzione delle risorse necessarie per l’esecuzione di un’applicazione, l’aumento della frequenza e dell’affidabilità dei deployments e il miglioramento dell’uptime e della resilienza. 

Uno dei principali punti di attenzione per l’IT manager, e per esteso per l’azienda, riguarda la gestione delle risorse. Se l’architettura monolitica richiede risorse ingenti per la computazione massiva, la verticalizzazione in container ottimizza le risorse, andando a compiere un’analisi per Business Unit e dando quindi visibilità dei costi, seguendo la logica del Cloud FinOps 

L’aggiornamento delle applicazioni è un tema delicato: non è possibile interrompere l’attività di un server per applicare una patch, soprattutto se su quel server è in esecuzione un’applicazione core. Anche in questo caso Kubernetes permette di lavorare in modalità resiliente, con il concetto di zero downtime. Elimina le interruzioni tipiche delle infrastrutture monolitiche e permette aggiornamenti rapidi e affidabili, mantenendo il controllo sulle versioni delle applicazioni in esecuzione.

SCOPRI COME RIDURRE IL DOWNTIME DELLE TUE APPLICAZIONI

Intelligenza Artificiale

 

108532

 

L’intelligenza artificiale è una potente macchina che si nutre di dati per ottimizzare i processi. Questo significa che i dati devono effettivamente essere resi disponibili. Bisogna quindi fare un’attenta considerazione su come addestrare l’IA in base ai dati disponibili e alla possibilità di utilizzare quei dati. Ad esempio, nel contesto HR ci sono documenti visibili a tutti, come i documenti di conformità e l’organigramma, e informazioni private, come il cedolino paga, che non dovrebbero essere accessibili a tutti. La segmentazione dei dati è un tema importante complesso: oltre alla disponibilità già citata, c’è anche la questione della visibilità e/o della proprietà dei dati.  

Costruita la piattaforma dati, il secondo passo riguarda le infrastrutture necessarie per far funzionare l’IA. I server che supportano i modelli di linguaggio evoluti hanno tutti la caratteristica di utilizzare la GPU, l’unità di elaborazione grafica. La GPU è indispensabile perché è in grado di fornire prestazioni superiori per l'addestramento e l'inferenza AI, essendo capace di calcoli matematici e geometrici che la CPU non riesce a sostenere.   

Infine, come garantire che questi modelli evolvano e abbiano un’evoluzione costante nel tempo? Naturalmente si tratta di processi complessi e alla cui base ci deve necessariamente essere competenza. L’evoluzione è infatti garantita solo dalla presenza di team qualificati che adottino il ModelOps, il processo che permette di automatizzare una serie di operazioni basate su indicatori e di intervenire in ottica di miglioramento continuo dei modelli, proprio come accade per le macchine.   

 

Protezione dei dati e Disaster Recovery

6714

 

Se i dati sono la condizione sine qua non per un corretto funzionamento dell’AI, la protezione di questi dati è una priorità assoluta per le aziende di ogni dimensione.  
Protezione dei dati e disaster recovery sono infatti aspetti fondamentali per garantire la continuità operativa delle aziende. Non stiamo parlando di “semplice” prevenzione delle perdite: ci riferiamo a immutabilità del dato, ovvero la garanzia che, una volta eseguito il backup, le informazioni siano al sicuro da modifiche o cancellazioni non autorizzate. Questo concetto è particolarmente rilevante per la cyber resilience, ambito in cui l’analisi di attività anomale e le indagini su attacchi ransomware sono strumenti critici per la salvaguardia delle informazioni sensibili. 

Anche in questo caso il binomio è il medesimo: tecnologia e competenza. La strategia dual vendor basa i servizi su tecnologie in grado di fornire strumenti di threat intelligence e strumenti avanzati per l’investigazione di ransomware. In caso di attacco ransomware, è essenziale garantire che l’infrastruttura possa essere rapidamente ripristinata e resa operativa (cyber recovery).  
Il disaster recovery si focalizza sulla disponibilità dell’infrastruttura, permettendo al cliente di utilizzare un’infrastruttura alternativa con una distanza uguale o superiore ai 50 km quando la propria è compromessa. Ciò garantisce un’interconnessione costante e quindi una garanzia di networking e accessibilità degli utenti a prescindere dall’avere un’infrastruttura propria funzionante. Un piano adeguato di disaster recovery prevede l’attivazione di misure preventive e reattive, con un’attenzione particolare al tempo trascorso dall’ultima replica dei dati all’evento dannoso (RPO) e al tempo che intercorre tra il disastro e il completo ripristino dei sistemi (RTO), che indicano rispettivamente il tempo intercorso dall’ultima copia di backup dati fino a quelli persi in caso di interruzione e il tempo necessario perché gli utenti possano riprendere il lavoro.  

L’integrazione di processi e tecnologie con le competenze di un Security Operation Center riduce significativamente il tempo di rilevamento di un problema, migliorando la reattività dell’azienda di fronte a incidenti. Infine, l’evoluzione dei servizi di backup, passando da soluzioni standard a backup immutabili basati su tecnologie enterprise, dimostra un cambiamento significativo nell’approccio alla sicurezza dei dati, rafforzando la posizione dell’azienda contro le minacce emergenti e garantendo una resilienza senza precedenti. 

 

Conclusioni

La trasformazione dell’infrastruttura tecnologica aziendale non è un obiettivo da raggiungere, ma un processo continuo di adattamento e miglioramento in un contesto mutevole. Con l’aumento delle minacce informatiche, inoltre, è fondamentale adottare un approccio cosiddetto “security by design”, integrando la sicurezza in ogni fase dello sviluppo, del mantenimento e della modernizzazione delle applicazioni. Questo approccio garantisce che la sicurezza sia una componente intrinseca dell’infrastruttura IT, riducendo il rischio di violazioni dei dati e garantendo la conformità con le normative sulla privacy. 

 

Compila il form per organizzare un approfondimento con uno dei nostri specialisti oppure chatta in diretta con noi!

    Ultimi post pubblicati

    Tags