Scritto da Sara Loprete
La modernizzazione delle applicazioni
La modernizzazione delle applicazioni è un processo che può scaturire da diverse esigenze, come il desiderio di migliorare l’esperienza dei dipendenti o la competitività sul mercato. Questo processo spesso comporta il passaggio da sistemi monolitici a soluzioni basate su microservizi, che offrono maggiore flessibilità e scalabilità. Un esempio concreto è l’adozione di Kubernetes, una piattaforma che permette di gestire applicazioni containerizzate, garantendo un’infrastruttura resiliente e l’aggiornamento delle applicazioni senza tempi di inattività. Il passaggio da monolite a container comporta numerosi benefici, tra cui la riduzione delle risorse necessarie per l’esecuzione di un’applicazione, l’aumento della frequenza e dell’affidabilità dei deployments e il miglioramento dell’uptime e della resilienza.
Uno dei principali punti di attenzione per l’IT manager, e per esteso per l’azienda, riguarda la gestione delle risorse. Se l’architettura monolitica richiede risorse ingenti per la computazione massiva, la verticalizzazione in container ottimizza le risorse, andando a compiere un’analisi per Business Unit e dando quindi visibilità dei costi, seguendo la logica del Cloud FinOps
L’aggiornamento delle applicazioni è un tema delicato: non è possibile interrompere l’attività di un server per applicare una patch, soprattutto se su quel server è in esecuzione un’applicazione core. Anche in questo caso Kubernetes permette di lavorare in modalità resiliente, con il concetto di zero downtime. Elimina le interruzioni tipiche delle infrastrutture monolitiche e permette aggiornamenti rapidi e affidabili, mantenendo il controllo sulle versioni delle applicazioni in esecuzione.
SCOPRI COME RIDURRE IL DOWNTIME DELLE TUE APPLICAZIONI
Intelligenza Artificiale
L’intelligenza artificiale è una potente macchina che si nutre di dati per ottimizzare i processi. Questo significa che i dati devono effettivamente essere resi disponibili. Bisogna quindi fare un’attenta considerazione su come addestrare l’IA in base ai dati disponibili e alla possibilità di utilizzare quei dati. Ad esempio, nel contesto HR ci sono documenti visibili a tutti, come i documenti di conformità e l’organigramma, e informazioni private, come il cedolino paga, che non dovrebbero essere accessibili a tutti. La segmentazione dei dati è un tema importante complesso: oltre alla disponibilità già citata, c’è anche la questione della visibilità e/o della proprietà dei dati.
Costruita la piattaforma dati, il secondo passo riguarda le infrastrutture necessarie per far funzionare l’IA. I server che supportano i modelli di linguaggio evoluti hanno tutti la caratteristica di utilizzare la GPU, l’unità di elaborazione grafica. La GPU è indispensabile perché è in grado di fornire prestazioni superiori per l'addestramento e l'inferenza AI, essendo capace di calcoli matematici e geometrici che la CPU non riesce a sostenere.
Infine, come garantire che questi modelli evolvano e abbiano un’evoluzione costante nel tempo? Naturalmente si tratta di processi complessi e alla cui base ci deve necessariamente essere competenza. L’evoluzione è infatti garantita solo dalla presenza di team qualificati che adottino il ModelOps, il processo che permette di automatizzare una serie di operazioni basate su indicatori e di intervenire in ottica di miglioramento continuo dei modelli, proprio come accade per le macchine.
Protezione dei dati e Disaster Recovery
Se i dati sono la condizione sine qua non per un corretto funzionamento dell’AI, la protezione di questi dati è una priorità assoluta per le aziende di ogni dimensione. Protezione dei dati e disaster recovery sono infatti aspetti fondamentali per garantire la continuità operativa delle aziende. Non stiamo parlando di “semplice” prevenzione delle perdite: ci riferiamo a immutabilità del dato, ovvero la garanzia che, una volta eseguito il backup, le informazioni siano al sicuro da modifiche o cancellazioni non autorizzate. Questo concetto è particolarmente rilevante per la cyber resilience, ambito in cui l’analisi di attività anomale e le indagini su attacchi ransomware sono strumenti critici per la salvaguardia delle informazioni sensibili.
Anche in questo caso il binomio è il medesimo: tecnologia e competenza. La strategia dual vendor basa i servizi su tecnologie in grado di fornire strumenti di threat intelligence e strumenti avanzati per l’investigazione di ransomware. In caso di attacco ransomware, è essenziale garantire che l’infrastruttura possa essere rapidamente ripristinata e resa operativa (cyber recovery).
Il disaster recovery si focalizza sulla disponibilità dell’infrastruttura, permettendo al cliente di utilizzare un’infrastruttura alternativa con una distanza uguale o superiore ai 50 km quando la propria è compromessa. Ciò garantisce un’interconnessione costante e quindi una garanzia di networking e accessibilità degli utenti a prescindere dall’avere un’infrastruttura propria funzionante. Un piano adeguato di disaster recovery prevede l’attivazione di misure preventive e reattive, con un’attenzione particolare al tempo trascorso dall’ultima replica dei dati all’evento dannoso (RPO) e al tempo che intercorre tra il disastro e il completo ripristino dei sistemi (RTO), che indicano rispettivamente il tempo intercorso dall’ultima copia di backup dati fino a quelli persi in caso di interruzione e il tempo necessario perché gli utenti possano riprendere il lavoro.
L’integrazione di processi e tecnologie con le competenze di un Security Operation Center riduce significativamente il tempo di rilevamento di un problema, migliorando la reattività dell’azienda di fronte a incidenti. Infine, l’evoluzione dei servizi di backup, passando da soluzioni standard a backup immutabili basati su tecnologie enterprise, dimostra un cambiamento significativo nell’approccio alla sicurezza dei dati, rafforzando la posizione dell’azienda contro le minacce emergenti e garantendo una resilienza senza precedenti.
Conclusioni
La trasformazione dell’infrastruttura tecnologica aziendale non è un obiettivo da raggiungere, ma un processo continuo di adattamento e miglioramento in un contesto mutevole. Con l’aumento delle minacce informatiche, inoltre, è fondamentale adottare un approccio cosiddetto “security by design”, integrando la sicurezza in ogni fase dello sviluppo, del mantenimento e della modernizzazione delle applicazioni. Questo approccio garantisce che la sicurezza sia una componente intrinseca dell’infrastruttura IT, riducendo il rischio di violazioni dei dati e garantendo la conformità con le normative sulla privacy.