Tra 2016 e 2026, come questi dieci anni hanno cambiato l’informatica

Uno sguardo alla maturazione delle tecnologie e al cambiamento delle professioni informatiche in questi 10 anni

Negli ultimi dieci anni abbiamo assistito a molteplici cambiamenti radicali, sia dal punto di vista della qualità dei servizi offerti tramite i sistemi informativi, sia nelle professioni svolte quotidianamente da chi vi sta a contatto.

Ciao sono Pietro, di EXTRAORDY, seguimi mentre percorriamo assieme i cambiamenti dal 2016 ad oggi.

Nel mondo dei computer, dieci anni sono una vera e propria era. Vediamo assieme cosa è cambiato dal 2016 ad oggi, e di come la professione del tecnico informatico si è plasmata attorno ai nuovi strumenti ed alle nuove metodologie che sono nate e maturate in questi anni.

Molti strumenti e paradigmi che oggi diamo per scontati, esistevano già nel 2016, ma non erano mature, diffuse o comprese come lo sono oggi. Lo stesso open source, che prima veniva forse guardato con un occhio di sfiducia, ora è motivo di vanto per le più grandi aziende di consulenza e di gestione dei servizi informativi.

 

Dalla gestione manuale all’automazione come standard

Se nel 2016 l’automazione informatica era spesso vista come un paradigma utile ma assolutamente non necessario, oggi è invece il pilastro fondamentale della gestione delle infrastrutture.

La normalità erano azioni manuali e ripetitive, gestite per lo più tramite degli script imperativi in Bash, e con procedure blandamente documentate  Oggi l’automazione è una necessità strutturale.

Strumenti come Ansible Automation Platform hanno reso l’automation leggibile, ripetibile e condivisibile. Non si parla più solo di configurare server, ma di descrivere lo stato desiderato dell’infrastruttura e di portarcela con i nostri playbook.

L’infrastruttura non è più qualcosa che si configura, ma qualcosa che si dichiara.

Il risultato? Meno errori manuali, ambienti coerenti ed armonizzati, aggiornamenti prevedibili e rollback quasi istantanei.

 

I Containers, da novità a fondamento dell’industria

Nel 2016, Docker era appena nato, ed era il sinonimo unico di “Container”. Oggi sappiamo che i container non sono magia: sono bolle discrete di Linux, isolate dal resto del sistema e la cui gestione è prevedibile e ben nota.

La containerizzazione ha standardizzato il ciclo di vita delle applicazioni: dalla build degli applicativi, alla distribuzione nel nostro parco macchine, o dall’orchestrazione dell’esecuzione e persino all’aggiornamento dei servizi, per cui oggi diamo per scontato non avere tempi morti.

Il focus si è spostato dal “dove gira l’applicazione” al “come viene eseguita”.

In questo percorso strumenti come Podman hanno segnato un’evoluzione naturale grazie alla loro perfetta integrazione con i sistemi operativi supportati quali Red Hat Enterprise Linux, dando la fiducia per l’adozione in ambienti aziendali.

I vantaggi principali sono la piena portabilità garantita dagli standard OCI e un approccio ‘developer-friendly’: gli sviluppatori possono finalmente utilizzare ambienti identici alla produzione, eliminando ogni attrito durante il rilascio del software

I container sono diventati unità portabili, riproducibili e verificabili.

 

Orchestrazione: da tecnologia del futuro a fondazione invisibile

All’inizio Kubernetes ed in generale gli strumenti di orchestrazione potevano sembrarci eccessivamente complessi. Oggi sono semplicemente ovunque e spesso non ci accorgiamo neanche di utilizzandoli.

Non è più necessario conoscerne ogni dettaglio per beneficiarne e per amministrarli: Kubernetes è diventato il tessuto connettivo su cui girano e si interconnettono applicazioni eterogenee, piattaforme di vendor diversi, e servizi distribuiti.

Tra tutti gli orchestratori, Red Hat OpenShift ha contribuito a rendere Kubernetes utilizzabile in contesti reali, integrando alle logiche di networking e storage di facile integrazione per i tecnici, con la giustificabilità legata alla sicurezza e alla gestione del ciclo di vita che piacciono ai responsabili dei progetti, permettendo a questa tecnologia di entrare e stabilirsi nel mondo enterprise.

Il risultato è un’infrastruttura sempre più standardizzata, indipendente dall’hardware e dal cloud sottostante.

 

Il monitoraggio applicativo: dagli allarmi a schermo alla self remediation

Nel 2016 monitorare significava sapere se qualcosa funzionava o meno: Le sonde producevano degli allarmi che venivano spesso recepiti da un operatore in un service desk, e le procedure di escalation erano all’ordine del giorno. Nel 2026 monitorare significa capire con precisione perché sta accadendo un disservizio e quale impatto stiamo avendo.

Strumenti come CheckMK rappresentano al meglio questa evoluzione: Non solo dandoci visibilità completa su sistemi, applicazioni e servizi, ma mostrando anche una chiara correlazione dei singoli eventi e concentrandosi sull’impatto che gli allarmi causano all’esperienza reale degli utenti.

Il monitoraggio non intercetta più solamente i problemi, ma aiuta a prevenirli, a supportare decisioni informate, ed è diventato obbligatorio con il crescere della complessità dei sistemi.

 

Dall’amministratore di sistemi al DevOps, il cambiamento per le carriere

Forse il cambiamento più grande non è stato quello tecnologico, ma quello professionale. In dieci anni i ruoli IT che prima erano nettamente divisi tra “sistemista” e “sviluppatore” si sono radicalmente trasformati intrecciandosi e prendendo parti della professionalità di ciascuno.

Oggi si eseguono meno attività ripetitive, si tocca più codice a prescindere dal ruolo e si ha più progettazione con un maggior livello di responsabilità e visibilità sul risultato finale.

Chi lavora oggi sull’infrastruttura non gestisce solo server, ma piattaforme, processi e automazione.

 

Il nuovo arrivato: l’intelligenza artificiale

Nessuno avrebbe potuto prevedere che l’impatto delle tecnologie IA sarebbe stato così repentino.

Guardandoci indietro, è difficile realizzare che questi paradigmi siano entrati nella nostra quotidianità solamente negli ultimi tre anni, e oggi tutti abbiamo a che fare in modo quasi intimo almeno con un modello di intelligenza artificiale.

Non possiamo speculare su cosa ci riserva il futuro in questo ambito, ma vediamo già i cambiamenti più importanti: maggiore facilità nello sviluppo dell’infrastruttura basata su codice ed implementata tramite automazione, e andiamo verso l’auto-ripristino dei servizi informativi in seguito ad un guasto basato su analisi e generazione di azioni di ripristino automatiche.

 

Cosa non è cambiato?

Abbiamo visto che in questi dieci anni sono cambiati strumenti, ruoli e paradigmi. Quello che non è cambiato è la necessità di capire davvero cosa succede sotto il cofano

Esattamente come l’automazione ha aumentato l’efficacia di un singolo tecnico sia nell’esecuzione delle azioni benefiche per l’impresa, sia nell’automazione dei disastri, queste tecnologie legate a container, orchestrazione e monitoraggio funzionano bene solo se chi li usa ne comprende i principi ed il funzionamento.

Ed è qui che formazione, esperienza e condivisione della conoscenza fanno ancora la differenza.

Se vuoi approfondire questi temi, noi di EXTRAORDY siamo in prima linea nel guidare questo cambiamento. 

Conosciamo i principi dello Open Source e li applichiamo rigorosamente ai sistemi dei nostri clienti, per guidarli passo dopo passo verso una modernizzazione che li aiuti a crescere senza bruciare le tappe. 

 

Contattaci qui e costruiamo insieme un’infrastruttura a prova di 2036!

Ti piacerebbe diventare anche tu uno di noi e pubblicare i tuoi articoli nel blog degli RHCE italiani?

Panoramica privacy
EXTRAORDY | Your Red Hat Trusted Mentor

Questo sito utilizza i cookie in modo da offrirti la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser e svolgono funzioni come riconoscerti quando ritorni sul nostro sito e aiutare il nostro team a capire quali sezioni del sito ritieni più interessanti e utili.

Pertanto per una completa fruizione del presente sito, si consiglia di configurare il browser in modo che accetti la ricezione dei cookie.

Cookie strettamente necessari

I cookie strettamente necessari dovrebbero essere abilitati in ogni momento in modo che possiamo salvare le tue preferenze per offrirti la miglior esperienza possibile sul nostro sito.

 

Cookie di terze parti

Questo sito utilizza Google Analytics per raccogliere informazioni anonime quali il numero di visitatori del sito e le pagine più popolari.

Mantenere abilitato questo cookie ci aiuta a migliorare il nostro sito.