Articolo a cura di Lori MacVittie, Principal Technical Evangelist, Office of the CTO at F5
Con il termine utente, nel contesto delle applicazioni, si è sempre indicato il soggetto che interagisce con essa. Il test di accettazione dell’utente (UAT) era, un tempo, una delle fasi finali dello sviluppo durante la quale le persone che avrebbero interagito con l’applicazione si riunivano per determinare se fosse accettabile e soddisfacesse i requisiti aziendali.
Con il progresso della tecnologia, anche la definizione di utente si è evoluta. Un cambiamento che può essere attribuito alla maggiore maturità di Internet e all’incremento rapido della potenza di calcolo. L’affermazione che i nostri smartphone oggi hanno più potenza di calcolo di quella del computer utilizzato per raggiungere la luna nel 1969 è divertente proprio perché è vera. I progressi nella progettazione hardware, infatti, hanno portato alla capacità di collocare incredibili quantità di potenza di calcolo in componenti estremamente piccoli.
Proprio come i cambiamenti nelle architetture delle applicazioni guidano la trasformazione delle tecnologie per la delivery e la sicurezza, così una nuova definizione di utente sta determinando il cambiamento del “dove” le applicazioni vengono implementate.
Nell’era dei data center, gli utenti erano quasi esclusivamente esseri umani che accedevano alle applicazioni dal posto di lavoro. Quindi, i data center erano quasi sempre collocati là dove si svolgeva l’attività che supportavano. Durante l’era del cloud, invece, Internet ha reso possibile un nuovo modello operativo, il cloud pubblico, per servire meglio una nuova categoria di utenti che accedevano alle applicazioni da casa. Le applicazioni dovevano essere facilmente accessibili da più posizioni perché gli utenti avevano iniziato ad utilizzarle da luoghi diversi.
Oggi, agli esseri umani, si aggiungono nuove categorie di utenti che abbracciano software, macchine, dispositivi e sensori. Questi utenti accedono alle applicazioni da qualsiasi luogo e in modi diversi. A novembre 2020, solo negli Stati Uniti, il 45,38% del traffico web proveniva da telefoni cellulari e un americano medio vanta più di dieci diversi dispositivi connessi. Televisori, elettrodomestici e persino le nostre lampadine utilizzano applicazioni via Internet.
Questo cambiamento nella definizione e nella distribuzione degli utenti rappresenta una forza trainante e significativa rispetto all’edge computing.
Analizzando il Cisco’s Annual Internet Report possiamo notare che “entro il 2023, sulla Terra ci saranno un numero tre volte superiore di dispositivi in rete rispetto alla quantità di esseri umani. Circa la metà delle connessioni globali sarà da macchina a macchina e lo spazio M2M sarà dominato da “oggetti” orientati al consumatore nelle case e nelle automobili intelligenti (RCRWireless News).
In questo contesto, le aziende hanno sempre cercato di fornire applicazioni che soddisfino gli utenti ovunque si trovino e ora hanno bisogno di soddisfare utenti di tutti i tipi all’Internet edge, perché le applicazioni che consentono agli uomini e alle macchine di eseguire le attività a loro assegnate devono essere più vicine agli utenti che interagiscono con esse.
Uno dei motivi principali perché questo cambiamento deve avvenire è l’esigenza universale di una maggiore velocità. Sia che si tratti della necessità di supportare le prestazioni dell’applicazione o di fornire una risposta rapida per avviare un dispositivo, la velocità rappresenta qualcosa che gli esseri umani che le macchine ricercano nell’edge computing.
In base ai risultati della nostra ricerca annuale State of Application Strategy due dei primi tre casi d’uso per edge sono proprio il miglioramento delle prestazioni delle applicazioni (43%) e il calcolo/elaborazione/analisi in tempo reale, che richiedono una latenza inferiore a 20 ms (34%).
Da ciò, si può dedurre che le velocità attuali non sono abbastanza elevate e uno dei motivi principali è la composizione delle applicazioni, che oggi comporta una grande latenza. Con una miriade di componenti, ognuno dei quali richiede tempo per essere individuato e richiamato, non sorprende che le prestazioni delle applicazioni continuino a rappresentare un problema che accomuna molte aziende e utenti, anche se la velocità e la capacità della rete sono costantemente in crescita.
Infatti, sebbene la potenza di calcolo sia aumentata notevolmente nel tempo, è la rete a continuare a determinare la velocità con cui possiamo spostare i dati attraverso la rete. Con più utenti umani e ancora macchine e utenti di sistema che lavorano da casa, l’aumento della larghezza di banda disponibile non è in grado di risolvere l’equazione necessaria per ottenere prestazioni migliori. In molti casi, semplicemente, non è possibile aumentare la larghezza di banda e la velocità della rete a causa delle leggi della fisica e dell’economia.
Spostare più vicino le applicazioni, in particolare quelle che elaborano e analizzano i dati, rappresenta quindi una soluzione che l’azienda può sfruttare perché la posizione dell’applicazione è la variabile più flessibile nell’equazione delle prestazioni.
Stiamo entrando in un’era in cui le applicazioni devono essere mobili quanto i loro utenti; un’era in cui i data center e il cloud pubblico avranno un ruolo, ma non rappresentano più la destinazione finale per il deployment.
I data center aziendali e il cloud fungeranno da fonti di elaborazione, rete e storage che possono essere rese parte di una rete di risorse più ampia e flessibile che si estende su più location con applicazioni che possono spostarsi in modo fluido e su richiesta. In altre parole, la nuova era dell’edge computing.