Cloud Complication: semplificare il cloud con Ben Nye, CEO di Turbonomic

Autore: Roger Morrison
Data Della Creazione: 25 Settembre 2021
Data Di Aggiornamento: 1 Luglio 2024
Anonim
Cloud Complication: semplificare il cloud con Ben Nye, CEO di Turbonomic - Tecnologia
Cloud Complication: semplificare il cloud con Ben Nye, CEO di Turbonomic - Tecnologia

Contenuto


Fonte: Alexander Cherevko / Dreamstime

Porta via:

Discutiamo del futuro del cloud con il CEO di Turbonomics Ben Nye.

Se c'è una cosa che abbiamo imparato negli ultimi anni sulla crescita delle implementazioni cloud, è che le cose possono complicarsi davvero molto velocemente. C'è cloud pubblico, privato e ibrido e le definizioni sfocate tra ciascuno. C'è un elenco sempre crescente di piattaforme cloud e strutture di costo. La conformità diventa solo più complicata ... Se sembra che più di quanto una persona possa mai tenere traccia, probabilmente hai ragione. Dopotutto, siamo solo umani.

Quando abbiamo parlato con l'amministratore delegato di Turbonomic, Ben Nye, l'anno scorso, abbiamo fatto un tuffo nel calcolo autonomo e in che modo viene utilizzato per risolvere il problema di ambienti sempre più complessi, basati sui dati, che vanno oltre la capacità di una persona di gestire in modo efficiente. È un nuovo paradigma per gli amministratori di sistema che hanno aderito a lungo al modello break / fix della gestione delle applicazioni. Passare tutto quel controllo al software è un nuovo approccio. Ma da un punto di vista pratico, l'allocazione e il provisioning delle risorse cloud in base alla domanda di carichi di lavoro in tempo reale sta diventando una forza potente in un mercato cloud affollato che si rivolge a data center sempre più complessi.


Le tecnopedie Cory Janssen si sono nuovamente sedute con Ben per parlare di come il panorama del cloud è cambiato nell'ultimo anno, dove potrebbe andare e come le aziende stanno cambiando il modo in cui gestiscono le risorse cloud.

Cory: È passato poco più di un anno dall'ultima volta che abbiamo parlato, quali sono stati alcuni dei maggiori cambiamenti nel panorama delle nuvole nell'ultimo anno?

Ben: Il dinamismo di questo mercato continua senza sosta. Il ritmo del cambiamento di cui abbiamo parlato nell'ultima intervista - con i tradizionali fornitori di hardware gateway che hanno lasciato il posto al software nel data center e nel cloud - è accelerato. Inoltre, la rivalità tra i fornitori di cloud (principalmente AWS e Azure) sta accelerando, creando allo stesso tempo nuove alleanze (Google e Cisco, VMware e AWS).

Quindi, in questo contesto, a cosa importa il CIO? Molti stanno implementando una strategia cloud-first che richiede loro di capire quali carichi di lavoro dovrebbero andare sul cloud pubblico e quali dovrebbero rimanere privati.


Un futuro ibrido e multi-cloud sta accelerando verso tutti noi con una clip molto più veloce del previsto. Questo ritmo di cambiamento sta forzando un nuovo approccio alla gestione e all'ottimizzazione dell'IT.

Cory: Nello spazio aziendale, l'intero concetto di cloud sembra spostarsi verso l'ibrido. La vecchia idea di cloud è morta? L'ibrido è il nuovo cloud?

Nessun bug, nessuno stress: la tua guida passo passo alla creazione di software che ti cambia la vita senza distruggere la tua vita

Non puoi migliorare le tue capacità di programmazione quando a nessuno importa della qualità del software.

Ben: Senza dubbio, sarà un futuro cloud ibrido. C'è stato un incredibile ritmo di cambiamento che stiamo vedendo nell'adozione del cloud ibrido come di fatto; il cloud pubblico sta crescendo incredibilmente bene, ma ciò non significa che il cloud privato si stia riducendo. Se osservi varie fonti che prevedono questa tendenza (come Cisco Cloud Index e Morgan Stanley CIO Survey), quando sposati insieme, vedrai circa un tasso di crescita del 3-5% sul cloud privato e un tasso di crescita del 60% sul cloud pubblico.

C'è anche una maggiore adozione di complesse applicazioni aziendali nel cloud pubblico, non solo app native o nuove, ma portando le app più orientate alla produzione nei loro ambienti equivalenti al cloud pubblico.

Questa realtà è una funzione forzante per valutare attentamente come gestire questi cambiamenti nel modo più efficiente in termini di costi, prestazioni e conformità.

Cory: C'è così tanto ronzio sull'apprendimento automatico in questo momento. Ragazzi, alcuni anni fa stavate lavorando su funzionalità autonome nel vostro software. Pensi di avere superato la curva lì in termini di parlare di come ottenere la gestione del cloud dal controllo umano?

Ben: Per fortuna si. Molte persone pensavano che i big data fossero il modo di gestire le prestazioni e, in mancanza di ciò, usavano tecniche di provisioning e di intervento manuale meno recenti, fondamentalmente le persone rispondevano agli avvisi generati dalla macchina. Riteniamo che ciò che mancava fosse la capacità di comprendere la domanda in modo che i carichi di lavoro delle applicazioni potessero autonomamente, sulla base di analisi avanzate in tempo reale, prendere autonomamente decisioni su dove eseguire, quando avviare o arrestare, quando dimensionare o ridurre. La risposta è stata un sistema di autogestione, che è molto più efficiente del overprovisioning e delle persone che inseguono gli avvisi di monitoraggio generati dalla macchina. È anche più efficiente e più tempestivo di un tradizionale esercizio sui big data in base al quale le persone aggregano enormi quantità di dati senza capire esattamente cosa stanno cercando di raccogliere. Quindi devono spostare quei dati in un repository comune o in un data warehouse. Devono quindi strutturare quei dati, correlarli, con l'obiettivo di trovare un'inferenza.

Non erano grandi credenti nei big data. La nostra intelligenza è un diverso tipo di IA per la gestione delle prestazioni. Con i big data è costoso raccogliere tutti quei dati e molto facile intasare gli stessi sistemi che stai cercando di gestire in virtù del loro spostamento. Quando lo sposti, lo strutturi, lo correli e trovi un'inferenza, non sei più in tempo reale. Infine, questa inferenza, quando la ricavi, devi restituirla di nuovo alle persone. Questo è ciò che rende l'apprendimento automatico così prezioso per la ricerca di insight in set di dati di grandi dimensioni; non è altrettanto prezioso per la gestione delle prestazioni nei sistemi IT.

Cory: Secondo lo studio del CIO di Morgan Stanley, metà del carico di lavoro verrà eseguito nel cloud pubblico entro il 2020. Quali rischi affrontano le organizzazioni quando effettuano tale spostamento?

Ben: Praticamente tutti i carichi di lavoro nel mondo locale sono sottoposti a provisioning eccessivo e sottoutilizzati, il che è il risultato di stime intenzionali dell'IT. Questa è la base con cui le organizzazioni stanno lavorando mentre considerano lo spostamento e la migrazione al cloud. Questo è vero da oltre due decenni. Il mondo on-premise è prevalentemente un ambiente a costo fisso in cui esiste la proprietà della capacità, quindi c'è poca penalità da pagare.

Man mano che le organizzazioni adottano il cloud ibrido, trasferiscono i loro carichi di lavoro con provisioning eccessivo nel cloud, un mondo a costo variabile. Se hai un provisioning eccessivo, lo paghi entro un secondo o un minuto, a seconda del tuo provider di cloud pubblico. Essere conformi diventa anche un grande rischio in questo nuovo modello.

Cory: Sulla carta, in teoria, ha senso passare a costi variabili, ma quando lo metti in questo modo, è così semplice. Voglio dire, stai chiedendo agli architetti e al lato IT di essere anche ragazzi finanziari.

Ben: Esattamente. Si stima che le fatture del cloud pubblico siano più del doppio di quanto previsto. Perché? Perché quando esegui la migrazione di un carico di lavoro sul cloud pubblico, lo stai prendendo in base a un modello di allocazione. Non lo stai ridimensionando e ridimensionando. La probabilità di un provisioning eccessivo è elevata e pertanto i livelli di spesa saranno elevati. È fondamentale comprendere il consumo reale di un carico di lavoro e quindi ridimensionarlo in modo appropriato (su o giù): questo è uno dei vantaggi di Turbonomic.

Cory: In genere, ho considerato Turbonomic più dal punto di vista del calcolo, ma recentemente hai fatto molte cose anche dal punto di vista dello storage. Puoi parlarne un po '?

Ben: Quindi, una delle tue precedenti domande riguardava i cambiamenti in atto nel panorama delle nuvole. Ad esempio, Amazon ora ha prezzi al secondo per il calcolo e l'archiviazione. Pensa a quanto è dinamico il mercato che possono scendere, letteralmente, a un'offerta al secondo. Abbastanza selvaggio, considerando che è stato poco meno di un anno fa che Google ha pubblicato i prezzi al minuto, perché Amazon era stato all'ora.

Ora possiamo eseguire calcoli, memoria, rete e archiviazione in Amazon usando le loro flessibilità di prezzo letteralmente fino al secondo.

Cory: Sono sicuro che quando parli di quei grandi database, di tutti quei grandi database relazionali, questa è una delle istanze più costose con AWS, giusto? Quindi, stai andando proprio alla carne di esso.

Ben: Ci sono molti problemi importanti che colpisci lì. Se guardi ad Amazon, ad esempio, hanno effettivamente portato la tua domanda sul database a un altro livello. Database as a service è una delle offerte platform-as-a-service in più rapida crescita. E sia AWS che Microsoft hanno creato un numero piuttosto elevato di offerte platform-as-a-service. Alcuni riguardano l'apprendimento automatico dei big data. Sia che tu stia utilizzando il loro database o il tuo database, i costi di archiviazione sono piuttosto elevati e i costi totali possono essere piuttosto elevati e la variabilità - o l'opportunità di migliorarli - è significativa. Questo è quello che stiamo facendo: i clienti possono chiudere per raddoppiare il ROI quando eseguono le nostre nuove funzionalità di archiviazione Turbonomic per il cloud pubblico, nonché le capacità di elaborazione, memoria e rete che abbiamo offerto in precedenza.

Se guardi a Microsoft, hanno fatto una serie di annunci importanti al loro recente evento Ignite. Ora hanno zone di disponibilità e offerte di istanze riservate, come AWS. Questo è importante perché mostra ciò che i clienti chiedono. Ma mostra anche che, come in queste cose, c'è complessità e la complessità può rapidamente sopraffare le persone.

Cory: Puoi parlarci un po 'di come Turbonomic è stato in grado di sposare le diverse piattaforme cloud? Abbiamo ballato un po 'in quel modo in termini di varie funzionalità su AWS e Azure. Sembra quasi che sia una situazione in cui, negli ultimi due anni, c'è stata una scelta in cui sei l'uno o l'altro, ma sempre più aziende sono in grado di sposarli insieme ora.

Ben: Storicamente, quando è stata introdotta una nuova piattaforma, sono stati introdotti nuovi strumenti per aggregare i dati e consegnarli a una persona da gestire o correggere. Il fattore limitante è lo skillset umano. Questa complessità sta forzando un nuovo modo di gestire l'IT. In questi giorni stai ascoltando molto di più su AI, database autonomi, data center, ecc. Riteniamo che la risposta per gestire la complessità in un ambiente ibrido sia creando un ambiente autogestito attraverso un sistema di controllo in grado di colmare entrambi lacune esistenti. Offriamo alle persone una sorta di capacità bionica di sfruttare la complessità del loro ambiente con un software che elimina le congetture e le limitazioni esistenti in precedenza al fine di garantire che i carichi di lavoro vengano eseguiti in modo performante, conforme e conveniente, indipendentemente dal fatto che si trovi in ​​un cloud privato o pubblico .

Cory: Potresti anche lanciare Google mentre aumentano le loro offerte nei prossimi due anni. Si tratta solo di scegliere i migliori servizi su ogni piattaforma.

Ben: Sì. Siamo entusiasti di supportare gli ambienti Google in una futura versione del software. A tuo avviso, ci sono un sacco di decisioni su dove posizionare un carico di lavoro e come e quando dimensionare un carico di lavoro e quando avviare e arrestare un carico di lavoro. Ricorda: un carico di lavoro potrebbe essere una macchina virtuale o un contenitore, potrebbe essere un VDI, quindi la flessibilità insita nel fare queste scelte attraverso un insieme più ampio di alternative o opzioni è enormemente preziosa per i clienti che cercano di ottenere il costo più basso, le prestazioni migliori e conformità garantita. Su questa scala, il software può farlo in modo molto più efficiente, invece di affidarsi alle persone che rispondono agli avvisi generati dalla macchina quando le applicazioni hanno infranto o violato una soglia.

E, considera continuamente la nuova generazione di regolamenti. Esistono regolamenti globali sulla protezione dei dati, che influiscono sui dati in tuo possesso e su dove risiedono, richiedendo la sovranità dei dati. Poi c'è affinità e anti-affinità attorno a cui i dati possono stare con altri set di dati. E poi ci sono requisiti di continuità aziendale e alta disponibilità. Nel cloud pubblico, se si desidera cinque nove, è necessario trovarsi in almeno quattro zone di disponibilità. Devi pensare al ripristino di emergenza, a più regole aziendali. La realtà è questa: se non si ispezionano tali regole aziendali, ogni volta che si dimensionano, si avvia, si sposta, si colloca o si clona un carico di lavoro, non si sa che si è in continua conformità. O sei conforme o non lo sei. È un problema binario.

Cory: È quasi diventato così complicato che la regola aziendale rende quasi impossibile da gestire per un essere umano.

Ben: Esatto, e questo è il problema, specialmente quando funzioniamo su una scala dall'80 al 90 percento virtualizzata nell'azienda. Stiamo funzionando su una scala che deve maturare oltre l'intervento manuale rispondendo agli avvisi macchina quando le applicazioni possono rompersi. Oh, a proposito, devo essere in grado di apprendere queste nuove abilità per fare la stessa cosa a condizioni migliori nel cloud pubblico. È semplicemente troppo.

Cory: Sai cosa? Mentre mi stai parlando di questo, è sorprendente per me come il problema di fondo non sia se stai parlando di migrazione o se stai parlando di problemi di conformità. Ci sono così tante sovrapposizioni lì, e anche se stai verificando la conformità, molte di queste questioni si sovrappongono davvero. Il problema principale è che nei prossimi anni ci sarà solo una maggiore complessità. Se non sei sulla strada giusta in questo momento, sei morto nell'acqua, perché se non riesci a gestire le cose ora, come farai nel 2020?

Ben: Completamente d'accordo. E poi, a proposito, solo per fare il tuo punto, diventa ancora più complesso, perché ora dobbiamo pensare non solo a dove viene eseguito un carico di lavoro, ma cosa è un carico di lavoro? Quindi, potresti effettivamente essere in un mondo di ottimizzazione di una VM oggi, ma domani potrebbero essere container e microservizi con un sistema operativo cloud. Bene, va bene, ma come hai intenzione di trovare una persona di Kubernetes, diciamo, in Kansas, o una persona di Docker in Delaware? Quindi, c'è una costante evoluzione nel modo in cui le persone affrontano queste cose.

Diventa un po 'spaventoso, ma se posso usare il software per aiutare a risolvere quel problema allora, wow, diventa invece corroborante, giusto? Perché, portiamo le persone nella catena del valore e disponiamo di software che fa le cose banali di valore inferiore.

Cory: Giusto.Quindi puoi avere le tue risorse di alto livello in realtà fare un passo indietro e pensare, che è quello che dovrebbero fare, invece di gestire gli avvisi.

Ben: Esattamente! Le persone sono entrate nella tecnologia perché erano interessate all'evoluzione del panorama tecnologico e, francamente, alla creazione di cose interessanti. Quelli erano i grandi motivi per entrare nella tecnologia, giusto? Non doveva essere considerato un regime di allerta. Quindi, questa è una nuova serie di abilità che può derivarne. Voglio dire, come farà mai qualcuno a cercare ogni container in tempo reale? Nessuno ha ancora risposto a questo problema. E la risposta è che verrà eseguita tramite software.