Systèmes autonomes et élevage des humains de l'intergiciel: questions / réponses avec Ben Nye, PDG de Turbonomic

Auteur: Lewis Jackson
Date De Création: 12 Peut 2021
Date De Mise À Jour: 25 Juin 2024
Anonim
Systèmes autonomes et élevage des humains de l'intergiciel: questions / réponses avec Ben Nye, PDG de Turbonomic - La Technologie
Systèmes autonomes et élevage des humains de l'intergiciel: questions / réponses avec Ben Nye, PDG de Turbonomic - La Technologie

Contenu


À emporter:

Notre conversation avec Ben Nye, le PDG de Turbonomic.

Peut-être avez-vous entendu parler de l'informatique autonome. Cela fait référence à la capacité d'un ordinateur ou d'un système à s'auto-organiser et à s'auto-gérer. Et, jusqu'à récemment, c'était encore un peu un rêve futuriste. Nous voulions en savoir un peu plus sur le fonctionnement d'un système autonome. Nous avons donc rencontré Ben Nye, PDG de Turbonomic et directeur général de Bain Capital Ventures. Turbonomic (anciennement VMTurbo) a récemment subi une refonte de la marque afin de mieux décrire le fonctionnement de leurs logiciels. Le nouveau nom intègre les thèmes centraux de Turbonomic dans sa plate-forme de gestion d’applications: Turbo (performances en temps réel), contrôle autonome (auto-organisation et gestion des charges de travail) et principes économiques (offre et demande). Ben parle ici des systèmes autonomes et de l’importance de l’automatisation dans des environnements de plus en plus complexes, axés sur les données.


Techopedia: Vous avez paru à de nombreuses reprises sur la liste Midas de Forbes pour les plus grands investisseurs en capital de risque (VC). En tant que VC, vous disposez d'un point de vue intéressant pour observer l'ensemble du paysage technologique et de combien le monde a changé au fil des ans. Qu'est-ce qui vous surprend en regardant combien de choses ont changé dans le centre de données?

Ben Nye: La réponse courte est que je pense que le rythme du changement dans le centre de données s'est vraiment accéléré au-delà de tout ce que les gens ont vu. Ce qui s’est passé, c’est le développement du centre de données défini par logiciel et, fondamentalement, l’abstraction du matériel. Cela a ouvert toute une dynamique de croissance au sein des éléments logiciels.

Ainsi, au lieu de traiter des cycles de régénération des fournisseurs de matériel (qui pendant longtemps servaient presque de gardien du centre de données), il était désormais ouvert à la rapidité avec laquelle vous pouvez créer des idées - parce que les logiciels, vraiment, c'est des idées. Sans les contraintes liées à la génération d’idées, c’est une période très excitante et amusante, mais le rythme des changements dans le centre de données et même la définition du centre de données ont évolué de manière importante et plus rapide que jamais.


Ce que je trouve très intéressant à ce sujet, c’est que lorsque nous sommes allés dans un centre de données défini par logiciel, tous les contrôleurs, les API et les boutons du monde du matériel ont été redéfinis dans le logiciel. Ce que nous avons fait, c’est penser à une nouvelle façon d’améliorer les performances et la productivité, à savoir prendre l’application et la modification de la demande de cette application pour les lier aux contrôleurs redéfinis du logiciel, car c’est finalement le logiciel qui Logiciel.

Lorsque vous faites cela, vous pouvez maintenant supprimer le middleware humain entre la couche application et la couche infrastructure car maintenant, pour la première fois, vous pouvez les lier directement entre eux - voici un mot important - de manière autonome, c'est-à-dire permettant littéralement aux applications de s'auto-gérer et de s'auto-organiser.

Cela rend également l’économie économique dans le sens où la demande trouve maintenant l’offre et nous nous concentrons sur un modèle de consommation des TI, un modèle économique plutôt qu’un modèle fondé sur l’allocation ou un modèle fondé sur l’offre. Il s’agit là d’un tournant fondamental dans l’histoire de la façon dont devrait fonctionner le modèle de gestion informatique ou technologique. Et cela s'est traduit par de meilleures performances et une efficacité accrue en termes de coût. Cela rend également les clients beaucoup plus agiles et résilients et permet une meilleure utilisation de la main-d'œuvre sur le marché.

Voici ce qui est si ironique à propos de ce qui s’est passé en 2016 avec chacun des centres de données définis par logiciel. Tout d'abord, vous surveillez votre matériel pour savoir quand les applications tombent en panne, ce qui signifie qu'elles violent une qualité de service ou un contrat de niveau de service, mais pendant que nous utilisons un logiciel pour rechercher l'erreur, nous revenons ensuite au matériel pour les alertes générées par la machine. . Le deuxième indice est que nous permettons aux applications qui gèrent l’entreprise de s’endommager. Le troisième est que nous prenons ces alertes répétées générées par une machine et que nous les transmettons. aux personnes.

Pas de bugs, pas de stress - Votre guide étape par étape pour créer un logiciel qui change la vie sans vous détruire

Vous ne pouvez pas améliorer vos compétences en programmation lorsque personne ne se soucie de la qualité des logiciels.

Cela doit être en arrière.

C’est pourquoi nous voulions que le modèle de gestion informatique ne soit plus basé sur des allocations ni sur des hypothèses, mais sur un modèle basé sur la consommation et la demande.

Lire: Le centre de données axé sur la demande - Ce que les administrateurs système peuvent apprendre de Wall Street

Techopedia: Maintenant que vous en parlez, nous fabriquons tout ce qui est défini par logiciel, mais les alertes sont simplement envoyées à la partie lente du processus, qui est, comme vous l’avez dit, le middleware humain.

Vous avez mentionné le terme autonome. Pouvez-vous peut-être parler un peu plus de l'importance des systèmes autonomes en informatique? Étant donné le changement de nom de VMTurbo à Turbonomic, je suppose qu’il est plus important que la plupart des gens ne le réalisent.

Ben Nye: Absolument. Tout d’abord, la définition de L’autonomique, s’il s’applique à l’informatique, s’articule autour de systèmes capables de s’auto-gérer, de s’auto-organiser.

Pensez donc aux réseaux bayésiens, aux algorithmes de recherche, au big data, ce que les gens appellent maintenant «apprentissage en profondeur». Ce sont des formes d'intelligence artificielle. Ce qui me semble le plus intéressant à propos de Turbonomic, c’est la forme ultime d’intelligence artificielle, car les charges de travail des applications prennent des décisions de manière autonome dans les logiciels en ce qui concerne les éléments d’infrastructure sur lesquels elles doivent être exécutées et à quel moment, se cloner. C'est vraiment, vraiment intéressant - et nous le faisons en tirant parti de l'abstraction et de la liquidité offertes par la virtualisation, les conteneurs ou les nuages.

Puis, ayant une abstraction similaire de toutes les différentes formes de demande - vous pouvez donc avoir des machines virtuelles, des conteneurs, des machines virtuelles - nous examinons toutes ces formes de demande et toutes ces formes d’offre, puis elles sont abstraites. Laissons donc la demande s’allier à l’offre ou s’y adapter. Et puis, s’ils se trouvent sur un hôte physique et qu’il commence à se saturer, plutôt que de le laisser échouer et de générer une alerte et que l’application, vous savez, explose, pourquoi ne pas simplement lui permettre de prendre la décision de se déplacer lui-même? Tant que vous prenez en compte votre décision - le déménagement et son coût -, vous pouvez prendre des décisions d’affectation des ressources bien plus intéressantes.

Techopedia: J'aime l'analogie offre et demande. Dans la théorie économique, les sources d'approvisionnement sont fixes à court terme et ne peuvent changer que sur une longue période. Dans ce que vous décrivez - si vous conservez cette analogie économique - vous modifiez tout le paradigme. C'est-à-dire que vous pouvez modifier l'offre à court terme, n'est-ce pas? Vous avez toute la flexibilité pour réellement être plus efficace et, en considérant l'utilisation des ressources en tant que marché, vous avez un marché presque efficace en temps réel?

Ben Nye: Vous avez tout à fait raison. C’est un modèle économique qui devient le principe autour duquel la demande trouve l’offre, mais la gestion informatique repose sur des principes économiques. Et comme le disait John Maynard Keynes, "À long terme, nous sommes tous morts".

Techopedia: Je ne pense pas que vous rencontriez actuellement un directeur informatique qui n’ait pas déjà déménagé ou n’envisage pas sérieusement de déménager pour mettre plus de ressources dans le cloud. Où voyez-vous l'industrie aller dans les années à venir?

Ben Nye: Je pense que vous allez voir un certain nombre de changements. Pour nous, il est assez clair que la technologie ne sera pas entièrement transformée. Tout comme le mainframe est toujours là, je ne pense pas que vous verrez jamais une réplication à 100%. Plus que probablement, vous verrez un monde hybride. Vous aurez le privé et le public, mais je pense que le public serait vraiment un multi-cloud public, pas un seul cloud public. En regardant les plus grands joueurs ici, il n'y en a qu'une poignée. Mais quand vous allez en Europe ou dans le reste du monde, vous voyez également de nombreux transporteurs qui sont tous des nuages, et je ne pense donc pas que ce soit un grand bond en avant, non? La vraie question, cependant, est de savoir comment les clients trouvent-ils les bons clouds pour gérer leurs charges de travail? Notre théorie derrière la société est que toute charge de travail devrait pouvoir fonctionner sur toute infrastructure, nulle part. Signification sur place ou à tout moment, car, rappelons-nous, le temps est synonyme de demande.

Ainsi, lorsque la demande change, vous souhaiterez peut-être opter pour le cloud. Ou si vous souhaitez déplacer ces charges de travail vers le cloud de manière permanente, quelles charges de travail allez-vous récupérer? Parce que maintenant vous avez de la capacité dans votre centre de données. Pourquoi payer deux fois? Ainsi, l'une des tâches que nous accomplissons aujourd'hui avec Verizon Intelligent Cloud Control, mais également avec d'autres environnements, est de permettre aux clients de fonder leur décision quant à l'emplacement de ces charges de travail, non seulement en fonction du prix, car le prix peut vous bloquer, mais aussi plus important encore. sur les performances de l'application. Vous pouvez ensuite prendre en compte d’autres facteurs, tels que le prix, la conformité, la souveraineté des données, la sécurité, ainsi que d’autres ressources qui ne sont que des ressources fondamentalement négociables sur ce marché que nous décrivons.

Techopedia: C’est le modèle économique?

Ben Nye: Ouais. Tout revient donc au modèle économique. Pensez à quel point c'est logique. Ce n’est pas simplement une analogie, c’est bien la façon dont le modèle fonctionne. Les charges de travail ont un budget et la charge de travail se penche sur la théorie de la file d’attente et la congestion. Ce n’est pas une augmentation de prix linéaire quand il commence à congestionner; il augmente de façon exponentielle, ce qui oblige le budget à être impacté et donc la charge de travail nécessaire pour prendre une décision.

Tant que vous avez résumé toutes les complexités du centre de données, vous pouvez désormais échanger des IOPS d’une boîte XtremIO, d’une boîte Pure Storage, d’une boîte Compellent et d’une boîte 3Par, car elles présentent toutes des caractéristiques IOPS différentes, mais l’application peut achetez donc ces ressources à votre choix. Ce n'est pas différent que de regarder CPU ou vCPU, MEM ou vMEM, non? Ils sont tous échangeables, alors devrais-je courir ici ou ici? Ce n'est pas grave! Le produit de base commun ici est la fourniture d'infrastructures.

Le produit de base commun ici est la fourniture d’infrastructures et la raison qui importe est - je vais utiliser une analogie - si vous vous en souvenez

En 1978, nous avons déréglementé les compagnies aériennes. Auparavant, chaque siège était identique, nous les avions tarifés de la même manière et, même si c'était logique, c'était faux car, du côté de la consommation, le consentement à payer était très différent. Les sièges étaient donc un produit de base, mais en changeant le ciblage en fonction de la demande, le prix par siège - même si les sièges étaient identiques, vous pouviez vérifier si le consentement à payer était différent. Donc, ce que nous avons fait, c’est que nous avons pris la ressource qui représentait le produit de base, que nous l’avions publiée sur le Web - c’était d’abord Sabre et Apollo, puis c’est devenu Travelocity, Kayak et Priceline.

Tout à coup, lorsque vous laissez la demande choisir l'offre, voici que tout le secteur a changé. Les facteurs de charge ont augmenté, mais le coût des vols a diminué et toute l’infrastructure aérienne du pays a été modernisée. C'était un grand progrès. Oh, et d'ailleurs, si vous regardez aujourd'hui, Priceline vaut 70 milliards de dollars. C’est plus qu’une compagnie aérienne et ils ne possèdent pas un seul avion.

Techopedia: Intéressant. Je n'ai jamais vraiment pensé de cette façon ...

Ben Nye: Ils ne possèdent pas d’avion, ils ne possèdent pas de portail, ils ne possèdent pas de siège, ils n’emploient pas de pilote, non? Et ensuite vous dites: «Mais quels autres exemples avons-nous d'économie centrée sur l'offre?», Changeons. Les hôtels sont basés sur l'offre, n'est-ce pas? Vous avez un hôtel, vous ne pouvez pas le déplacer. Vous avez ces chambres mais le prix vient ensuite de Hotels.com, d'Expedia, de Travelclick, etc. Et la même chose s'est produite: vous regardez dans les restaurants et vous avez OpenTable, vous regardez dans les pages jaunes. Vous regardez les annonces classées dans les journaux et elles ont été remplacées par eBay ou Craigslist.

Un de mes exemples préférés est Uber. Si vous vous promenez dans une ville, vous verrez une file de taxis attendre les gens, puis vous montez dans une autre partie de la même ville et une file de gens attend les taxis. Et vous pensez que cela ne peut pas être vrai. Vient ensuite Uber, qui utilise le smartphone pour laisser la demande stimuler l’offre. Maintenant, avec Uber, 90% de la demande est satisfaite en moins de 10 minutes, tandis que dans le monde des taxis, 90% de la demande n’est pas satisfaite en moins de 10 minutes. C’est la raison pour laquelle le dernier cycle d’Uber était de 62 milliards de dollars. Et rappelez-vous, ils ne possèdent pas de taxi ou de voiture!

TechopediaAinsi, dans un centre de données typique, nous faisons essentiellement la même chose que de héler un taxi, n'est-ce pas?

Ben Nye: Pensez-y ainsi: les charges de travail sont les responsables du budget, car c’est pourquoi nous avons construit le centre de données. Ainsi, ils sont effectivement vos humains dans cet exemple. Ensuite, j'ai cette ressource, cette ressource commune, toutes totalement abstraites. C’est ce qu’on appelle approvisionnement et il peut être partout: c’est tout en deçà des besoins de l’application, depuis le serveur et l’environnement informatique, en passant par le réseau et le stockage. Désormais, nous voulons nous assurer que le marché est efficace. Ainsi, ces détenteurs de budget doivent pouvoir agir de manière autonome, ce qui signifie de manière autonome et en temps réel compte tenu de la quantité de changement de la demande sur la charge de travail elle-même ou, dans ce cas, sur l'application. C’est pourquoi cela est très analogue à la demande de trouver l’offre. Grâce à ce système, les performances de vos applications sont nettement meilleures car vous n’attendez pas un goulot d’étranglement de main-d’œuvre humaine pour répondre à une alerte générée par une machine avant de prendre une décision de prise en charge de l’alimentation pour l’application. Vous le faites plutôt en temps réel. Et vous le faites à grande échelle parce que ces institutions, ces clients, exécutent des milliers d’applications par jour, et qu’ils doivent performer.

Donc, tout d’abord, votre expérience de performance est bien meilleure. De plus, vous n’avez pas de gens qui passent leur temps à faire des choses. Au lieu de cela, ils redeviennent des penseurs et ne se contentent pas de prendre des alertes générées par des machines, ils pensent pouvoir réellement aider l’entreprise. Ils réfléchissent à la stratégie des micro-services et à la stratégie hybride et multi-cloud, ainsi qu’aux réseaux définis par logiciel, aux fonctions réseau et à la virtualisation, autant de choses qui font réellement progresser l’entreprise et les éloignent du monde des solutions de dépannage, ou alerte répondant.

Nous constatons en fait que 40% à 60% du capital du centre de données est surapprovisionné et que nous pouvons nous permettre de le réapproprier en grande partie - évitant ainsi l’achat de nouveau matériel - ou de le mettre hors service, pour des raisons cela compte tellement -

Techopedia: Désolé, laissez-moi vérifier cela, 40-60%? Désolé, ce nombre est stupéfiant.

Ben Nye: Oui. Et ce qui est plus important, c’est que 14% de l’électricité de ce pays est consommée par les centres de données.

Techopedia: Nous pourrions donc économiser 5 à 8% de la consommation totale d’électricité du pays si nous n’approvisionnions pas trop nos centres de données?

Ben Nye: Laissez-moi vous donner une copie de sauvegarde pour vous expliquer pourquoi, d'accord? Cela remonte au monde d'une économie fondée sur l'offre. Premièrement, quand vous avez une nouvelle application et que vous exploitez un magasin informatique, comment la diminez-vous?

Techopedia: Ouais, vous allez voir l'architecte et ils devinent, non? Et puis ils attendent que ça casse.

Ben: Exactement. Vous allez dans le monde des affaires, vous avez une conversation et ils ne savent rien que vous ne sachiez pas. Donc, ils devinent et vous devinez, et ensemble nous essayons de deviner quelle devrait être la taille.

Donc, vous allez allouer quatre ou huit VCPU. Ce qui est intéressant, c’est que l’allocation inclut un pied physique, ou le pied virtuel sur un serveur physique. Chaque fois qu'une demande provient de cette application, elle sera mise en file d'attente sous forme de quatre ou huit VCPU. C’est comme aller au restaurant et dire que vous êtes un groupe de quatre ou huit, même si vous ne pouvez être qu’un seul. Vous ne serez jamais assis.

Nous faisons trop avec nos suppositions, ce qui signifie que nous obtenons les pires performances et que cela coûte très cher. C’est le problème numéro un. Le problème numéro deux est que vous ne pouvez pas dimensionner votre application avec précision, ce qui soulève la question suivante: comment la placer si vous ne pouvez pas la dimensionner?

Vous devinez encore. OK, donc maintenant nous devinons la première chose, nous devinons la deuxième, puis il y a cette chose appelée VM Sprawl, ou une VM sans demande. Il est laissé dans son état au lieu d'être supprimé et cela réserve également le matériel. Ensuite, nous essayons de mettre toutes ces choses ensemble dans un modèle de capacité historique basé sur l’être humain. Et comme nous ne l’utilisons qu’une ou deux fois par an, nous devons créer une autre couverture, nous parlions donc de 20 à 30%. se protéger parce que la demande pourrait augmenter sur toutes ces applications et ensuite nous allons «fermer le cluster», car nous allons considérer ce groupe d’hôtes comme «complet». À ce stade, vous avez verrouillé jusqu'à la moitié de la capacité de votre centre de données et il est surapprovisionné.

Techopedia: C’est comme si vous étiez prêt à échouer, comme dans l’ancien paradigme, il n’y avait aucune possibilité de ne pas trop approvisionner ou de ne pas s’étendre ...

Ben Nye: Si tout ce que vous voyez et gérez, c’est l’offre d’infrastructures, comment savoir si vous avez assez d’offre pour être résilient si vous ne voyez pas et ne comprenez pas et si la demande est liée en temps réel? Si vous ne voyez que l'offre, comment savoir si vous en avez assez? Comment savez-vous si vous en avez trop?

Techopedia: Eh bien, vous avez probablement embauché quelques autres têtes pour en deviner davantage. Vous dépensez plus d’argent pour enquêter sur ce problème, pas vous?

Ben Nye: Et vous vous retrouvez toujours fondamentalement sur-approvisionné à l’ordre de, appelez-le à moitié, et vous achetez du matériel inutilement. Le concept de la virtualisation lors de sa première instanciation était omniprésent au lieu de disposer d’une pile matérielle dédiée pour chaque application, je vais pouvoir déplacer ces charges de travail entre des piles dédiées. L’idée était donc de provisionner le matériel. à la moyenne des pics au lieu de la somme des pics de tout ce capital matériel.

Cependant, lorsque vous prenez maintenant le contrôle autonome en temps réel, le contrôle des performances, le côté consommation de la machine virtuelle, du conteneur ou du cloud, et que vous pensez à la même chose; Qu'est-ce qu'on fait? Nous testons chaque application de manière stressante et il y en a des milliers - il existe des centaines à des milliers d'applications dans un environnement dépendant de la taille du client - et passons donc à des tests de contrainte pour ceux de la CPU, de vCPU, de MEM, de vMEM, et ainsi de suite que tous les différents éléments ou ressources non? Et puis nous prévoyons basé sur la somme des pics encore. La différence est que si vous n’avez pas de retard ou de goulet d’étranglement associé à la main-d’œuvre et que vous pouvez maintenant répondre à la moyenne des pics, devinez ce que nous pouvons faire? Nous pouvons gérer cet environnement de manière active, car toutes les applications n’ont pas toutes la même vigueur.

Techopedia: Sensationnel. Cela revient vraiment à ce que la virtualisation était supposée être en premier lieu.

Ben: C’est la virtualisation ou la conteneurisation 2.0: contrôle des performances autonome et en temps réel.

Techopedia: Donc, si l'ancienne boucle de correction est une façon de penser dépassée, comment expliquez-vous cela au gars moyen qui est en première ligne?

Ben Nye: Laissez-moi vous poser une question simple: pourquoi surveille-t-on?

Techopedia: Vous voulez savoir ce qui ne va pas ou quand quelque chose ne va pas, non?

Ben Nye: D'ACCORD. Ouais. Vous voulez savoir quand ça casse. Mais pourquoi voulez-vous le laisser casser? C’est toute la question. Écoutez, vous allez inévitablement surveiller certaines divisions ou parties de votre centre de données, mais fondamentalement, si je peux m'assurer que mes applications fonctionnent de manière performante dans ce que nous appelons l'état souhaité, à savoir la quantité de ressources appropriée pour soutenez-les en temps réel, c’est un monde bien meilleur que d’attendre une surveillance, une alerte, et d’essayer de réagir à cela.

Lorsque la virtualisation a donné naissance aux centres de données définis par logiciel, il s’agissait d’une avancée très intéressante, mais ils ont fait un pas de plus, car ils s’appelaient eux-mêmes le système d’exploitation des centres de données de l’avenir. Mais si vous examinez les cinq choses qu'un système d'exploitation est censé faire, la première est la gestion de la performance. Alors, permettez-moi de vous demander si un hyperviseur gère le rendement?

Techopedia: Bien sûr que non.

Ben Nye: Aucun droit. Ensuite, la deuxième chose à faire est l’allocation de ressources. Alors, l'hyperviseur fait-il l'allocation des ressources? Non.

Que diriez-vous de la planification des travaux? Que diriez-vous des réservations? Que diriez-vous de la planification? Non, et non. Vous réalisez donc tout à coup que vous avez réussi à créer des alertes et que le nombre d'alertes augmente à mesure que nous utilisons les ressources à un niveau supérieur, mais également lorsque nous créons davantage d'applications, de formes de charge de travail et de lieux. dans lequel ils peuvent courir. Tout à coup, nous écrasons les gens avec toutes ces alertes.

Mais le plus important, c’est que ce que nous faisons en faisant en sorte que les humains poursuivent ces alertes est en train de tourner personnes dans les systèmes d’exploitation modernes des centres de données, ce qui est étrange car, en fin de compte, les gens dorment. Les gens ont des familles, des gens prennent des vacances et ne peuvent donc plus être des systèmes d’exploitation. C’est pourquoi nous avons créé ce système de contrôle de la performance des applications, Turbonomic, pour pouvoir effectuer exactement ces cinq tâches. Nous convenons que l'hyperviseur est une excellente invention, ainsi que des conteneurs et des nuages, mais nous les considérons comme des fournisseurs de liquidités. ils ne sont pas un système d'exploitation. Le reste du système d'exploitation provient d'un système de contrôle des performances des applications. Il fait ces choses, il gère la performance, l’allocation des ressources, la planification des travaux, les réservations et la planification - c’est toute la valeur de ce que nous avons. C’est pourquoi nous existons sur le marché.

Techopedia: Dites-moi quel rôle l’apprentissage automatique ou l’intelligence artificielle joueront-ils dans ce processus, d’ici deux à cinq ans? Comment Turbonomic with AI change-t-il le centre de données?

Ben Nye: Il existe des conclusions incroyables et intéressantes que l’on peut faire dans toutes sortes d’environnements différents. Je dirais que ce que nous faisions est beaucoup plus précis que cela. N'oubliez pas que l'un des problèmes liés aux grands ensembles de données volumineuses est qu'il vous faut du temps pour développer ces données, puis pour les mettre en corrélation et en tirer les inférences.

Parfois, vous tirerez la mauvaise conclusion et il est très difficile de savoir combien de temps il faudra au jeu de données volumineuses pour désapprendre cette conclusion, que ce soit juste ou faux. Puis, à la fin, il reste encore en retrait avec une composante humaine ou une composante du travail humain statique afin de prendre des mesures concrètes. Dans notre cas, il s’agit d’une intelligence autonome. Ce n’est pas seulement l’intelligence artificielle et ces charges de travail prennent réellement des décisions par elles-mêmes dans le modèle, mais vous le faites avec une certaine précision. C'est beaucoup plus que ce qui peut être accompli avec un simple jeu de données big data.

Techopedia: Si vous pouviez en laisser un avec l'administrateur système moyen, ou l'architecte de centre de données moyen, ou le CIO moyen, où en seront les choses dans un an ou deux? Qu'est-ce que les gens ne réalisent pas maintenant qu'ils doivent savoir en 2017, 2018 et au-delà?

Ben Nye: Je pense que le plus important est de rappeler pourquoi nous sommes entrés dans l’arène technologique. parce que nous sommes fondamentalement curieux et que nous voulons permettre à l’économie américaine - ou à toute économie - de faire plus avec moins. C’est la façon dont les entreprises fonctionnent. On ne peut pas rester fidèle à l’approche d’aujourd’hui d’un modèle fondé sur l’allocation ou l’offre, car il nous oblige à exécuter environ 50% d’approvisionnements excédentaires, et dans un monde d’applications de dépannage, et où nous avons tourné notre le travail des penseurs aux faiseurs.

Il y a un meilleur moyen. Le meilleur moyen consiste à adopter de nouvelles idées et de nouvelles technologies proposées par de nouveaux fournisseurs, ce qui vous donne l’occasion d’examiner le côté demande de l’équation, le côté consommation d’un ordinateur virtuel, d’un conteneur, d’un nuage, et d’être plus performant. une plus grande envergure avec une main-d'œuvre plus intelligente, une efficacité accrue de votre capital et une flexibilité en termes d'agilité et de résilience dans l'ensemble de vos opérations.

C’est la raison pour laquelle j’ai trouvé cette opportunité si convaincante que je voulais la diriger et j’y crois si profondément.

Si vous souhaitez un test gratuit de la plate-forme de contrôle des performances d’application de Turbonomic, vous pouvez le télécharger ici.