Vers l'avenir: une rampe d'accès pour l'informatique en mémoire

Auteur: Roger Morrison
Date De Création: 22 Septembre 2021
Date De Mise À Jour: 21 Juin 2024
Anonim
Vers l'avenir: une rampe d'accès pour l'informatique en mémoire - La Technologie
Vers l'avenir: une rampe d'accès pour l'informatique en mémoire - La Technologie

À emporter: Eric Kavanagh, animateur, discute de l'informatique en mémoire et de SAP HANA avec ses invités, les Docteurs Robin Bloor, Dez Blanchfield et IDERAs Bill Ellis.



Vous n'êtes actuellement pas connecté. Veuillez vous connecter ou vous inscrire pour voir la vidéo.

Eric Kavanagh: Ok, mesdames et messieurs. Bonjour et bienvenue encore une fois. C’est 16 heures, heure de l’Est, un mercredi et, ces deux dernières années, c’est le temps, encore une fois, de Hot Technologies. Oui, je m'appelle Eric Kavanagh, je serai votre hôte pour la conversation d’aujourd’hui.

Et les gars, nous allons parler de choses intéressantes aujourd'hui. Nous allons plonger dans le monde de la mémoire, le titre exact est: «Vers l’avenir: une rampe d’accès pour le calcul en mémoire». C’est à la mode ces jours-ci, et avec raison, principalement la mémoire est tellement plus rapide que de compter sur des disques en rotation. Le défi, cependant, est que vous devez réécrire beaucoup de logiciels. La plupart des logiciels d’aujourd’hui ont été conçus en pensant au disque et cela change vraiment l’architecture de l’application. Si vous concevez l'application pour attendre un disque en rotation, vous procédez simplement différemment que si vous disposiez de toute la puissance de la technologie en mémoire.


C’est vrai, c’est moi, @eric_kavanagh. J'essaie toujours de suivre et aussi de retweet chaque fois que quelqu'un me mentionne.

Comme je l'ai dit, nous parlons aujourd'hui de mémoire en mémoire, et plus particulièrement de SAP HANA. Vous avez vraiment passé la dernière année à bien connaître la communauté SAP. C’est un environnement fascinant, je dois le dire. Chapeau bas aux personnes qui gèrent cette opération et qui sont en première ligne, car SAP est une opération incroyablement bonne. Ce qu’ils font vraiment très bien fait des affaires. Ils sont également très doués en technologie, bien sûr, et ils investissent beaucoup dans HANA. En fait, je me souviens - il y a probablement six ou sept ans - que nous travaillions pour l'US Air Force, et que quelqu'un de SAP est venu nous donner un aperçu rapide du monde de HANA et ce qui était prévu. Et pour le moins, les employés de SAP Labs ont consacré beaucoup de temps et d’efforts à la construction de cette architecture complètement différente des environnements traditionnels, car vous avez tout en mémoire. Donc, ils parlent de faire à la fois des données transactionnelles et analytiques sur les mêmes données en mémoire, par opposition à la méthode traditionnelle qui consiste à extraire le contenu, à le placer dans un cube, par exemple, à l’analyser à cet endroit, par rapport au type transactionnel. arrive d'une manière très différente.


C’est un espace intéressant et nous allons en apprendre un peu plus sur un autre fournisseur, IDERA, sur la façon dont tout cela fonctionnera et sur la nature de la rampe d’accès, franchement. Nous allons donc entendre le Dr Robin Bloor, notre propre analyste en chef ici au sein du groupe Bloor; Dez Blanchfield, notre expert en données, puis notre bon ami Bill Ellis de IDERA. Donc, avec ça, je vais remettre les clés au Dr Robin Bloor, qui va les enlever.

Dr Robin Bloor: Oui, comme disait Eric, l'heure à laquelle SAP HANA nous a informés pour la première fois était de retour il y a de nombreuses années maintenant. Mais c'était très intéressant, ce moment était très intéressant. Nous nous sommes heurtés à une ou deux entreprises qui, d’une manière ou d’une autre, offraient une technologie en mémoire. Il était tout à fait clair que le souvenir allait arriver. Et ce n’est vraiment pas avant que SAP se soit levé et ait soudainement lancé HANA. Je veux dire, c'était choquant quand j'ai vu SAP faire ça. C'était comme si c'était un choc parce que je m'attendais à ce que ça vienne d'ailleurs. Je pensais que ce serait, vous savez, Microsoft, Oracle, IBM ou quelque chose comme ça. L'idée que SAP le faisait était vraiment très surprenante pour moi. Je suppose que cela n’aurait pas dû être le cas, car SAP est l’un des fournisseurs stratégiques et quasiment, vous savez, tout ce qui se passe dans l’industrie provient de l’un de ceux-ci.

Quoi qu’il en soit, l’important en mémoire, je veux dire, nous avons réalisé, nous en avions parlé, que dès que vous enregistrez en mémoire - il ne s’agit pas de mettre des données en mémoire, c’est de s’engager envers le l’idée que la couche de mémoire est l’enregistrement système - dès que vous migrez l’enregistrement système en mémoire, le disque commence à devenir un moyen de transfert unique et il devient une chose différente. Et je pensais que c'était très excitant quand cela a commencé à arriver. Donc, vraiment, c’est fini pour le disque en rotation. Le disque rotatif n'existera bientôt que dans les musées. Je ne sais pas trop quand cela arrivera bientôt, mais en gros, le disque à l'état solide est maintenant sur la courbe de la loi de Moore, il est déjà dix fois plus rapide que la rouille en rotation, comme ils l'appellent maintenant, et bientôt, il sera encore plus rapide et plus rapide. cela signifie que les cas d’utilisation du disque sont de moins en moins nombreux.

Et le fait curieux, le SGBD traditionnel, en fait, beaucoup de logiciels traditionnels ont été conçus pour faire tourner des disques, mais ils ont été conçus comme tels. Il avait toutes sortes de capacités de niveau physique qui étaient minutieusement programmées, afin d'exploiter un disque en rotation, rendant la récupération de données aussi rapide que possible. Et tout cela est emporté. En train de disparaître, vous savez? Et puis, il y avait évidemment une très - je ne sais pas, lucrative, je suppose, ce sera finalement - ouverture pour une base de données en mémoire qui a essayé d'occuper la position que les grandes bases de données, Oracle et Microsoft, SQL Server et DB2 d’IBM, cela occupait l’espace en mémoire et c’était très intéressant de voir cela avancer.

Parlons de la cascade de la mémoire; cela vaut la peine d’être mentionné. C’est aussi parce que j’en ai parlé que c’était simplement pour que tout le monde sache que lorsque je parle de mémoire, toutes les couches dont je parle sont en fait de mémoire. Mais vous réalisez soudainement qu’il s’agit d’un magasin hiérarchique, ce n’est pas simplement de la mémoire. Et par conséquent, pratiquement tout ce que nous avons appris il y a très longtemps sur le magasin hiérarchique s'applique également. Et cela signifie également que toute base de données en mémoire doit s'y retrouver, certains la parcourant simplement en RAM, vous savez. Et cela ne fait que grandir et il est maintenant mesuré en mégaoctets. Mais vous avez un cache L1 cent fois plus rapide que la mémoire, un cache L2 30 fois plus rapide que la mémoire et un cache L3 environ 10 fois plus rapide que la mémoire. Ainsi, vous savez, de nombreuses technologies - et bien assez - ont adopté la stratégie consistant à utiliser ces caches comme un espace de stockage permettant d’exécuter des tâches, notamment les technologies de base de données. Donc, vous savez, c’est une influence.

Nous avons ensuite l’émergence de 3D XPoint et du PCM d’IBM. Et c’est presque la vitesse de la RAM, c’est fondamentalement ce que se vantent ces deux fournisseurs. Les cas d'utilisation sont probablement différents. Les premières expérimentations dans ce domaine ne sont pas encore terminées. Nous ne savons pas quel impact cela aura sur l'utilisation de la RAM et sur la technologie de la base de données en mémoire. Vous avez alors la RAM contre le SSD. Actuellement, la RAM est environ 300 fois plus rapide, mais ce multiple est en diminution. Et SSD contre disque qui est environ 10 fois plus rapide, si je comprends bien. Donc, c’est le genre de situation que vous avez. C'est le magasin hiérarchique. En le regardant d'une autre manière, en mémoire, bien sûr, c'est complètement différent. Le diagramme supérieur présente donc deux applications, les deux pouvant peut-être accéder à une base de données, mais aussi aux données sur la rouille en rotation. Et la façon dont vous faites réellement circuler les choses sur le réseau, en fonction des dépendances existantes, est que vous avez un ETL. Cela signifie donc que, vous savez, les données se mettent à rouiller, puis se renvoient pour aller n'importe où, et pour aller n'importe où, elles retournent à la rouille, ce qui correspond à trois mouvements. Et gardez à l'esprit que la mémoire peut être cent mille fois plus rapide que la rotation d'un disque, et vous vous rendez certainement compte que le fait de prendre des données et de les mettre en mémoire rend le tout très différent.

Donc, vous auriez peut-être pensé que ce qui arriverait figurerait sur ce qui est affiché à l’écran ici, vous auriez peut-être pensé que, d’une manière ou d’une autre, le ETL passerait en réalité des données aux données en mémoire. Mais en réalité, cela pourrait ne pas être le cas; En fait, vous pourriez avoir la situation à droite ici où deux applications peuvent réellement utiliser la même mémoire. Une base de données en mémoire pourrait certainement vous donner cette capacité, à condition que vous disposiez du verrouillage et que tout le reste soit orchestré autour de celle-ci. Donc, cela ne modifie pas simplement la vitesse des choses, cela modifie la configuration réelle des applications et des flux de données.

L’impact est donc énorme. Donc, en mémoire est perturbateur, non? Et nous devrions tirer cela de ce que j'ai dit. Le traitement en mémoire est actuellement un accélérateur, mais il va devenir la norme. Il sera utilisé, s’appliquant en fonction de la valeur de l’application, et c’est donc très, très intéressant, que SAP sortira avec une version de son logiciel ERP en mémoire. Et des améliorations de latence jusqu’à trois ordres de grandeur tout à fait possibles, et même plus que cela est possible, en fonction de la façon dont vous le faites. Donc, vous obtenez d’énormes améliorations de vitesse en allant en mémoire. Et le résultat, S / 4 de SAP HANA - qu’ils ont publié, je pense, eh bien, les gens disent qu’il est toujours publié, mais il a certainement été publié l’année dernière -, cela change la donne compte tenu de la clientèle de SAP. Je veux dire, il y a 10 000 entreprises qui utilisent l'ERP de SAP et la plupart d'entre elles sont de grandes entreprises, vous savez. Donc, l’idée qu’ils aient tous intérêt à garder en mémoire et à utiliser leurs fondamentaux, parce que les ERP sont presque toujours des applications fondamentales que les entreprises utilisent, c’est un énorme changement de jeu qui sera très intéressant. Bien sûr, tout cela semble très bien, mais il doit être configuré de manière intelligente et doit être bien surveillé. Ce n’est pas aussi simple que cela puisse paraître.

Cela dit, je pense que je vais laisser passer la balle, à qui est ce type? Oh, l'Australien, Dez Blanchfield.

Dez Blanchfield: Très drôle. Toujours un acte difficile à suivre, Dr Robin Bloor. Merci de me recevoir aujourd'hui. Donc, grand sujet, mais passionnant. C’est pourquoi j’ai choisi une image que je pense souvent à l’esprit lorsque je pense aux lacs de données modernes, aux entrepôts de données d’entreprise et à mes petits joyaux de données. Donc ici, j'ai ce beau lac entouré de montagnes et de vagues qui s'échappent, et les vagues se brisent sur ces rochers. C’est, en quelque sorte, comment je visualise mentalement à quoi cela ressemble dans un grand lac de données de nos jours. Les vagues sont des travaux par lots et des analyses en temps réel sont jetées sur des données, ce qui constitue des pierres angulaires. Et quand je pense à cela comme à un lac physique, cela me rappelle un réveil qui me rappelle que, vous savez, la taille des entrepôts de données que nous construisons maintenant, la raison pour laquelle nous avons inventé cette monnaie et le terme de un lac de données, c’est qu’ils sont très grands et très profonds, et qu’il peut parfois y avoir des tempêtes. Et lorsque nous le faisons, vous devez toujours résoudre ce qui crée la tempête.

Donc, dans le thème de cette chose, il me semble que cet appel de sirène de l'informatique en mémoire est vraiment très fort et pour une bonne raison. Il apporte tant de gains commerciaux et techniques importants. C’est une discussion de quelques heures un autre jour.Mais le virage général vers l'informatique en mémoire, tout d'abord, je voudrais juste expliquer comment nous en sommes arrivés ici et ce qui rend cela possible, car cela jette les bases pour déterminer où certains des défis peuvent se situer en premier et ce que nous devons être conscients Dans notre monde qui consiste à abandonner l’ancien disque traditionnel contenant des données et à être paginé de disque en disque, en mémoire, en mémoire et en CPU, nous ne supprimons plus qu’une de ces couches entières, être le disque en rotation. Rappelez-vous, au tout début de l’informatique, nous n’avons pas évolué longtemps depuis le mainframe ou le milieu de gamme de ce que nous pensions à l’origine comme la mémoire principale et le stockage de batterie, vous savez.

Comme l’a dit la Dre Robin Bloor, l’approche que nous avons adoptée pour transférer les données dans l’architecture des ordinateurs n’a pas vraiment changé de façon spectaculaire depuis un certain temps, en fait, pendant quelques décennies. Si vous pensez au fait que, techniquement, l’informatique moderne existe, si vous pardonnez le jeu de mots, depuis une soixantaine d’années, vous savez, six décennies et plus et c’est dans le sens où vous pouvez acheter une boîte sur le plateau, pour ainsi dire. Le passage à une nouvelle architecture a vraiment eu lieu dans mon esprit lorsque nous avons abandonné la réflexion sur les ordinateurs centraux et moyens, ainsi que sur les architectures de mémoire centrale et de stockage de batterie, au profit des plus courageux ou des superordinateurs, en particulier Seymour Cray, où des éléments tels que les fonds de panier à barres croisées est devenu une chose. Au lieu d’avoir un seul itinéraire pour déplacer des données sur le fond de panier ou la carte mère, comme on l’appelle de nos jours. Et la mémoire en ligne, vous savez, de nos jours, les gens ne pensent pas vraiment à ce que cela signifie réellement quand ils disent DIMM et SIMM. Cependant, SIMM est une mémoire simple en ligne et DIMM est une double mémoire en ligne, et nous sommes devenus plus complexes que cela et il existe des dizaines de types de mémoire différents pour des choses différentes: certaines pour la vidéo, d'autres uniquement pour des applications générales, d'autres intégrées aux processeurs.

Donc, il y avait ce grand changement vers une nouvelle façon de stocker les données et d'y accéder. Nous sommes sur le point de traverser le même changement dans une autre génération, mais pas tant dans le matériel lui-même que dans l'adoption du matériel dans la logique métier et dans la couche logique de données, et c'est un autre grand changement de paradigme dans mon esprit. .

Mais brièvement sur la façon dont nous sommes arrivés ici. Je veux dire, la technologie matérielle améliorée, et améliorée de façon spectaculaire. Nous sommes passés des processeurs et l'idée d'un noyau était un concept assez moderne. Nous prenons pour acquis que nos téléphones ont deux ou quatre coeurs et que nos ordinateurs ont deux, voire même huit, coeurs sur le bureau et huit et 12 et plus sur, vous savez, les 16 et 32, même sur la plate-forme serveur. . Mais c’est une chose assez moderne: les cœurs sont devenus une capacité dans les CPU et nous sommes passés de 32 bits à 64 bits. Quelques événements importants se sont produits ici: nous avons obtenu des vitesses d'horloge plus élevées sur plusieurs cœurs, ce qui nous permet de faire des choses en parallèle et chacun de ces cœurs peut exécuter plusieurs threads. Tout à coup, nous pourrions exécuter beaucoup de choses sur les mêmes données en même temps. L’espacement des adresses de soixante-quatre bits nous a donné jusqu’à deux téraoctets de RAM, ce qui est un concept phénoménal, mais c’est maintenant une chose. Ces architectures de fond de panier à trajets multiples, vous savez, les cartes mères, il était une fois, vous ne pouviez faire les choses que dans un sens: aller et retour. Et comme à l’époque des ordinateurs Cray et de certains modèles de supercalculateurs de l’époque, et maintenant des ordinateurs de bureau et des PC classiques courants, du type rack, de type rack, car la plupart des ordinateurs modernes Les ordinateurs ont maintenant traversé cette ère de mainframe, de milieu de gamme, de micro-ordinateurs de bureau et nous les avons reconvertis en serveurs.

Et une grande partie de cette capacité de supercalculateur, de cette conception de niveau supercalculateur, a été poussée dans des composants standard courants. Vous savez, ces jours-ci, l’idée de prendre des centaines de PC, voire des milliers, d’ordinateurs montés sur rack très bon marché et de les installer sur des logiciels à code source libre comme Linux et de déployer les fonctions de SAP HANA, vous savez, nous prenons souvent cela pour acquis. Mais c’est une chose très nouvelle et excitante qui vient avec sa complexité.

Les logiciels ont également été améliorés, notamment la gestion de la mémoire et le partitionnement des données. Je n’entrerai pas dans les détails, mais si vous regardez l’important changement survenu au cours des 15 dernières années, voire moins, la gestion de la mémoire, en particulier les données dans la RAM et la manière dont les données sont partitionnées dans la RAM, Ainsi, comme le Dr Robin Bloor l’a indiqué plus tôt ou y a fait allusion, vous savez, les choses peuvent lire et écrire en même temps sans se gêner les unes les autres, au lieu d’avoir des délais d’attente. Beaucoup de fonctionnalités très puissantes comme la compression et le cryptage sur puce. Le chiffrement devient une chose plus importante et nous n’avons pas nécessairement à le faire dans les logiciels, dans la RAM, dans l’espace du processeur, c’est ce qui se passe réellement sur la puce de manière native. Cela accélère considérablement les choses. Et le stockage et le traitement distribués des données, encore une fois, des choses que nous avions autrefois supposées être celles des superordinateurs et du traitement parallèle, nous le prenons maintenant pour acquis dans l’espace, comme SAP HANA, Hadoop et Spark, etc.

L’intérêt de tout cela, c’est que cette informatique haute performance, les capacités HPC ont été apportées à l’entreprise et que celle-ci profite des avantages qui en découlent en termes de gains de performances, d’espace technologique, d’avantages techniques et d’avantages commerciaux, car vous savez, le délai de rentabilisation réduit est considérablement réduit.

Mais j’utilise cette image d’une histoire que j’ai lue il y a quelque temps et qui parle d’un homme qui a construit un boîtier pour PC avec Lego, car cela me vient toujours à l’esprit lorsque je pense à certaines de ces choses. Et c’est que, cela semble être une bonne idée au moment où vous commencez à le construire, puis vous vous retrouvez à mi-chemin et vous vous rendez compte qu’il est vraiment difficile de rassembler tous les éléments de Lego et de créer une chose solide, assez solide pour mettre une carte mère et ainsi de suite, cela va construire un boîtier pour un ordinateur personnel. Et finalement, vous réalisez que tous les petits morceaux ne sont pas collés correctement et que vous devez faire attention à ceux que vous collez ensemble pour le rendre solide. Et c’est une idée très mignonne, mais c’est un réveil à mi-parcours et vous vous rendez compte: «Hmm, j’aurais peut-être dû acheter un boîtier de PC à 300 $, mais je vais le terminer maintenant et en tirer des leçons."

Pour moi, c’est une excellente analogie avec ce qu’est la construction de plates-formes très complexes, car c’est très bien de le construire et de créer un environnement dans lequel vous avez des routeurs, des commutateurs, des serveurs et des racks. Et vous avez les processeurs, la RAM et le système d’exploitation regroupés. Et vous mettez quelque chose comme HANA par-dessus pour le traitement en mémoire distribué, le stockage de données et la gestion de données. Vous construisez la pile SAP en plus de cela, vous obtenez les capacités de la base de données, vous chargez ensuite vos données et votre logique métier et vous commencez à lui appliquer des lectures, des écritures, des requêtes, etc. Vous devez maîtriser les E / S, planifier et gérer les charges de travail, la mutualité, etc. Cette pile devient très complexe, très rapidement. C’est une pile complexe en soi si elle ne concerne qu’une seule machine. Multipliez cela par 16 ou 32 machines, cela devient très, très simple. Lorsque vous multipliez des centaines, voire des milliers, de machines, pour passer de 100 téraoctets à pétaoctets, c’est un concept effrayant, et c’est la réalité à laquelle nous sommes confrontés.

Alors, vous vous retrouvez avec quelques choses qui ont également contribué à changer ce monde, et c’est que l’espace disque est devenu ridiculement bon marché. Vous savez, il était une fois, vous dépensiez entre 380 et 400 000 dollars pour un gigaoctet de disque dur alors que c’était un énorme tambour de la taille d’un outil nécessitant un chariot élévateur à fourche pour le ramasser. De nos jours, il ne reste plus qu’un ou deux cents par gigaoctet d’espace disque. Et RAM a fait la même chose. Soit dit en passant, les deux courbes en J de ces deux graphiques représentent une décennie. En d'autres termes, nous envisageons deux blocs de 10 ans, soit 20 ans de réduction des prix. Mais je les ai divisées en deux courbes en J parce que finalement celle de droite est devenue une ligne pointillée et que vous ne pouviez pas voir le détail de celle-ci, je l’ai redimensionnée. Un gigaoctet de RAM il y a 20 ans valait environ six millions et demi de dollars. De nos jours, si vous payez plus de trois ou quatre dollars pour un gigaoctet de RAM pour du matériel de base que vous êtes en train de voler.

Cette réduction importante des prix au cours des deux dernières décennies signifie que nous pouvons désormais aller au-delà de l’espace disque et passer directement à la RAM, non seulement au niveau en mégaoctets, mais également au niveau en téraoctets et traiter la RAM comme un disque. Le problème, c’est que la RAM était naturellement éphémère - c’est-à-dire quelque chose qui dure longtemps - nous avons donc dû trouver des moyens d’assurer la résilience dans cet espace.

Et donc, ce que je veux dire ici, c'est que l'informatique en mémoire n'est pas pour les âmes sensibles. Jongler avec ces données en mémoire à très grande échelle et leur traitement constitue un défi intéressant. comme je l’ai dit plus tôt, ce n’est pas pour les âmes sensibles. L’expérience acquise avec l’informatique en mémoire à grande échelle et à haute densité nous a donc appris que la complexité que nous construisons engendre des risques dans de nombreux domaines.

Mais regardons cela du point de vue de la surveillance et de la réponse. Lorsque nous pensons aux données, elles commencent dans l’espace disque, elles sont placées dans des bases de données dans des disques, nous les mettons en mémoire. Une fois qu’il est en mémoire, distribué et qu’il existe des copies, nous pouvons en utiliser plusieurs copies. Si des modifications sont apportées, elles peuvent être répercutées au niveau de la mémoire au lieu d’être obligées d’aller et de revenir en arrière sur le fond de panier. deux niveaux différents, il entre et sort de la mémoire. Nous nous sommes retrouvés avec cette plate-forme matérielle à très grande échelle qui nous permet de le faire maintenant. Lorsque nous parlons d’hyperscaling, il est plus difficile à des niveaux ridiculement denses, à une mémoire à très haute densité, à un très grand nombre de processeurs, de cœurs et de threads. Nous avons maintenant des pathologies de réseau très complexes à prendre en charge, car les données doivent être transférées sur le réseau à un moment donné pour être transmises entre les nœuds et les clusters.

La redondance des pannes de périphériques devient alors un problème et nous devons surveiller des périphériques et des éléments de celle-ci. Nous devons intégrer à cette plate-forme une redondance résiliente des pannes de données et la surveiller. La résilience de la base de données distribuée doit être intégrée afin que nous puissions surveiller la plate-forme de base de données et la mettre en pile. Nous devons surveiller la planification du traitement distribué, ce qui se passe dans certains processus jusqu’à scrutation et requête, ainsi que le chemin emprunté par cette requête et la façon dont la requête est structurée et exécutée. À quoi ressemble-t-il, quelqu'un a-t-il effectué un SELECT * sur «bla» ou at-il réellement effectué une requête très intelligente et bien structurée qui leur permettra d'obtenir la quantité minimale et minimale de données entrant dans l'architecture du fond de panier? Nous avons des charges de travail multi-locataires, plusieurs utilisateurs et plusieurs groupes exécutant la même ou plusieurs charges de travail, des traitements par lots et une planification en temps réel. Et nous avons ce mélange de traitement par lots et de traitement en temps réel. Certaines choses fonctionnent seulement régulièrement - horaire, quotidien, hebdomadaire ou mensuel - d'autres sont à la demande. Quelqu'un pourrait être assis avec une tablette et vouloir faire un rapport en temps réel.

Et encore une fois, nous arrivons à ce point, que la complexité qui en découle n’est pas seulement un défi, mais plutôt effrayante. Et nous vérifions dans les faits qu'un seul problème de performance, un seul problème de performance en soi, peut avoir un impact sur l’ensemble de l’écosystème. Et donc, nous nous retrouvons avec ce défi très amusant de découvrir, bon, où sont les impacts? Et nous avons le défi de savoir si nous sommes réactifs ou proactifs. Regardons-nous la chose en temps réel et voyons-nous quelque chose «bouger» et y répondons-nous? Ou avons-nous constaté une certaine tendance et sommes-nous conscients de la nécessité de nous y engager de manière proactive? Parce que la clé est que tout le monde veut quelque chose de rapide, pas cher et facile. Mais nous aboutissons à ces scénarios, à ce que j’aime mentionner et à ma phrase préférée de l’énigme de Donald Rumsfeld - qui, à mon avis, s’applique à tous ces scénarios de grande complexité - et c’est que nous nous sommes connus parce que c’est quelque chose nous avons conçu et construit et il fonctionne comme prévu. Nous avons des inconnus connus en ce sens que nous ne savons pas qui gère quoi, quand et où, si c'est à la demande. Et nous avons des inconnus inconnus et c’est ce que nous devons surveiller et vérifier. Nous savons tous que la réalité est que vous ne pouvez pas gérer quelque chose que vous ne pouvez pas mesurer.

Donc, pour disposer des bons outils et de la bonne capacité de surveillance de la planification de notre processeur, recherchez les temps d'attente, découvrez pourquoi il est nécessaire d'attendre dans les files d'attente de planification dans les pipelines. Que se passe-t-il en mémoire, quel type d’utilisation est utilisé, quel type de performance nous obtenons de mémoire insuffisante? Les éléments sont-ils partitionnés correctement, sont-ils distribués? Avons-nous suffisamment de nœuds en conservant des copies pour faire face aux charges de travail qui leur sont attribuées? Que se passe-t-il avec l'exécution de processus en dehors des processus du système d'exploitation? Les travaux en cours d'exécution, les applications individuelles et les démons qui les prennent en charge? Que se passe-t-il dans ces processus, en particulier la structuration des requêtes et comment ces requêtes sont-elles exécutées et compilées? Et la santé de ces processus tout en pile? Vous savez, encore une fois, en arrière aux temps d'attente, est-ce que la planification est correcte, faut-il attendre, où l'attend-il, attend-il les lectures de mémoire, les E / S, la CPU, les E / S sur le réseau jusqu'à l'utilisateur final? ?

Et puis, revenons à ce point que je viens de mentionner rapidement avant de terminer. C’est cela, comment abordons-nous la résolution des problèmes et les délais de réponse? Sommes-nous en train de regarder en temps réel et de réagir, ce qui est le scénario le moins idéal, mais même dans ce cas, il vaut mieux le faire que de ne pas savoir et demander au service d'assistance d'appeler et de dire que quelque chose s'est mal passé et que nous devons le localiser ? Ou le faisons-nous de manière proactive et regardons-nous ce qui va arriver? En d'autres termes, voyons-nous que nous manquons de mémoire et devons ajouter plus de nœuds? Sommes-nous en train d’analyser les tendances, faisons-nous la planification de la capacité? Et dans tout cela, surveillons-nous les temps d’exécution historiques et pensons-nous à la planification de la capacité ou la surveillons-nous en temps réel et procédons-nous de manière proactive au rééchelonnement et à l’équilibrage de la charge? Et sommes-nous conscients des charges de travail en cours d'exécution? Savons-nous qui fait quoi dans notre cluster et pourquoi?

Les calculs en mémoire sont très puissants, mais avec ce pouvoir, c’est presque une de ces choses, comme une arme chargée et vous jouez avec des munitions réelles. Vous pouvez éventuellement vous tirer une balle dans le pied si vous ne faites pas attention. Donc, cette puissance de calcul en mémoire signifie simplement que nous pouvons exécuter beaucoup plus et rapidement sur des ensembles de données très distribués et discrets. Mais alors, la demande des utilisateurs finaux est plus forte. Ils s'habituent à ce pouvoir et ils le veulent. Ils ne s’attendent plus à ce que les travaux prennent des semaines et les rapports apparaissent sur du vieux papier ordinaire. Et puis, au-delà de tout cela, nous avons la maintenance quotidienne entourée de correctifs, de mises à jour et de mises à niveau. Et si vous envisagez un traitement 24 h / 24, 7 j / 7 avec calcul en mémoire, gestion de ces données, gestion de la charge de travail, tout est en mémoire, techniquement sur une plate-forme éphémère, si nous allons commencer à appliquer des correctifs, des mises à jour et des mises à niveau dans Là-bas, il y a toute une gamme d'autres problèmes de gestion et de surveillance. Nous avons besoin de savoir ce que nous pouvons mettre hors ligne, quand nous pouvons le mettre à niveau et quand nous le remettons en ligne. Et cela m’amène à mon dernier point, à savoir que plus nous sommes de plus en plus complexes dans ces systèmes, plus un être humain ne peut rien faire en se suçant le pouce et en tirant l’oreille. Il n'y a plus d'approches en quelque sorte d'intestin. Nous avons vraiment besoin des outils appropriés pour gérer et fournir ce haut niveau de performance en informatique et en gestion de données.

Et, gardant cela à l’esprit, je vais donner la parole à notre ami d’IDERA et l’apprendre comment ils ont abordé ce défi.

Bill Ellis: Merci beaucoup. Je partage mon écran et c'est parti. C’est donc très humiliant de simplement considérer toute la technologie, ainsi que tous les gens qui nous ont précédés, pour mettre à disposition ce matériel disponible en 2017. Nous allons parler d’analyse de charge de travail pour SAP HANA, c’est-à-dire une solution de surveillance de base de données: complète, sans agent, en temps réel, elle établit un historique et vous permet de voir ce qui s’est passé. SAP S / 4 HANA offre le potentiel d'amélioration, plus rapide et moins cher. Je ne dis pas que c'est peu coûteux, je dis simplement que c'est moins cher. Traditionnellement, vous utilisiez une instance de production principale - exécutant probablement Oracle dans un magasin plus important, potentiellement SQL Server -, puis vous utilisiez ce processus ETL et disposiez de multiples versions de la vérité. . Et cela coûte très cher car vous payiez pour le matériel, le système d’exploitation, la licence Oracle pour chacun de ces environnements. Et en plus de cela, il faudrait que les gens réconcilient une version de la vérité avec la version suivante de la vérité. Et donc, ce traitement ETL à versions multiples était juste lent et très, très lourd.

Ainsi, HANA, essentiellement une instance HANA, peut potentiellement remplacer toutes ces autres instances. C’est donc moins cher, car c’est une plate-forme matérielle, un système d’exploitation, au lieu de multiples. Et donc, le S / 4 HANA change vraiment tout et vous regardez essentiellement l’évolution de SAP de R / 2 à R / 3, les différents packs d’améliorations. L’ancien système est désormais disponible jusqu’en 2025. Il vous reste donc huit ans pour migrer. Bien que nous voyions des gens, vous savez, s’y frotter les pieds parce qu’ils savaient que cela arriverait et, finalement, vous savez, ECC utilisera HANA et vous devez donc vraiment vous y préparer et comprendre la technologie.

Donc, une base de données, aucun processus ETL, aucune copie à réconcilier. Donc, encore une fois, plus vite, mieux et moins cher. HANA est en mémoire. SAP fournit le logiciel, vous fournissez le matériel. Il n’ya pas de tables agrégées. L’une des choses qu’ils suggèrent, en quelque sorte, quand vous réfléchissez à cela, c’est que vous ne voulez pas vous lancer dans cette aventure, nous allons simplement acheter le plus gros serveur disponible. Ils suggèrent que vous redimensioniez suffisamment à l'avance votre environnement SAP et disent en gros que vous ne migrez pas une quantité de données de 20 ans.Je pense que l’archivage est quelque chose qui est sous-utilisé dans l’informatique, dans l’ensemble, et pas seulement dans les magasins SAP. Ensuite, SAP a passé beaucoup de temps à réécrire son code natif pour ne pas utiliser SELECT *. SELECT * renvoie toutes les colonnes de la table, ce qui est particulièrement coûteux dans une base de données en colonnes. Ce n’est donc pas une bonne idée pour SAP HANA. Ainsi, pour les boutiques qui ont besoin de beaucoup de personnalisation et de nombreux rapports, vous souhaiterez rechercher cette option et spécifier des noms de colonne au fur et à mesure de la migration de tout vers HANA.

Nous aimons dire que HANA n'est pas une panacée. Comme toutes les bases de données, toutes les technologies, il doit être surveillé et, comme mentionné précédemment, vous avez besoin de chiffres pour gérer les mesures excessives, mesure par mesure. Et l’une des choses dont je parle dans le domaine IDERA est que chaque transaction commerciale interagit avec le système d’enregistrement, et dans ce cas, il s’agira de HANA. Ainsi, HANA devient la base des performances de vos transactions SAP, l'expérience de l'utilisateur final. Et donc, il est vital qu’il continue à fonctionner à toute vitesse. Cela devient un point d’échec unique, et lorsqu’on parle aux gens, c’est un problème qui peut surgir lorsque vous avez un utilisateur final qui utilise peut-être ces données en temps réel et qui a une requête ad hoc qui, potentiellement, n’est pas tout à fait droite. Peut-être ne rejoignent-ils pas les tables et ont-ils créé une jointure externe, un produit partisan, et consomment en réalité beaucoup de ressources. HANA le reconnaîtra et finira par tuer cette session. C’est pourquoi la partie cruciale de notre architecture vous permettra de capturer cela dans l’histoire afin que vous puissiez voir ce qui s’est passé dans le passé et reconnaître ces situations.

Voyons maintenant l’analyse de la charge de travail pour SAP HANA. Ceci est la version 1, nous vous invitons donc vivement à nous rejoindre dans ce voyage. C’est un produit de IDERA. C’est complet, mais simple. En temps réel avec les tendances. Santé de l'hôte, santé d'instance. Nous suivons les états d’attente, les requêtes SQL, les consommateurs de mémoire et les services. C’est donc à quoi ressemble l’interface graphique et vous pouvez voir d’emblée qu’elle est activée pour le Web. J'ai en fait ouvert cette solution fonctionnant en direct sur mon système. Il y a des choses cruciales que vous voulez regarder. Nous sommes en quelque sorte subdivisés en différents espaces de travail. Le type le plus crucial est ce qui se passe au niveau hôte à partir d’une utilisation du processeur et de la mémoire. Vous ne voulez certainement pas en arriver à un point de vue de swapping ou de thrashing. Ensuite, vous abordez en gros ce qui se passe dans les tendances, depuis le temps de réponse, les utilisateurs, les instructions SQL, c’est-à-dire le moteur de l’activité sur le système.

L’une des choses avec IDERA est que, vous savez, rien ne se passe dans une base de données tant qu’il n’ya pas d’activité. Et cette activité sont des instructions SQL provenant de l'application. Donc, mesurer les instructions SQL est absolument vital pour pouvoir détecter la cause première. Alors, allons de l'avant et explorons. Ainsi, au niveau de l'hôte, nous pouvons réellement jeter un coup d'œil à la mémoire, au suivi dans le temps, à l'utilisation du processeur de l'hôte. Reculez, vous pouvez consulter les instructions COBSQL. Maintenant, une des choses que vous allez voir du côté de notre architecture est que ces informations sont stockées hors de HANA. Par conséquent, si quelque chose devait arriver à HANA, nous capturons des informations jusqu'à, Dieu nous en préserve, une situation d'indisponibilité . Nous pouvons également capturer tout ce qui se passe sur le système afin que vous ayez une visibilité claire. Une des choses que nous allons faire est de présenter les instructions SQL par ordre pondéré. Donc, cela va prendre en compte le nombre d’exécutions, c’est donc la consommation de ressources agrégée.

Vous pouvez donc entrer ici dans des métriques individuelles. Quand cette instruction SQL a-t-elle été exécutée? Et puis, la consommation de ressources dépend en grande partie du plan d’exécution. Nous pouvons donc en tenir compte de manière continue. HANA est en mémoire. C’est très parallèle. Il y a des index primaires sur chaque table, ce que certaines boutiques choisissent de créer un index secondaire pour résoudre certains problèmes de performances. Ainsi, en quelque sorte, savoir ce qui s’est passé avec le plan d’exécution de certaines instructions SQL peut être très utile. Nous allons également examiner les services, encore une fois, la consommation de mémoire, cartographiée dans le temps. L’architecture: c’est donc une solution autonome que vous pouvez télécharger à partir de notre site Web et dont l’architecture repose sur le Web.

Vous pouvez avoir plusieurs utilisateurs connectés à une instance particulière. Vous pouvez surveiller les instances locales de SAP HANA. Et nous conservons un historique glissant de quatre semaines dans notre référentiel et celui-ci est auto-géré. Pour le déployer, c’est plutôt simple. Vous avez besoin d'un serveur Windows. Vous devez le télécharger. La plupart des serveurs Windows auront un framework .NET intégré fourni avec une licence. Vous accéderez ainsi à l’assistant d’installation piloté par Setup.exe, qui ouvrira en réalité un écran, un contrat de licence, et vous réduirez ce plan en cliquant sur "Suivant". Où voulez-vous que HANA être installé? Viennent ensuite les propriétés de la base de données. Il s’agit de votre connexion à SAP HANA. Il s’agit donc d’une surveillance sans agent de l’instance HANA. Ensuite, nous donnerons un aperçu, c’est le port sur lequel nous communiquons par défaut. Cliquez sur «Installer». Lancez HANA et commencez à créer l'historique. Donc, juste un peu des informations du tableau des tailles. Nous pouvons surveiller jusqu'à 45 instances HANA et vous voudrez utiliser ce système sur une échelle mobile pour déterminer le nombre de cœurs, la mémoire et l'espace disque dont vous aurez besoin. Et cela suppose que vous ayez une histoire de roulement complète de quatre semaines.

Ainsi, pour résumer rapidement, nous examinons l’état du serveur, l’intégrité des instances, l’utilisation du processeur et de la mémoire. Quels sont les consommateurs de mémoire, quels sont les vecteurs d'activité, quels sont les services? Les instructions SQL sont essentielles - quels sont les états d'exécution? Montrez-moi les plans d'exécution, quand les choses se sont-elles exécutées, fournissent-elles des tendances? Cela va vous donner en temps réel et une histoire de ce qui s'est passé. Et comme je l’ai mentionné plus tôt, notre histoire étant distincte de celle d’HANA, nous allons capturer des éléments périmés et effacés de l’histoire d’HANA. Ainsi, vous pouvez voir la consommation réelle des ressources sur votre système en raison de l'historique séparé.

Ainsi, comme je l’avais mentionné sur le site Web de l’IDEA, sous Produits, vous pouvez facilement le trouver. Si vous voulez essayer ceci, vous êtes certainement le bienvenu. Voyez comment il vous fournit des informations et des informations supplémentaires sur ce site. Donc, toutes les parties intéressées sont plus qu'heureux de se lancer. À présent, dans les produits de portefeuille proposés par IDERA, il existe également un moniteur de transaction SAP ECC, appelé Precise for SAP. Et ce qu’il fait, que vous utilisiez un portail ou juste un ECC direct, il va réellement capturer la transaction de l’utilisateur final d’un clic sur un disque, jusqu’à l’instruction SQL et vous montrer ce qui se passe.

Je ne vous montre maintenant qu’un seul écran de résumé. Je voudrais que vous reteniez quelques éléments à retenir de cet écran de résumé. C’est le temps de réponse de l’axe Y, l’heure de l’axe X plus le jour. Dans cette vue des transactions, nous affichons le temps du client, le temps de mise en file d'attente, le temps du code ABAP, le temps de la base de données. Nous pouvons capturer les identifiants d’utilisateur final, les codes T et vous pouvez filtrer et afficher les serveurs via une transaction particulière traversée. Ainsi, de nombreux magasins sont situés à l’avant-garde sous VMware. Vous pouvez ainsi mesurer ce qui se passe sur chacun des serveurs et procéder à une analyse très détaillée. Cette vue de transaction concerne donc la transaction de l'utilisateur final dans tout le paysage SAP. Et vous pouvez trouver cela sur notre site Web sous Produits Outils APM et ce serait la solution SAP que nous avons. L’installation de ce logiciel est un peu plus compliquée, c’est pourquoi il ne suffit pas de le télécharger et de l’essayer, comme c’est le cas pour HANA. C’est quelque chose pour lequel nous travaillerions ensemble pour concevoir, mettre en œuvre la transaction globale pour vous.

Ainsi, pour un troisième récapitulatif rapide, l’analyse de la charge de travail de SAP HANA, complète, sans agent, en temps réel, offre un historique. Nous offrons la possibilité de télécharger et d'essayer pour votre site.

Donc, avec ça, je vais revenir à Eric, Dez et Dr. Bloor.

Eric Kavanagh: Oui, peut-être Robin, des questions de votre part, puis Dez après Robin?

Dr Robin Bloor: D'accord. La première chose que je voudrais dire, c’est que j’aime vraiment la vue des transactions car c’est exactement ce que je voudrais dans cette situation. J’ai fait beaucoup de travail - eh bien, il ya longtemps - de surveiller les performances, et c’était le genre de chose; Nous n’avions pas les graphiques à cette époque, mais c’était le genre de chose que j’avais particulièrement envie de pouvoir faire. Pour que vous puissiez, d'une manière ou d'une autre, vous injecter partout où le problème se produit.

Ma première question est, vous savez, la plupart des gens implémentent S / 4 d’une manière ou d’une autre, en sortie de boîte, vous savez. Lorsque vous vous impliquez dans une implémentation donnée de S / 4, avez-vous découvert qu'elle était bien implémentée ou finissez-vous par découvrir des choses qui pourraient inciter le client à reconfigurer? Je veux dire, comment ça se passe?

Bill Ellis: Eh bien, chaque magasin est un peu différent. Et il y a différents modèles d'utilisation, différents rapports. Pour les sites dotés de rapports ad hoc, je veux dire qu’il s’agit en fait d’un caractère générique sur le système. Ainsi, l’un des éléments cruciaux est de commencer à mesurer et de déterminer le niveau de base, ce qui est normal pour un site particulier, où ce site particulier, en fonction de leurs habitudes d’utilisation, met le système en tension. Et ensuite faire des ajustements à partir de là. En règle générale, l’optimisation de la surveillance n’est pas ponctuelle, c’est une pratique courante qui consiste à surveiller, à ajuster, à perfectionner et à améliorer le système pour que la communauté des utilisateurs finaux puisse mieux servir l’entreprise.

Dr Robin Bloor: Donc, lorsque vous mettez en œuvre - je veux dire, je sais que c’est une question difficile à répondre car elle varie en fonction de la taille de la mise en œuvre - mais combien de ressources la capacité de surveillance IDERA utilise-t-elle? Cela fait-il une différence ou est-ce que cela n’interfère pas? Comment ça marche?

Bill Ellis: Oui, je dirais que les frais généraux sont d'environ 1 à 3%. De nombreux magasins sont tout à fait disposés à le sacrifier, car vous pourrez éventuellement le racheter en termes d’optimisation. Cela dépend des habitudes d'utilisation. Si vous créez un paysage complet, cela dépend des technologies individuelles surveillées. Donc, en quelque sorte, le kilométrage varie, mais comme nous en avons parlé, il vaut certainement mieux dépenser un peu plus pour savoir ce qui se passe que de rester aveugle. En particulier, vous savez, nous sommes en janvier et vous entrez dans le traitement de fin d’année et vous regroupez 12 mois de données. Vous savez que pour obtenir des résultats, il est absolument essentiel de faire rapport aux organismes de réglementation, aux banques et aux actionnaires, pour une performance critique.

Dr Robin Bloor: Droite. Et juste un peu, de votre point de vue - car je suppose que vous êtes impliqué dans toute une série de sites SAP - quelle est l’ampleur du mouvement de la base de clients SAP vers S / 4? Je veux dire, est-ce que c’est quelque chose qui est, vous savez, qu’il ya une sorte d’avalanche de clients enthousiastes, ou est-ce juste un filet régulier? Comment voyez-vous cela?

Bill Ellis: Je pense qu'il y a quelques années, je dirais que c'était un orteil. Maintenant, je dirais que les gens sont, en quelque sorte, aux genoux. Je pense que vous savez, étant donné le calendrier, les gens vont être vraiment immergés dans HANA au cours des deux prochaines années. Et donc la surveillance, la transformation, vous savez, je pense que la majorité des clients sont, en quelque sorte, sur la courbe d'apprentissage ensemble. Et donc je pense que nous ne sommes pas tout à fait au stade de l’avalanche comme vous l’avez dit, mais je pense que nous sommes sur le point de procéder à la transformation majeure vers HANA.

Dr Robin Bloor: Ainsi, les sites que vous avez vus ont déjà opté pour cette solution, adaptent-ils également HANA à d’autres applications ou sont-ils, d’une manière ou d’une autre, complètement absorbés par le bon fonctionnement de ce produit? Quelle est la photo là-bas?

Bill Ellis: Oui, souvent, les gens vont intégrer SAP à d’autres systèmes, en fonction des modules, etc., donc il y en a un peu. Je ne vois pas encore vraiment de gens déployer d’autres applications sur HANA. C’est certainement possible. C’est donc davantage le paysage de l’infrastructure SAP.

Dr Robin Bloor: Je suppose que je ferais mieux de vous remettre à Dez. J'ai pris votre temps. Dez?

Dez Blanchfield: Je vous remercie. Non, c’est tout bon. Deux très rapides, juste pour essayer de définir le thème. SAP HANA existe depuis quelques années maintenant et les gens ont eu la chance de l'examiner. Si vous deviez nous donner une estimation approximative du pourcentage de personnes qui le dirigent - car il y en a beaucoup -, pensez-vous que le pourcentage du marché que vous connaissez est actuellement parti des implémentations SAP traditionnelles à SAP sur HANA? Est-ce que nous cherchons 50/50, 30/70? Quel genre de pourcentage du marché voyez-vous des personnes qui ont fait la transition et qui ont pris la décision maintenant par rapport aux gens qui se contentent d'attendre que les choses s'améliorent ou s'améliorent ou changent ou peu importe le cas?

Bill Ellis: Oui, je dirais que, de mon point de vue, je mettrais le pourcentage autour de 20%. SAP a tendance à être des entreprises traditionnelles. Les gens ont tendance à être très conservateurs et leur peuple va donc traîner les pieds. Je pense que cela dépend également de, savez-vous, utilisez-vous SAP depuis longtemps, ou êtes-vous une sorte de PME qui a peut-être déployé SAP récemment? Et donc, il y a un certain nombre de facteurs, mais dans l’ensemble, je ne pense pas que le pourcentage soit de 50/50. Je dirais que 50% sont au moins bavards et que HANA fonctionne quelque part dans leur centre de données.

Dez Blanchfield: La conclusion intéressante que vous avez évoquée tout à l’heure est qu’il s’agit en quelque sorte d’un fait accompli et que le temps presse physiquement et littéralement. Pensez-vous que les gens ont envisagé de le faire? Quel est le sentiment général de la population de comprendre qu’il s’agit d’un changement de plate-forme transitoire, ce n’est pas simplement une option, c’est en train de devenir la solution par défaut?

Et du point de vue de SAP, je suis sûr qu'ils poussent dans cette direction car ils ont un avantage concurrentiel important en termes de performances, mais ils doivent également, je suppose, contrôler le retour de la plate-forme au lieu de passer au tiers. base de données du parti, ils le ramènent maintenant à leur propre plate-forme. Pensez-vous que les entreprises l’ont réellement? Pensez-vous que les gens comprennent cela et se préparent maintenant? Ou est-ce toujours, en quelque sorte, une chose peu claire, pensez-vous, hors du marché?

Bill Ellis: Je ne pense pas que le SAP hésite à communiquer et que les personnes qui ont visité SAPPHIRE ont vu HANA partout. Donc, je pense que les gens le savent bien, mais la nature humaine étant ce qu'elle est, vous savez, certaines personnes traînent un peu les pieds.

Dez Blanchfield: Parce que je pense que la raison pour laquelle je posais cette question et que vous devrez me pardonner, mais c’est pour cela que je suis d’accord. Je pense qu’ils n’ont pas hésité à le communiquer. Je pense que le signal est sorti à bien des égards. Et je suis d’accord avec vous. Je ne sais pas encore si tout le monde a sauté. Vous savez, les entreprises traditionnelles, les très grandes entreprises qui exploitent ce système, continuent à bien des égards, ne traînant pas tout à fait leurs pieds, mais essayant seulement de faire face à la complexité du changement. Parce que je pense que la seule chose que votre outil, et certainement votre démonstration d’aujourd’hui, a mise en évidence, et pour moi, une chose importante à retenir, j'aimerais que tout le monde écoute et écoute aujourd’hui pour s’asseoir et faire attention à votre réflexion: c’est un outil maintenant qui simplifie ce processus dans mon esprit. Je pense qu'il y a un groupe de DSI très nerveux et leurs équipes qui pensent: «Comment puis-je passer du SGBDR traditionnel, systèmes de gestion de base de données relationnelle, que nous connaissons depuis des décennies, à un tout nouveau paradigme de calcul et la gestion du stockage dans un espace qui est encore relativement courageux? »dans mon esprit. Mais c’est un inconnu à bien des égards, et très peu de personnes ont opéré ce changement dans d’autres domaines, ce n’est pas comme si elles possédaient un autre secteur d’activité qui avait déjà adopté le calcul en mémoire. Donc, c’est un mouvement tout ou rien dans leur esprit.

Donc, l’une des choses que j’ai le plus enlevée à tout cela - je vais vous poser une question dans une minute - est que la peur, à présent, est apaisée à bien des égards et qu’aujourd’hui, Si j'étais un CIO à l'écoute, je penserais en quelque sorte: «Comment vais-je faire cette transition? Comment vais-je garantir la même capacité que celle que nous avons sur la plate-forme de gestion de base de données relationnelle et les années d'expérience des administrateurs de base de données, sur une nouvelle plate-forme pour laquelle nous n'avons actuellement pas les compétences? ». Ma question est la suivante: , pensez-vous que les gens ont compris que les outils sont déjà là avec ce que vous proposez et qu'ils peuvent, en quelque sorte, prendre une profonde inspiration et un soupir de soulagement que la transition ne soit pas aussi effrayante qu'elle aurait pu l'être auparavant à cet outil étant disponible? Pensez-vous que les gens l’ont compris ou s’agit-il encore, en quelque sorte, d’une chose qu’ils ne font que lutter contre la transition vers le calcul en mémoire et le stockage en mémoire, par opposition aux combinaisons à l’ancienne école de NVMe, Flash et disque?

Bill Ellis: Oui, il existe donc sans aucun doute une multitude de technologies et d’outils permettant d’afficher graphiquement ce qui se passe et ce qui est en train de se produire et qui permet de localiser très facilement les principaux utilisateurs de ressources. Je veux dire, cela aide à simplifier les choses et aide vraiment le personnel de la technologie à bien comprendre. Ils vont être en mesure de savoir ce qui se passe et de comprendre toute la complexité. Les outils sur le marché sont donc certainement utiles et nous proposons donc une analyse de la charge de travail pour SAP HANA.

Dez Blanchfield: Oui, je pense que le point positif de ce que vous nous avez montré aujourd'hui est que, dans la surveillance du matériel, du système d'exploitation, même dans le suivi d'une partie de la charge de travail, comme vous l'avez dit, les outils ont été là pour quelques temps. Le problème pour moi, en particulier chez HANA, c’est que nous n’avons pas nécessairement eu la possibilité d’obtenir une loupe, d’y jeter un coup d’œil et d’envisager ce que fait votre outil avec ce qui se passe avec les requêtes et comment elles sont traitées. être structuré et où cette charge est.

Avec les déploiements que vous avez vus jusqu'à présent, étant donné que vous êtes littéralement le plus influent dans ce domaine de votre plate-forme au monde, voici quelques-uns des gains rapides que vous avez vus: avez-vous des connaissances anecdotiques à partager Nous avons abordé quelques-uns des moments de la eureka, les moments aha, où les gens ont déployé le jeu d’outils IDERA, où ils ont découvert des choses qu’ils ne savaient pas, c’est dans leurs plateformes et leurs performances. Avez-vous de bons exemples anecdotiques montrant que les gens viennent de le déployer, ne sachant pas vraiment ce qu’ils ont eu et tout d’un coup disparu, «Wow, nous ne savions pas qu’il y en avait?»

Bill Ellis: Oui, une des grandes limites des outils natifs est que, si une requête emballée est annulée, les informations sont vidées et vous n’avez donc pas l’historique. En stockant l’historique hors ligne, comme une requête folle, vous aurez un historique, vous saurez ce qui s’est passé, vous pourrez voir le plan d’exécution, etc. Cela vous permet en quelque sorte d’aider la communauté des utilisateurs finaux à mieux fonctionner, à rédiger des rapports, etc. L’histoire est donc très agréable à avoir. Et une des choses que je voulais montrer est que vous pouvez regarder en temps réel jusqu’à quatre semaines, puis vous pouvez facilement zoomer sur une période d’intérêt et exposer ensuite l’activité de conduite sous-jacente. Le simple fait d’avoir cette visibilité est très utile pour savoir quel goulet d’étranglement s’est créé.

Dez Blanchfield: Vous avez mentionné que le système était multi-utilisateur, une fois que celui-ci était déployé, et j’ai été très impressionné par le fait qu’il était sans agent et qu’il était en réalité totalement neutre. Est-il normal qu'un seul déploiement de votre outil soit ensuite disponible pour tous, à partir du centre d'opérations réseau du NOC, surveillant l'infrastructure principale sous-jacente du cluster jusqu'à l'équipe d'application et de développement? Est-ce la norme et que vous déployez une seule fois et qu'ils partagent cette information, ou pensez-vous que les personnes pourraient avoir des instances de modèle examinant différentes parties de la pile? A quoi cela ressemble-t-il?

Bill Ellis: Ainsi, l’équipe de base aura généralement un très fort intérêt pour les fondements technologiques de ce qui se passe dans SAP. De toute évidence, il y a plusieurs équipes qui supporteront des paysages entiers. La pièce de HANA est simplement axée sur cela. Je vais simplement passer par défaut à l’équipe de base SAP en tant que premier consommateur d’informations.

Dez Blanchfield: Droite. Cela me frappe, cependant, que si j'ai une équipe de développement ou même pas juste au niveau du code, mais si j'ai une équipe de scientifiques de données ou d'analystes effectuant un travail analytique sur les ensembles de données qui y sont stockés, en particulier étant donné qu'il y a un effort important pour que la science des données soit appliquée à tout ce qui se passe au sein des organisations maintenant, dans mon esprit - et corrigez-moi si je me trompe - il me semble que cela les intéressera également beaucoup, car à bien des égards, Une des choses sérieuses que vous pouvez faire dans un environnement d’entrepôt de données est de lâcher un informaticien et de lui permettre de commencer à faire des requêtes ad hoc. Avez-vous eu des exemples de ce genre de choses où des boutiques vous ont appelé: «Nous avons lancé une équipe de science des données sur la chose, ça fait vraiment mal, que pouvons-nous faire pour eux par rapport à ce que nous faisons? surveillance et gestion opérationnelles traditionnelles? »Est-ce même une chose?

Bill Ellis: Eh bien, oui, je changerais un peu cette question et je répondrais que si l'on prenait conscience de la performance dans le développement de la production d'assurance qualité, vous savez, plus tôt vous stockez, moins de problèmes, moins de surprises. . Donc, absolument.

Dez Blanchfield: Par la suite, bon nombre des outils avec lesquels j'ai une expérience - et je suis sûr que Robin sera d’accord - beaucoup d’outils ici, si vous avez un SGBDR volumineux, vous avez vraiment besoin de compétences très élevées. administrateurs de base de données bien informés et expérimentés. Certaines des exigences en matière d’infrastructure et de plate-forme qui accompagnent SAP HANA parce qu’elles sont actuellement prises en charge sur des distributions particulières alignées à partir de matériel particulier, etc., au meilleur de ma connaissance. Vous savez, il y a des gens avec des décennies d'expérience qui ne sont pas les mêmes. Ce que j’observe, c’est que ce n’est pas forcément nécessaire avec cet outil. Il me semble que vous pouvez déployer votre outil, le donner à de nouveaux visages et leur donner tout de suite le pouvoir de trouver ce qui ne fonctionne pas bien. Est-il vrai que la courbe d’apprentissage est assez courte pour s’y habituer et tirer parti de son utilisation? Vous savez, j’ai le sentiment général que vous n’avez pas besoin de 20 ans d’expérience dans la conduite d’un outil pour voir la valeur immédiatement. Seriez-vous d’accord pour dire que c’est le cas?

Bill Ellis: Oh, tout à fait, et pour ce qui est de votre point de vue, je pense que le succès d'un déploiement dépend en grande partie de la planification et de l'architecture de l'environnement SAP HANA. Et puis, il y a sans aucun doute beaucoup de complexité, beaucoup de technologie sur laquelle elle est bâtie, mais ensuite, il s’agit simplement de surveiller les habitudes d’utilisation de ce qui se passe. Donc, bien que ce soit plus complexe, il est d’une certaine manière emballé et quelque peu simplifié. C’est un très pauvre.

Dez Blanchfield: Avant de céder la parole à Eric, je sais qu’il a quelques questions, notamment de la part de questions-réponses qui semblaient intéressantes, et j’ai hâte d’entendre la réponse. Voyage traditionnel pour quelqu'un - vous avez dit plus tôt que vous pouvez l'obtenir, vous pouvez le télécharger et l'essayer. Pouvez-vous récapituler rapidement pour l’écoute populaire aujourd’hui ou pour ceux qui pourraient la rejouer plus tard? Quelles sont les deux ou trois étapes rapides pour mettre la main sur une copie, la déployer et l’essayer dans leur environnement avant de l’acheter? A quoi cela ressemble-t-il? Quelles sont les étapes pour cela?

Bill Ellis: Ouais. IDERA.com et allez simplement dans Produits et vous verrez l’analyse de la charge de travail pour SAP HANA. Il y a une page de téléchargement. Je pense qu’ils vous demanderont des informations de contact et que le produit est fourni avec une clé de licence afin que vous puissiez l’installer avec le fichier Setup.exe et commencer à fonctionner très rapidement, je pense.

Dez Blanchfield: Alors, ils peuvent aller sur votre site web, ils peuvent le télécharger. Je me souviens de l'avoir regardé il y a quelque temps et j'ai vérifié deux fois la nuit dernière également, vous pouvez demander une démo, de mémoire, lorsqu'un membre de votre équipe vous guidera, en quelque sorte? Mais vous pouvez réellement le télécharger gratuitement et le déployer localement dans votre propre environnement, à votre rythme, n’est-ce pas?

Bill Ellis: Oui.

Dez Blanchfield: Excellent. Eh bien, je pense que plus que tout, c’est probablement ce que je conseillerais personnellement aux gens de faire: extraire une copie du site Web, récupérer une partie de la documentation car je sais qu’il ya beaucoup de bon contenu pour le faire, et juste l'essayer. Mettez-le dans votre environnement et voyez ce que vous trouvez. Je soupçonne qu’une fois que vous avez jeté un coup d’œil sur vos environnements SAP HANA avec l’outil IDERA, vous allez trouver des éléments que vous ne saviez pas réellement y être.

Ecoutez, merci beaucoup pour cela et merci pour le temps consacré aux questions-réponses avec Robin et moi. Eric, je vais vous revenir, car je sais que certaines questions-réponses émanent également de nos participants.

Eric Kavanagh: Oui, juste un très rapide ici. Donc, l’un des participants fait un très bon commentaire en parlant simplement de l’évolution de la situation. Autrefois, la mémoire était étouffée, ralentie par la pagination fréquente, actuellement, le processeur est en train de s'étouffer avec trop de données en mémoire. Vous savez, il y a des problèmes de réseau. Ce sera toujours une cible mouvante, non? Selon vous, quelle est la trajectoire actuelle en ce qui concerne les goulets d’étranglement et les points sur lesquels vous devrez concentrer votre attention?

Bill Ellis: Ouais. Jusqu'à ce que vous mesuriez, il est difficile de savoir. L'un des aspects des instructions SQL est qu'elles vont être les moteurs de la consommation de ressources. Ainsi, dans le cas où vous auriez, par exemple, une consommation importante de mémoire ou de processeur, vous pourrez déterminer quelle activité a entraîné cette consommation de ressources. Maintenant, vous ne voudriez pas nécessairement le tuer, mais vous voulez aussi en être conscient et, en quelque sorte, ce qui se passe, combien de fois cela se produit, etc. Nous sommes, en quelque sorte, encore nouveaux pour ce qui est de l’ensemble des réponses apportées aux différentes situations. Et donc, c’est une excellente question et le temps nous le dira. Nous aurons plus d'informations au fil du temps.

Eric Kavanagh: C'est ça. Eh bien, vous êtes dans un espace très intéressant. Je pense que vous allez voir beaucoup d'activité au cours des prochains mois et des deux prochaines années car je sais que SAP, comme vous l'avez suggéré dans notre appel au contenu, a fourni une longue et belle rampe d'accès pour les personnes effectuant la transition. à HANA. Mais néanmoins, cette rampe a une fin et à un moment donné, les gens vont devoir prendre des décisions sérieuses, donc le plus tôt sera le mieux, non?

Bill Ellis: Absolument.

Eric Kavanagh: Très bien, nous avons passé une heure supplémentaire sur Hot Technologies. Vous pouvez trouver des informations en ligne, insideanalysis.com, ainsi que techopedia.com. Concentrez-vous sur ce site pour de nombreuses informations intéressantes, y compris une liste de toutes nos archives de ces diffusions Web précédentes. Mais merci à vous tous, merci à nos amis de l'IDERA, à Robin et bien sûr à Dez. Et nous vous rattraperons la semaine prochaine. Merci encore pour votre temps et votre attention. Prends soin de toi. Bye Bye.