Articles

livre blanc

L’organisation de la supervision [partie 1]

Cet article s’adresse avant tout aux responsables supervision des DSI ayant un parc, des enjeux, des contraintes suffisamment importants pour justifier de l’existence d’une « équipe » supervision en tant que telle, c’est-à-dire composée de plus d’une ressource qui travaille en dilettante sur le sujet.

Comme dans les sports collectifs, l’optimisation de cette équipe devient alors un atout pour la DSI, car d’elle dépendra :

  • Votre capacité à maintenir votre supervision dans le temps
  • Votre capacité à gérer efficacement de nouvelles demandes
  • Votre capacité à intégrer de nouveaux équipements à votre parc
  • L’image de maîtrise du SI qui pourra être perçue par votre client (donc l’image de la qualité du travail fourni par votre DSI, soit dit en passant).

Vous avez dû vous en rendre compte, ces cinq dernières années, beaucoup de choses ont changé dans la supervision :

  • les produits open-source ont commencé à remplacer les solutions propriétaires
  • la gestion fine des budgets est devenue essentielle, notamment la maîtrise des dépenses
  • les DSI ne sont plus aussi « autonomes » qu’elles l’étaient autrefois, leur fonctionnement étant inspecté de près par les clients ou les intervenants métier, qui eux portent beaucoup d’importance à savoir ce pourquoi ils payent et à avoir le plus de visibilité possible sur leurs applications.

L’exploitation, et la supervision, plus particulièrement, ont donc muté; et il faut une organisation forte pour pouvoir y faire face, pour pouvoir garantir une qualité de service qui repose avant tout sur :

  • des sociétés de service dont les marges vont décroissant[1], et qui ne peuvent plus se permettre de faire de la sur-qualité,
  • des solutions que les éditeurs essaient de positionner à tout prix (et qui dans ce cadre ont bien souvent signé des accords avec les sociétés de services précitées afin de pousser leurs solutions)

Nous verrons dans ce chapitre quelle est l’importance que peut avoir la supervision, quels sont les rôles dévolus à l’équipe supervision, quels sont les profils existants, les types d’organisations existantes, ainsi que les liens entre l’équipe supervision et son écosystème, afin de viser une proposition de valeur.

L’importance de l’équipe supervision

Quand je suis devenu manager de crise d’un grand groupe énergétique, je me suis rendu compte qu’en tant qu’ancien responsable de l’outillage d’exploitation, et plus particulièrement de la supervision/hypervision, j’étais l’une des personnes sans doute les mieux placées pour tenir ce rôle[2]. L’équipe supervision, si l’organisation est rationnelle, est vraiment au cœur de l’exploitation, et elle est amenée à interagir avec toutes les entités.

Si les experts supervision ne peuvent pas maîtriser toutes les disciplines, comme dit précédemment, leur rôle central leur permet d’acquérir des compétences suffisantes pour comprendre le fonctionnement de ces disciplines, que ce soit lors de mises en œuvre de supervision, ou alors en phase de résolution d’un incident d’exploitation.

Mais d’expérience, pour être intervenu dans de nombreuses DSI, la supervision n’est pas forcément considérée à sa juste valeur.

La preuve la plus pertinente concerne son positionnement. Si elle est rattachée à une entité d’expertise, qui elle même peut être rattachée à une entité qui est transverse à l’exploitation des applications, la supervision ne peut se positionner qu’en tant qu’ « exécutante » d’un schéma beaucoup plus large, et se positionne donc très loin des problématiques des responsables applicatifs ou des clients.

Et pourtant… La politique actuelle voulant que les personnes des équipes métiers, qui tiennent les cordons de la bourse, aient une visibilité sur l’exploitation de leurs applications, qu’ils soient rassurés et impliqués dans la démarche, les DSI gagneraient beaucoup à mieux positionner la supervision. Son rôle devrait normalement aller bien plus loin que le rôle qui est bien souvent dévolu aujourd’hui.

D’ailleurs, le titre de « supervision » est lui-même obsolète. On ne demande plus aux équipes de faire de la supervision, mais de faire de l’APM[3] au sens large, c’est à dire de garantir la performance applicative en positionnant des outils permettant de mesurer cette performance d’une part, mais aussi de garantir son maintien dans le temps, au travers de solutions de supervision bien paramétrées et d’une organisation interne qui accompagne les points de mesure mis en place, ce toujours dans l’idée de réactivité en cas d’incident :

  • limiter les indisponibilités
  • être capable de communiquer sur les incidents de manière précise
  • prendre des engagements sur les temps de remise en service

Je n’insisterais pas sur ce point, mais j’ai eu l’occasion de voir des entités où la gestion des performances était mise en avant, et il n’en est ressorti que du positif dans les relations avec le métier, qui est content d’avoir face à lui des intervenants qui ont une vue transverse, et qui sont en capacité de lui donner des indications de coûts pour une qualité de gestion de la performance souhaitée (car on ne déploie pas tous les outils de supervision, même au sein d’une DSI, pour toutes les applications, les outils retenus dépendant bien souvent des contraintes client et de son budget).

Certains outils sont très chers, parce qu’ils rendent un service à forte valeur ajoutée. Il m’est arrivé de devoir déployer un outil d’introspection pour une application critique du SI. Cet outil permettait autant de superviser en temps réel tous les composants JAVA et leur fonctionnement, et en même temps pouvait être utilisée pour débugger le code, trouver les bouts de codes cycliques…

Un tel outil coûtant plusieurs centaines de milliers d’euros pour une seule application, on imagine mal sa généralisation, et pourtant il répond à un besoin bien réel !

Je conclurais donc ainsi : l’équipe « supervision » doit d’une manière ou une autre disposer d’une passerelle vers les clients. Car le service qu’elle est en mesure de fournir répond aux questions que se posent les clients, bien plus que tous les jargons d’experts techniques qui leurs sont desservis aujourd’hui. De mes nombreuses expériences, je tire des retours similaires : les clients sont plus mécontents du fait d’être complètement écartés, lors de pannes concernant leurs applications, du flux d’informations concernant leur remise en service que de l’indisponibilité en elle-même. L’idée comme quoi le client confie les clés et ne souhaite pas voir ce qui se passe est au mieux dépassée, au pire dangereuse. La transparence permet de bâtir une relation saine et une communication claire. Il est beaucoup plus simple d’expliquer à un client qui est capable aujourd’hui de sentir les faiblesses de son système là où il doit investir, que de lui préconiser des choses sans lui donner de visibilité sur le fond du problème. Un lien avec l’équipe supervision et la mise en œuvre des outils adéquats, avec son accord, peut vraiment faire avancer les choses.

 

[1] Beaucoup d’entreprises fusionnent leurs contrats d’infogérance, et maintiennent une pression forte sur les TJM qui est difficile à tenir pour les fournisseurs.

[2] J’ai d’ailleurs publié une note en 2010 sur le manager de crise, présentant les compétences attendues pour le poste.

[3] Application Performance Management, supervision et gestion de la performance et de la disponibilité applicative (http://en.wikipedia.org/wiki/Application_performance_management)

livre blanc

Les spécifications de la supervision [partie 2]

Cet article clos la partie spécifications de la supervision en vous présentant notre vision d’une mise en place de spécifications pertinentes. Encore une fois, n’hésitez pas à commenter.

Comment mettre en place des spécifications pertinentes ?

Ne perdez jamais de vue qu’il n’existe pas de spécifications universelles, mais des spécifications adaptées à votre contexte, et à votre organisation. Le but premier est que les supervisions qui découleront de ces spécifications satisfassent vos experts et leur permettent d’assurer un MTTR[1] optimal.

Travailler en Synergie

La définition des spécifications ne doit pas être le seul fait d’équipes de supervision ou d’un prestataire extérieur. La raison en est simple : les équipes qui seront impactées par les supervisions mises en place seront les équipes d’experts et de pilotes d’applications. Il faut donc s’assurer que ces intervenants seront en mesure d’intervenir pour chacune des alarmes définies. Si tel n’est pas le cas, l’alarme génèrera un bruit de fond (le fameux « pourquoi je me fais toujours déranger par cette alarme alors que j’ai déjà dit qu’on peut rien y faire ? ») qui pourra être réellement dommageable en période d’astreinte, nuire à la motivation et à l’efficacité du traitement. De plus ces alarmes perdureront dans la supervision, sans correction apportée.

Viser une couverture des alertes pertinentes uniquement

On peut vouloir être sûr à 100% que pour chaque incident d’exploitation, la supervision disposera de l’alerte qui va bien. On peut. Maintenant, dans les faits, faire de la « sur-qualité » a un impact énorme sur la supervision. La plupart des clients ne disposent pas de vue service, ni d’un hyperviseur. Ce qui signifie que la corrélation entre alertes, ce qui permet de n’afficher que les alertes pertinentes, n’est pas fonctionnelle. Donc à vouloir couvrir toutes les alertes, vous risquez de noyer l’information importante dans un flot de remontées inutiles, surtout dans le bac à événements. La manière la plus pertinente de travailler et de vous concentrer sur les alertes où vous maîtrisez l’impact (où tout du moins l’expert maîtrise l’impact).

J’ai vu des clients ou absolument tout était remonté parce que l’expert voulait avoir toutes les informations possibles sur les incidents. En fait, ils se servaient de l’outil de supervision comme outil d’expertise. Je préfère le dire de suite : ça n’a aucun sens. La supervision a pour objectif, je le rappelle, d’être efficace, et de réduire le temps d’intervention sur incident. Cela sous entend de réduire au maximum les informations qui s’y trouvent afin que les pilotes puissent traiter les incidents le plus rapidement possible et transférer leur résolution aux experts. Les experts ont leurs propres outils, mais ceux-ci ne doivent pas être le bac à évènements de la supervision. Avoir 99 alertes en permanence, pour une équipe de pilotage, ça n’est pas gérable. Appliquez le principe de Pareto[2], vous ne vous en porterez que mieux, et vos exploitants aussi.

Bâtir des templates

Cela peut paraître une évidence, et pourtant je rencontre encore des clients chez qui ce n’est pas fait. Quelle que soit la taille du parc informatique, afin d’optimiser la supervision, il est important de bâtir des templates. Cela aura plusieurs effets directs :

  • La typologie d’alarme sera limitée et donc la compréhension plus simple
  • Les seuils seront connus et donc maîtrisés
  • Vous aurez la garantie d’une supervision « minimum » pour tout produit ajouté à votre SI (par application du template)
  • Cela vous permettra de bâtir un catalogue de ce que vous pouvez superviser
  • L’équipe supervision aura beaucoup moins de mal à maintenir la plateforme.

Bref, le seul point négatif que l’on peut voir dans le fait de bâtir des templates, c’est de se dire que l’on ne peut pas toujours tout faire rentrer dans les templates, et qu’il faut les faire évoluer dans le temps.

Limiter les exceptions

Cette remarque vient à la suite de la précédente. Une exception, un seuil spécifique, c’est un peu de perte dans la maîtrise du SI. Les exceptions doivent être des supervisions qui le justifient réellement. En plus de cela, si vous mettez en place des templates et décidez (pour une raison bien justifiée) de ne pas les appliquer sur un serveur, deux ans plus tard, vous aurez toutes les difficultés du monde à vous rappeler pourquoi ce serveur était une exception. Et si un incident se déclenche du fait de la non application du template, on vous le reprochera. Les templates sont réfléchis en général, et sont là pour garantir la qualité de la supervision. Les exceptions se doivent de répondre à un besoin REELLEMENT unique, car si elles touchent plusieurs serveurs, il faut peut être se poser la question de l’utilité d’ajouter un nouveau template qui couvrira ce périmètre.

Bien répartir les responsabilités

Chez 90% des clients que j’ai croisé, il y a un fonctionnement non naturel qui est appliqué, que je connais bien – pour l’avoir vécu durant des années – et qui est source de tensions inutiles entre équipe de supervision et reste de l’exploitation. Il s’agit de la responsabilité de la définition des seuils de supervision pour une application. Pourtant les plaintes sont toujours les mêmes : « je t’avais dit de surveiller ce serveur, pourquoi cet incident s’est produit sans qu’on le détecte ? ».

Vous avez déjà entendu ce message ? Je parie que oui. Et on a beau jeu d’expliquer alors que les experts supervision ne PEUVENT pas être des experts réseaux/systèmes/applicatifs/stockage et j’en passe…  et qu’il est évident que les experts supervision n’ont pas la science infuse. En fait, le problème vient de l’aggrégation de deux faits spécifiés plus haut : le premier est qu’il faut absolument que des spécifications, des templates et un catalogue aient été réalisés et mis à disposition des équipes applicatives, après avoir été conjointement bâti avec les experts, et le second est que seules les équipes qui pilotent les applications savent ce qu’elles veulent voir supervisé sur ces applications, savent ce qui est essentiel. Alors si elles ne le précisent pas, les équipes supervision ne peuvent le deviner. Vous l’avez compris, la définition des supervisions à mettre en œuvre doit être de la responsabilité des équipes applicatives. A condition qu’on leur ait fourni les outils nécessaires, bien entendu.

Ne pas laisser d’alarmes orphelines

Depuis que j’ai commencé à faire de la supervision, en 2001, je me suis appuyé sur cette expression : « une alarme, une consigne ». Les intervenants du pilotage opérationnel sont bien souvent des personnes peu qualifiées, qui n’ont pas une grande expérience de l’exploitation mais à qui on demande de faire les 3*8. Ils ne peuvent donc savoir que telle alarme est liée au réseau et qu’il suffit de relancer le processus oracle quand il tombe pour cette application. Il faut que tout leur soit écrit, même si la consigne se limite à « transférer l’alarme au niveau 2 réseau ».

Définir des consignes de niveau 1 autant que possible pour décharger le support niveau 2

Beaucoup d’organisation limitent les actions du pilotage au niveau 0, c’est à dire que leur travail consiste à faire boîte aux lettres. « Une alarme ? Je contacte untel ». A mon avis, c’est une énorme erreur, et à plus d’un titre. Je peux commencer à citer le fait que de faire relais téléphonique, ça n’est pas motivant. Quand on ne sait pas ce que l’on fait ni l’impact que cela a, on le fait bien souvent mal, sans en saisir la portée. Dans une société pour laquelle j’ai travaillé plusieurs années, les personnes du pilotage demandaient en plus des consignes pour chaque alerte de disposer d’informations sur l’application, et sur son importance. Elles souhaitaient être impliquées dans le travail de la DSI, et je pense que c’est essentiel. En plus, toute action de niveau 1 que l’on a décrite et documentée permet soit de préparer une automatisation de la résolution de l’incident (gestion des problèmes) ou tout du moins d’éviter que cette action soit traitée par les experts du niveau 2, qui limitent alors leurs interventions à résoudre des incidents nécessitant réellement de la technicité. La charge de travail est allégée, d’une part, et la résolution de l’incident est accélérée, car les personnes du pilotage sont en première ligne sur tout incident, d’autre part.

Maintenir un référentiel

Le catalogue permet de définir ce qui peut être fait. Le référentiel permet de connaître les instanciations qui ont été faites du catalogue, et de maîtriser ce qui est supervisé et ce qui ne l’est pas au sein du SI. Le fait de ne pas disposer d’un référentiel rend très dépendant de l’installation qui a pu être faite par le passé (et donc du manque de maîtrise), car sans maîtrise de ce qui a été réalisé par le passé, il est impensable d’en faire évoluer le contenu.

Le référentiel doit être lié dynamiquement à la solution de supervision, afin de pouvoir être « sûr » de ce qui a été mis en place. Ce n’est pas chose simple, car bien souvent les équipes sont amenées à faire évoluer la supervision « dans l’urgence », sans que le référentiel soit mis à jour, avec le risque derrière de perdre de l’information au futur, et de ne plus se rappeler ce qui a été fait et à quelle date.

Dans la même veine, il peut être pertinent de maintenir les consignes dans un référentiel qui permettra un accès facile à celles-ci, notamment dans le cadre d’une exploitation courante, mais aussi dans le cadre de leur mise à jour par les équipes applicatives. Le mieux étant de s’affranchir du papier ou des consignes situées dans « des documents d’exploitation » pour viser l’efficacité, et l’usage d’un mediawiki relié en direct à la solution de supervision (les solutions TeeM Monitoring Work Orders et Merethis Centreon Knowledge Base sont bâties dans cet esprit).


[1] Mean Time To Repair, temps nécessaire à la remise en service d’une application

[2] http://fr.wikipedia.org/wiki/Principe_de_Pareto, ou encore loi des 80/20, phénomème empirique observé spécifiant que environ 80 % des effets sont le produit de 20 % des causes

livre blanc

Les spécifications de la supervision [partie 1]

Cet article poursuit le travail engagé de dégrossissement de l’activité des responsables supervision. Bonne lecture, et encore une fois n’hésitez pas à nous faire part de vos remarques.

Les spécifications de la supervision

Les spécifications de la supervision, c’est la seconde grande épine dans le pied d’un responsable d’équipe supervision. Il s’agit en effet d’un exercice difficile : Où commencer ? Où s’arrêter ? bien souvent, les spécifications sont réalisées « sur le tas », et on se retrouve avec une supervision inadéquate.

Mais plutôt que de traiter de manière rhétorique le sujet, je vous propose de commencer en vous présentant des exemples, bien réels, de choix partis d’un bon sentiment qui ont mené à de véritables catastrophes en terme de supervision. Rappelez-vous une chose : si la supervision est mal paramétrée, alors soit il faudra plus de gens pour la maintenir (€), soit elle ne sera pas efficace, et donc l’impact se portera sur la relation avec votre (ou vos) client(s).

Cas 1 : La formation sur le tas

J’ai rencontré ce cas dans de nombreuses entreprises dans lesquelles la DSI a grossi dans un faible laps de temps, et pour laquelle les compétences initialement prévues ne sont plus adaptées.

C’est l’exemple d’une société qui avait un parc d’une trentaine de serveurs, et pour laquelle la supervision n’était pas la priorité, donc elle était confiée à un expert système qui avait installé du Nagios, avec peut être du CENTREON, et définissait le paramétrage dont il pensait avoir besoin pour superviser ses machines. Puis vint le jour ou le parc se mit à compter 400 serveurs (merci la virtualisation) et l’expert système s’est retrouvé à conserver cette activité sur un coin de table, sauf que la maîtrise n’était plus du tout la même, les attentes en hausse et la ressource bien incapable de répondre au besoin.

Dans le cas énoncé ci-dessus, on ne se retrouve avec aucune spécification. La supervision au fil de l’eau sans réflexion d’ensemble peut être adaptée à de petits contextes, mais devient vite caduque quand on augmente le nombre de machines ou la complexité des demandes de supervision.

Cas 2 : L’achat d’une solution propriétaire

Ce cas est aussi extrêmement fréquent. Les éditeurs vendent des solutions qui arrivent avec des packages de supervision en standard, qui incluent tous les indicateurs dont vous pouvez avoir besoin mais surtout beaucoup qui ne sont pas forcément utiles.

On se retrouve donc avec une console submergée d’alertes qu’on ne sait pas traiter, et la situation tourne vite au cauchemar, à savoir un impact réel sur la qualité de service, et l’impossibilité de faire appel au support de l’éditeur car ce paramétrage dépend d’un intégrateur qui n’est plus là.

Bilan : de l’argent dépensé et un résultat plus que douteux. Là encore, il manque le travail de spécifications qui reste spécifique sur bien des points au contexte du client.

Cas 3 : la migration entre 2 solutions

Cet exemple est particulièrement illustratif d’un point important à aborder : il ne faut pas confondre « remontées standards d’une solution éditeur » et spécifications.

Une société dotée d’un grand parc informatique avait pris le pari de migrer sa supervision de la solution d’un éditeur à celle d’un autre. Le choix technique avait été fait de cataloguer toutes les supervisions et remontées de la solution de l’ancien éditeur, et de faire le nécessaire pour retrouver toutes ces supervisions dans la solution de l’éditeur cible. Bilan :

  • 2 ans de projet.
  • Une supervision très mal adaptée à l’outil cible
  • 30 000 lignes de scripts en tout genre

Comme je le disais plus haut, ce n’est pas parce qu’un outil offre des supervisions qu’il faut les mettre en œuvre. Le premier travail consiste toujours à purger la supervision pour la limiter à l’essentiel : les spécifications.

Intérêt des spécifications

Malgré les messages passés au travers de ces exemples, je pense que vous ou vos managers avez du mal à valoriser le fait de « gâcher du temps » dans la réalisation de spécifications. C’est pourquoi il me semble important de détailler plus avant les apports, et surtout les intérêts connexes :

  • Mettre en place des spécifications, cela permet de maîtriser ce que l’on veut voir remonter et s’assurer que nos experts sauront quoi faire des alarmes produites
  • Mettre en place des spécifications, cela permet de disposer d’un catalogue de supervision qui pourra être enrichi par la suite.
  • Mettre en place des spécifications, cela permet d’impliquer les experts dans le processus de mise en supervision et c’est un facteur de succès pour une DSI
  • Mettre en place des spécifications, cela permet de garantir une réactivité optimale sur incidents
  • Mettre en place des spécifications, cela permet de diminuer le temps d’actions sans valeur ajoutée des pilotes.
  • Mettre en place des spécifications, cela permet de rassurer le client sur l’atterrissage de toute nouvelle application.

(à suivre : comment mettre en place des spécifications pertinentes)

livre blanc

Une analyse des coûts de la supervision [partie 3]

Cet article clos notre analyse des coûts de la supervision sur un exemple… instructif.

Exemple

Une petite démonstration valant plus qu’un long discours, voici un petit exemple qui je l’espère vous permettra de vous mettre les idées plus au clair. Vous pouvez vous même remplacer les hypothèses prises par les informations réelles de votre entreprise, afin de vous faire un ordre d’idée de ce fameux coût réel de la supervision.

Hypothèse

Nous allons prendre le cas de la DSI d’un grand compte. Cette DSI héberge 2000 serveurs, pour la plupart virtualisés, pour environ 100 applications.

Cette DSI a fait le choix d’une solution de supervision propriétaire, et a mis en place de la supervision et de l’hypervision, ce qui représente un coût important, mais les attentes de ses clients lui demandent tout un tas de garanties qui font qu’elle a préféré s’appuyer sur un éditeur pour avoir une garantie de support.

Elle a aussi fait le choix de mettre en place des scénarios de supervision applicative sur 10 de ses applications critiques, en passant aussi par la solution d’un éditeur.

Les équipes de supervision de cette DSI sont constituées de 5 personnes à temps plein, deux assurant le récurrent, un travaillant sur la partie robots, un responsable de l’équipe qui tient aussi le rôle de pilote de l’amélioration continue et un profil d’architecte qui gère aussi l’hyperviseur.

Les experts quant à eux sont composés de 4 experts réseaux (Deux sites et une DMZ), de 5 experts système (pour supporter les souches unix et windows), et de 4 experts middleware (dont 2 pour oracle, et 2 pour les solutions Web). La DSI n’a pas fait le choix de SAP.

Les applications sont réparties par groupe représentant des clients. 4 équipes gèrent la totalité, et on compte en tout 8 pilotes d’applications.

Le pilotage fait du 3*8 et est composé de 7 personnes, qui ont en charge la gestion des incidents (outils de ticketing) et le suivi de la supervision.

Voilà qui définit le contexte de notre client imaginaire.

Passons maintenant au détail de l’analyse financière.

Coûts de licences

L’entreprise a pris une solution de supervision propriétaire

Coût d’acquisition 100 K€, 20K€ de maintenance par an

Elle a aussi investi dans les solutions d’hypervision de cet éditeur

Coût d’acquisition 250 K€, 50K€ de maintenance par an

Elle a fait l’acquisition de robots pour superviser ses applications critiques

Couts d’acquisition 100K€, maintenance 20 K€ /an

Coûts de l’équipe de supervision

L’équipe est présente toute l’année. Les profils sont trois profils consultants, un profil consultant sénior, un profil chef de projet.

Le coût d’un consultant standard est évalué à 100 K€ par an. Celui d’un architecte et d’un chef de projet à 150 K€.

Coût par an des ressources supervision : 600K€.

Coût des équipes d’exploitation

Sur les 7 ressources affectées au pilotage, 5 d’entre elles ont la supervision comme outil de travail quotidien.

Une ressource de pilotage est estimée à 80 K€ par an.

Coût par an des ressources d’exploitation : 400K€

Coût des infrastructures de supervision

L’infrastructure qui permet de réaliser la supervision est composée de 5 VM hébergeant du Linux ; l’hypervision rajoute une VM supplémentaire. Les robots quand a eux occupent 5 VM différentes.

L’infrastructure globale de supervision occupe donc 11 VMs[1].

Le coût d’hébergement estimé d’une VM est de 1500€/mois[2].

Coût par an de l’infrastructure : 200 K€

Coût de la charge transverse

Les diverses demandes de mise en supervision, les suivis de nouvelles corrections et les évolutions de scénarios suite à des mises à jour entraînent une charge équivalente à un ETP dans les équipes applicatives.

La définition des alarmes, les dérangements suite à alarmes non maîtrisées, le maintien d’un catalogue et les évolutions suite aux évolutions des solutions des éditeurs entraînent un équivalent de charge d’un ETP côté experts système et côté experts middleware.

Soit un coût de 110K€+180K€*2= 470 K€

coût par an de la charge transverse : 470 K€

Bilan

Un simple graphe devrait donc permettre de comprendre ou se situent les coûts réels de la supervision :

cout annee 1

Coût total année 1 : 2,1 M€

Sur la première année, les licences représentent 21% du coût, et les charges humaines 57%.

Dès la seconde année, l’écart s’aggrave :

cout annee 2

Coût total année 2 : 1,7 M€

Le volet humain représente 68% de la charge, alors que celui des licences ne représente plus que 5%.

Un dernier mot pour finir cette section ;

Il est amusant de voir que dans beaucoup d’organisations, les seuls coûts de licences et de ressources supervision seront pris en compte quand on tentera d’évaluer le coût de la supervision.

On aura donc un coût évalué en année 1 de 1,05 M€ et un coût évalué ensuite de 0,69 M€, soit une estimation fausse à chaque fois qui prend en compte à chaque fois moins de la moitié  du coût réel.

Pensez-vous toujours que les licences, si elles sont un levier d’économies, sont réellement le cœur du problème ? Peut être que l’optimisation des ressources en améliorant la qualité de la supervision aura un impact bien supérieur…


[1] Cette infrastructure correspond à ce que j’ai pu voir, au fil des audits, chez plusieurs clients.

[2] J’ai conservé d’un ancien poste une matrice devis qui donnait ce chiffre, en ajoutant les coûts d’hébergement, d’exploitation, de licences et de renouvellement de l’infrastructure.

livre blanc

Une analyse des coûts de la supervision [partie 2]

Voici la seconde partie de notre article, qui présente cette fois le détail des coûts.

Quels gains pour quelle supervision ?

Nous allons aborder plus loin la question du coût réel de la supervision. Mais avant cela, pour poursuivre sur le point précédent, je pense qu’il est important de détailler plus avant les bonnes questions à se poser lorsque l’on décide de mettre en place une solution de supervision pour garantir l’application d’un client. Parce qu’à l’heure où tout le monde resserre les budgets, il serait malavisé de définir une solution « unique » pour toutes les applications. Cela permettrait sans doute de baisser le coût à l’application, mais cela aurait un impact évident sur le coût global.

Voici la méthodologie que je propose, qui repose sur plusieurs points.

La plateforme de supervision modulaire

Il existe différents outils, et tous ne s’appliquent pas à tous les besoins clients. Si la plateforme de supervision « standard » présente un intérêt à être mise en œuvre pour tous les clients, il n’en va pas de même pour tous les outils qui l’entourent.

Définissez donc votre supervision comme suit :

  • Une supervision standard pour toutes les applications (système, middleware, réseau…)
  • Une supervision applicative pour les applications qui demandent une investigation plus pointue,
  • Des robots réservés aux clients ou il y a soit un besoin « d’étalon », soit un besoin de réactivité, soit une demande express client
  • Des analyseurs de performance pour les applications critiques qui le nécessitent.

A quel besoin client répondre ?

Le client souhaitera par nature la meilleure des supervisions pour le coût le moins élevé possible. Il n’est un secret pour personne que lors des spécifications, pour un client tout est nécessaire, et lorsqu’on passe à la facture, en général on se rend compte que certains besoins ont été surévalués. Pour vous aider dans votre choix, voici une liste de questions à vous poser à chaque fois qu’une application doit être mise en supervision :

  • Quel est le coût réel d’une indisponibilité de l’application ?
  • A partir de combien de temps d’indisponibilité la solution mise en place sera-t-elle rentabilisée ?
  • Quelle est l’importance de l’application pour le client ?
  • L’application fait-elle partie d’une chaîne ayant un engagement de service restrictif ?
  • L’indisponibilité de l’application peut-elle être néfaste à l’image du client ?
  • Sur quel niveau d’engagement le client est prêt à investir pour cette application ?
  • Ce niveau d’engagement est-il justifié ? (surqualité / prise de risque)
  • Le client a-t-il besoin d’un « juge de paix » sur les temps de réactivité de son application ?
  • La stabilité de l’application justifie-t-elle de mettre en place des outils de mesure de la performance ?
  • La fréquence des mises en production et les surcoûts engendrés peuvent ils entraîner la mise en place d’outils de mesure de la performance ?
  • Que suis-je prêt à partager avec le client en retour de son investissement (consoles…)
  • Les outils dans lesquels le client me demande d’investir me permettent-ils de mesurer les SLA demandés et de garantir la disponibilité de l’application ?

Toutes ces questions devraient permettre de renseigner suffisamment une application pour choisir les outils de supervision adaptés au contexte, et éviter les dépenses inutiles.

Les différents coûts de la supervision

Il n’y a pas un coût de la supervision, mais des coûts de supervision. Je vais aborder ci-après un à un les postes de coûts de la supervision en vous les détaillant. On retrouve :

  • Les licences, le support
  • Les ressources des équipes supervision
  • Les ressources des équipes d’exploitation
  • Les infrastructures de supervision
  • La charge générées dans les autres équipes d’exploitation (experts, équipes applicatives,…)

Licences et support

Je suis presque sûr que quand on aborde avec vous le thème des coûts de la supervision, dès lors que vous avez des solutions propriétaires, ce qui vous vient en premier à l’esprit c’est le poste « licences ».

Les licences de supervision des éditeurs sont coûteuses, leur mode  de licencing change régulièrement, et les produits évoluant et se dirigeant vers la « fin de vie », vous vous retrouvez souvent contraints de racheter des licences qui incluent des fonctionnalités supplémentaires, dont vous pensez ne pas avoir le besoin, mais qui sont obligatoires si vous souhaitez continuer à bénéficier du support. Ce mode « captif » des clients a tendance à accroître cette image négative de la supervision, d’autant plus depuis que sur les couches dites « basses », les solutions libres offrent une alternative convaincante aux solutions propriétaires, pour un coût de licence moindre.

Un second point à analyser, et le fait que, même sans parler du libre, selon le service rendu, les coûts de licences sont vraiment différents. Certains outils atteignent des coûts de licences « démentiels », je veux parler des outils d’introspection ou d’analyse de trames réseau, qui peuvent atteindre jusqu’à des millions d’euros d’acquisition.

Mais, une fois de plus, il faut mettre le coût du produit en face du besoin. Si vous gagnez des centaines de millions d’euros sur une application, et qu’une indisponibilité peut entraîner une perte sévère, alors le coût somme toute élevé, sera à mettre en face d’une éventuelle indisponibilité, et du manque à gagner généré.

Équipes de supervision

Un second coût qui est mis en avant et bien souvent celui des équipes supervision. Les produits étant souvent complexes d’utilisation, on se retrouve rapidement à des équipes d’administration, d’architectes et de support avec des coûts par ressource de l’ordre de 100 K€ à l’année. Le fait est que les produits du marché sont livrés bruts de fonderie, et qu’il faut beaucoup de monde pour parvenir aujourd’hui à en réaliser un usage correct. Par exemple, lorsque vous prenez une solution du marché de supervision de base, vous avez à définir vous même quels paramètres superviser (ou ne pas superviser), toute la documentation qui va avec la supervision, toute l’organisation de la supervision, et pour peu que vous ayez un hyperviseur, il y a aussi le travail de corrélation des remontées à réaliser, qui lui est encore plus complexe ! Les solutions de supervisions ne sont que des outils, plus ou moins aboutis, et qui nécessitent donc beaucoup de travail pour s’adapter à votre organisation.

Je profite d’ailleurs de cette section pour présenter un autre fait avéré qui n’est malheureusement que rarement pris en compte dans les entreprises :

Le libre coûte beaucoup plus cher qu’on le pense.

Les solutions libres sont en général plus ouvertes, donc nécessitent plus de ressources pour les administrer, et surtout des ressources qui savent ce qu’elles veulent faire ! Le support n’est pas fourni par un éditeur, ce qui sous entend des investissements supérieurs pour corriger des problèmes, et le fait de dépendre d’une communauté, certes active, mais pas dédiée à résoudre VOTRE problème. Par conséquent, si on reprend mon échelle de 100 k€ la ressource, on se rend vite compte que le fait de partir sur du libre de manière non réfléchie peut s’avérer plus coûteux que de prendre des solutions propriétaires.

Les équipes d’exploitation

Le troisième coût représentatif est celui porté par les équipes d’exploitation. Ce coût est rarement associé au coût de supervision, et pourtant, à mon sens, il lui est directement lié :

  • Si vous avez plusieurs outils de supervision, cela vous donne à traiter plusieurs consoles et donc multiplier les ressources pour assurer  leur suivi
  • Si votre supervision n’est pas mature, cela entraîne plus d’alarmes et donc plus de ressources pour les traiter
  • Si votre supervision n’est pas industrialisée, vous avez beaucoup de gestes manuels à accomplir qui vont eux aussi nécessiter beaucoup de ressources pour les traiter.

Ainsi les coûts d’équipes d’exploitation sont directement liés à la maturité de la solution de supervision et aux investissements réalisés au préalable afin d’optimiser. Comme je le disais, vous devez entrer vos coûts d’équipes d’exploitation dans le calcul global du coût de votre supervision, tout du moins sur la partie sur laquelle ils sont amenés à intervenir.

Infrastructure

Les coûts d’infrastructures de supervision sont bien souvent négligés, et c’est un tort. L’infrastructure des outils de supervision est bien souvent complexe, s’appuyant sur des relais, stockant les informations dans des bases de données, ayant besoin de portails web…

Selon l’importance que l’on accorde à l’infrastructure, il peut aussi y avoir de la redondance, ainsi que des capacités de bascule entre sites. Si le SI est composé de plusieurs DMZ, c’est autant de serveurs passerelles qui devront être installés afin de relayer l’information de supervision sans porter atteinte aux contraintes de sécurité.

Toujours dans la liste des coûts, même si dernièrement les éditeurs ont commencé à prendre le tournant linux, historiquement, les plateformes étaient avant tout composées de plateformes propriétaires (SUN et IBM) qui revenaient très cher à l’achat et à la maintenance.

Impacts d’autres équipes

Dernier coût mais pas des moindres, celui de l’impact des autres équipes d’exploitation dans le coût de la supervision. La supervision n’est pas magique. Il ne suffit pas de dire « mettez moi en place la supervision » pour avoir un résultat de qualité qui satisfera autant les responsables des applications que les clients. Les équipes supervision ne sont pas dans le contexte du client, et ne peuvent pas de fait inventer les supervisions à mettre en œuvre. Elles peuvent aussi se baser sur des templates, mais il faut que ces templates aient été créés par des personnes maîtrisant le sujet.

Que se passe-t-il quand on laisse des personnes qui ne maîtrisent pas le domaine mettre en œuvre la supervision sans les accompagner ? Deux choses bien souvent :

  • Soit on a une plateforme de supervision qui est trop « light », et des clients qui se plaignent que les incidents se produisent et que personne ne les remarque.
  • Soit on a une plateforme de supervision noyée sous les incidents, dans laquelle les équipes reçoivent des messages « polluants » qu’elles ne savent pas traiter. La console reste alors en permanence avec une centaine d’incidents pas importants, ce qui empêche toute réactivité sur incident.

Comme on peut le voir, l’équilibre n’est pas simple à mettre en œuvre, et seul un engagement des différentes équipes concernées ou l’appui de sociétés externes ayant de la maturité sur le sujet (et quand je parle de maturité, je ne parle pas de personnes qui se limitent à vous vendre la formation de leurs équipes, mais de réelles sociétés vous apportant de la valeur ajoutée avec des installations pré-packagées par exemple) vous permettra d’avoir un résultat de qualité.

Les équipes autres impactées sont donc nombreuses. Selon l’organisation, on peut citer : les personnes en charge des applications, les experts système, les experts réseau, les experts middleware…

(à suivre …. exemple)

livre blanc

Une analyse des coûts de la supervision [Partie 1]

Au travers de ce retour, nous lançons notre section de retours « à forte valeur ajoutée » pour nos clients. N’hésitez pas à nous faire part de vos remarques, elles sont bienvenues.

Définition: la supervision informatique

La « supervision informatique » pouvant désigner bien des choses, je pense qu’il est judicieux de préciser ce que j’entends par « supervision informatique » avant d’aller plus loin. Dans le cadre de cet article, La supervision informatique est traitée au sens large, incluant les diverses couches pouvant être supervisées, les différents outils pouvant être utilisés, l’hypervision et le reporting. Le schéma ci-dessous précise mon propos :

supervision global

Vue de la supervision au sens large

Donc quand je vous parle de supervision informatique, en terme d’outillage et de couverture, je fais référence au périmètre précisé ci-dessus. Mais là encore, ça n’est pas tout. Parler de supervision informatique, c’est aussi parler de processus, d’organisation, de ressources, et de prise en compte du contexte.

 supervision_perimetre

Périmètre de la supervision

Mon propos portera donc sur la globalité de ce périmètre, et vous apportera un éclairage selon l’angle que je jugerais pertinent à sa compréhension.

Coût de la Supervision

La supervision, ça coûte cher!

Cette phrase, j’ai dû l’entendre au moins une fois chez chacun des clients pour qui la supervision avait de l’importance.

Je mets de côté les entreprises où la disponibilité des applications n’est pas au cœur de l’activité, parce que bien souvent dans celles-ci la supervision est réalisée sur un coin de bureau (avec aucune ressource dédiée), avec un Nagios paramétré pour assurer le service minimum (et qui répond aux attentes). Je parle ici des entreprises où la supervision est un enjeu, quelle qu’en soit la raison :

  • La société rend un service à des clients exigeants,
  • La société doit rendre des comptes sur sa disponibilité à un organisme tiers,
  • L’indisponibilité de l’outil informatique a un impact direct sur le chiffre d’affaire de la société,

La supervision dans le cadre défini ci-dessus est évidemment un enjeu d’importance, mais elle est bien souvent perçue comme très/trop coûteuse. Le fait est qu’il est difficile d’évaluer le ratio apports/coûts de la supervision. Le but de cet article est de lister les « coûts/apports » de la supervision afin de vous aider à en maîtriser les enjeux.

Apports de la supervision

La supervision n’est pas un organe critique de la chaîne applicative de l’entreprise.

L’indisponibilité de la supervision n’entraîne pas de facto l’indisponibilité des applications. Elle est par contre un élément majeur de l’exploitation. Si l’on prend la définition de wikipedia : « L’exploitation informatique est l’activité qui consiste à maintenir opérationnel de manière stable, sûre et sécurisée un outil informatique dans un environnement de développement, de qualification, de formation, ou de production, dans ses parties matérielles et logicielles. »

Or comment peut-on imaginer maintenir un outil informatique si l’on n’est pas en capacité de connaître son état ? C’est là le rôle essentiel de la supervision. Et ce rôle essentiel est perçu différemment selon les attentes que portent les applications supervisées ; si l’indisponibilité de votre application, comme pour le cas d’un site marchand par exemple, entraîne une perte financière directe, vous avez tout intérêt à être réactif dans la résolution d’un incident afin de minimiser la perte. Ce ne sera pas forcément la même chose pour une application qui est utilisée 1 mois par an et qui ne présente pas d’impact financier.

Peut-on alors considérer cette « économie » comme un « gain » ?

Il y a peu encore, un responsable d’exploitation me disait : « mon meilleur outil de détection d’incidents, c’est mon client. Il sera toujours plus réactif que les outils de supervision à détecter un problème, parce que lui est en 24/7 devant sa console et qu’il m’avertit directement du moindre dysfonctionnement. » J’avoue que sur le moment sa remarque m’avait choqué, sans que j’ai le temps de lui formuler une réponse correcte afin de lui prouver ses torts. Et pourtant, la réponse était évidente ! bien sûr, le client est le premier à pouvoir détecter un incident, mais ça n’est pas suffisant, car ce qui intéresse réellement ce n’est pas de détecter un problème, mais c’est d’être en mesure d’en connaître la cause rapidement, afin de limiter l’indisponibilité. Au vu de la complexité des applications d’aujourd’hui, bâties sur de nombreuses couches et reposant sur des progiciels qui se complexifient d’année en année, rien n’est moins simple.

C’est la qu’intervient la supervision, qui non seulement est capable d’alerter sur un incident, mais permet aussi d’aller directement au cœur du problème, de pouvoir mobiliser au plus vite les bons intervenants et de limiter ainsi les temps d’indisponibilité.

La supervision, parce qu’elle permet d’identifier un incident de manière claire et précise permet donc de facto de réaliser des économies conséquentes sur les temps d’indisponibilité des applications.

Ces économies sont à mettre en face des besoins, car c’est là bien souvent qu’il y a mélange des genres. Bien que ce ne soit que rarement le message porté par les éditeurs (qui préfèreraient évidemment que vous investissiez dans toute leur suite sur tout votre périmètre), il n’existe pas une seule supervision mais bien des usages de la supervision, et tout comme vous n’apportez pas le même niveau d’engagement pour une production que pour une intégration, il n’y a pas de raison que vous apportiez le même niveau de supervision pour toutes vos applications. La supervision doit être elle aussi adaptable au contexte, aux besoins, aux impératifs clients.

La supervision est un ensemble de briques qu’il est possible de choisir et de paramétrer selon ses besoins. L’homogénéisation des supervisions mise en place est une contrainte plus souvent apportée par l’organisation interne et le souci d’industrialisation que par les solutions fournies par les éditeurs.

Les outils de supervision peuvent d’ailleurs aller très loin. Lorsque vous souhaitez définir des SLA pour une application, aujourd’hui, vous pouvez avec justesse faire reposer ces SLA sur des outils de type « robots » (ip-label newtest, BMC TMART, sikuli, …) plutôt que sur la capacité du client à remonter les indisponibilités (en mettant de côté celles qu’il aurait pu ne pas voir), ce qui met en avant un autre rôle dans la maîtrise du SI apporté par la supervision :

Elle permet de garantir un terrain neutre d’analyse de la disponibilité des applications entre les clients et l’exploitation informatique (rôle de « tiers de confiance »).

Donc, pour conclure cette section, la supervision peut être vectrice de gains financiers si elle est bien réalisée, elle doit être adaptée au besoin, et elle permet d’assurer un pont « neutre » entre l’exploitation et les clients.

(suite: coût de la supervision)