Cerner le rôle et les enjeux de la Qualité de Service sur l’Internet  n’a jamais été simple ; pourtant, il est aujourd’hui fondamental,  pour l’avenir de l’Internet de s’en préoccuper. C’est la raison pour laquelle  Jean-Michel Planche, de Witbe, et Pascale Dalençon d’Alcatel, avaient proposé  la création d’un groupe de travail sur cette  question au sein de la FING. Jean-Michel Planche, également fondateur d’Oléane,  suit ces questions de près depuis longtemps. Et aujourd’hui, il tient un  véritable rôle d’évangélisateur dans le domaine. Son  objectif : sensibiliser l’ensemble des acteurs de l’Internet à l’importance  de la Qualité de Service, sans laquelle Internet risque simplement, de  ne plus fonctionner. 
 Interview. 
 http://www.witbe.net
 A consulter également, la présentation  du groupe de travail sur la Qualité de Service, par Pascale Dalençon,  d’Alcatel et Jean-Michel Panche, lors de la journée FING du 28 juin dernier.  
Le fiche d’information sur la Qualité de Service
Tout d’abord, qu’est-ce que la qualité de service ?
 Il existe un axe très « opérateur télécom »    pour définir la qualité de service : on contrôle un service    et on le délivre au client à travers une infrastructure. Dans    ce cadre, le poste client est relativement esclave. Le meilleur exemple dans    le domaine c’est le téléphone. 
   Mais dans ce domaine également, l’Internet est une grosse révolution.    Il demande une tout autre approche de la qualité de service, due à    la structure même de l’Internet. La vapeur est renversée. L’intelligence    n’est plus au centre. Elle est sur la périphérie, chez l’utilisateur.    Elle se trouve sur le poste client, et c’est au poste client de régler    ce problème de qualité de service avec, en face de lui, une sorte    de réseau qui l’écoute. Ce n’est ni évident, ni simple.    On se rend compte que tout ce qui existait, avant, pour contrôler la qualité    de service était fait pour les opérateurs télécom    autour d’une intelligence centralisée. Il suffisait de se mettre au centre    pour observer.
   Pour parler de qualité de service sur Internet il a fallu réinventer    complètement des systèmes, des méthodologies, des méthodes.    Strictement rien n’existait sur le marché pour la mesurer. Il y avait    des bouts de logiciels, mais pas d’approche globale.
   Pourtant quand on regarde de grands phénomènes comme l’évolution    des prix, la qualité de l’air, le taux de chômage ; tous ont un    système pour mesurer leur évolution. Et rien n’existe pour l’Internet,    comme si ce n’était pas un phénomène important, et qui    évolue.
   C’est la raison pour laquelle nous avons d’abord voulu créer un observatoire    de la qualité de service, en développant une nouvelle technologie    qui nous permette de l’appréhender. 
Pourquoi n’y avait-il rien dans ce domaine ? Parce que personne ne voulait s’en préoccuper ? Parce que l’Internet est trop jeune ?
   C’est tout ça à la fois. Il est vrai, d’une part, que l’Internet,    dans un environnement professionnel, ne date que de 1994-1995 et que son véritable    démarrage date, lui, de 1996-1997. Qu’on ne veuille pas s’en préoccuper,    c’est à peu près évident. 
   Aujourd’hui, 80 % des gens qui vendent des services Internet, en réalité,    ne font qu’acheter un service en gros pour le revendre au détail. Ils    ne fabriquent rien. Au moment de la ruée vers l’or, ils ont eu intérêt    à brouiller le message, à tenir aux utilisateurs un discours flou    du genre : « ben l’Internet c’est un truc globalement comme de l’eau. On    sait qu’un litre d’eau ça pèse à peu près 1 kilo    et que ça désaltère. » Sans leur montrer qu’on était    capable de faire des Internets avec différentes qualité de service.    Chez Oléane, nous avions mis en place une technologie mixte entre les    télécoms et l’Internet qui nous permettait de déployer    un véritable réseau livrant de multiples qualités de service.    Cela nous permettait, sur la même boucle locale, de faire soit de l’intranet,    avec une qualité de service très élevée, soit de    l’Internet, avec une qualité de service moins élevée, donc    moins chère. Parallèlement à cette démarche, vous    aviez les marchands du temple, qui achetaient une 256 kilos et revendaient 50    fois 64 kilos. Ils n’avaient pas vraiment intérêt à parler    de qualité de service…
   Dernier aspect : les gens n’étaient pas sensibilisés à    ce genre de métier. La qualité de service, ça ne passionne    généralement pas grand monde. Dans le téléphone    on sait : on décroche et ça fonctionne, généralement.    Dans un réseau de données, on a l’habitude qu’a priori ça    fonctionne ; et si ça ne fonctionne pas bien, on s’adresse à son    opérateur, sans essayer de bien comprendre ce qu’il se passe.  
L’émergence de la question est liée aux enjeux critiques de l’Internet.    Il y a 7-8 ans, c’était un gadget. On faisait du courrier électronique,    un peu de news. Internet tombait en panne régulièrement, mais    ce n’était pas très gênant. A la limite, on n’avait pas    besoin d’un accès permanent. On pouvait très bien utiliser l’Internet    en se connectant, par une ligne téléphonique, toutes les quatres    heures pour récupérer ses mails. Ce n’était ni fabuleux,    ni fantastiquement compliqué. 
   Quelques années plus tard, le courrier électronique a pris de    plus en plus d’ampleur et d’importance. Les usagers se sont rendu compte qu’il    fallait peut-être appeler plus souvent ou que, tout au moins, ça    tombe moins en panne. 
   Puis le web est arrivé. 
   Au départ, les grandes entreprises, les entreprises de médias    et de contenus n’avaient pas encore conscience qu’ils pouvaient fournir de l’information.    On a franchi une nouvelle étape dans l’enjeu critique, vers les années    1996-1997, lorsque ces entreprises d’information, de commerce se sont véritablement    installées sur le web. Soudain, il ne faut plus que la connexion ou l’access    tombe en panne.
   Puis, on va encore plus loin : le web à la limite, s’il tombe en panne    durant 1/2 heure, c’est gênant mais pas fondamental. En revanche, à    partir du moment où vous arrivez à passer des communications de    type téléphoniques, à faire de la retransmission audio    et vidéo, là on est en présence de protocoles qui nécessitent    une bien meilleure stabilité dans le réseau. Avec le web vous    pouvez très bien arriver à des temps de réponse de deux    ou trois secondes par morceau de page, ça fonctionne toujours. Mais avec    la voix, dès que vous avez une variation, dans ce qui est envoyé,    qui devient trop importante, vous avez de l’écho et vous n’entendez plus    rien. 
   Il va donc falloir que ceux qui veulent déployer des solutions de voix    sur IP, de retransmission audio et vidéo se rendent compte si ce que    leur est fourni par leur prestataire est bon ou non, si la voix est bien passée    ou non. 
   Aujourd’hui le seul moyen de le savoir c’est de questionner l’interlocuteur    à l’autre bout. Ce qui devient de plus en plus inadmissible : votre client    ou votre prospect devient votre propre vérificateur ! C’est pour cela    que Witbe a développé sa méthodologie : pour que le fournisseur    de service soit prévenu que quelque chose ne va pas avant que le client    ne râle. 
Ça semble formidablement complexe de mesurer la qualité de service. On parle de différents protocoles, de différents acteurs.Comment fait Witbe ?
Nous avons mis en place une méthodologie capable de mesurer la partie    réseau, qu’elle soit aussi bien niveau 1, niveau 2, c’est à dire    l’infrastructure et le niveau IP, mais nous allons le coreller avec le niveau    applicatif. Qui sait ? Peut-être que demain il existera un nouveau protocole    qui va supplanter le web, le mail et tout ce qu’on peut imaginer.
   Donc notre objectif était d’abord d’appréhender globalement cette    qualité de service, et pas uniquement une qualité de service télécom    ou une qualité de service applicative. 
   La qualité de service télécom c’est : « voilà    votre réseau répond en 3 millisecondes… » On s’en fout.    L’utilisateur n’a pas besoin de savoir si c’est trois millisecondes ou 5 millisecondes.    Il ne sait pas si c’est bien ou non. Il a besoin d’autres indicateurs. 
   De l’autre coté, vous pouvez simplement mesurer le niveau applicatif,    c’est à dire indiquer qu’une page web se charge en 15 secondes. On ne    sait pas non plus si c’est bien ou non. Est-ce que c’est à cause du DNS    qui est planté ou d’autre chose ? On ne sait pas. 
   Nous avons donc mis en place une méthodologie qui nous permet de mesurer    le réseau, l’applicatif et, au lieu de le faire depuis chez nous vers    des services, nous avons déployé une galaxie de serveurs partout    dans le monde, dans les endroit stratégiques (Washington, San José,    Londres, Amsterdam, Francfort) depuis lesquels nous observons les différents    services Internet avec nos protocoles. 
   Des galaxies et non pas des robots de mesure. Un robot de mesure c’est bête,    c’est esclave. Ça fait une mesure et ça vous la renvoie. Mais    on ne sait pas si elle est pertinente ou pas. Notre galaxie est, elle, constituée    de systèmes intelligents qui ont conscience de l’existence des uns et    des autres ; qu’il existe un Internet, un réseau. Ce sont des machines    qui se synchronisent et sont capables de se rendre compte si elles dérivent.    Comme un bateau sur l’eau : il a une vitesse par rapport à l’eau, mais    également par rapport au sol. Si vous ne mesurez que la vitesse par rapport    à l’eau et que vous avez des courants, vous ne savez plus où vous    êtes. 
Donc à chaque fois que vous avez un résultat de mesure , il faut se poser la question de sa pertinence ?
Oui. Est ce qu’il est pertinent mais aussi comment peut-on le corriger ? Comment    le calibrer pour qu’il soit bon ?
   Reprenons l’exemple du bateau. 
   Avant, pour tracer une route, vous faisiez le point à l’aide de règles    à calcul, du nord magnétique, etc… Vous vous débrouilliez    sans trop savoir exactement où vous êtiez, mais vous aviez un ordre    de grandeur. 
   Aujourd’hui, pour connaître votre position, vous avez les satellites.    C’est bien mais ce n’est pas suffisant. Vous savez à peu près    mieux où votre bâteau est, mais avec une certaine marge d’erreur,    malgré tout, de 200 ou 300 mètres. Ce que les constructeurs ont    fait, dans le domaine du satellite c’est de synchroniser les GPS sur une autre    source : les DGPS, GPS différentiels, qui envoient un signal radio. Grâce    aux deux sources, ils arrivent à se synchroniser et vous donnent un résultat    précis à 30 mètres !
   Le satellite c’est notre galaxie, sans calibrage. Dans notre domaine, la marge    d’erreur de 200 ou 300 mètres, se traduit en milisecondes. Sans calibrage,    à 10 ou vingt millisecondes nous ne saurons pas, non plus, où    nous en sommes, côté qualité de service. 
   Alors, nous avons fait exactement pareil que pour les sattelites et la navigation.    
   Notre galaxie est tournée vers des observatoires extérieurs qui    nous permettent de nous rendre compte si elle dérive ou pas. De savoir    si, par exemple nos hébergeurs ne sont pas en train de nous fausser les    mesures. 
   Si nous annonçons que le serveur d’un grand portail est en train de baisser    en qualité, est-ce que c’est pas nous, notre propre qualité de    service, qui est en train de baisser ?
   Cette méthodologie nous permet de pondérer, en plus ou en moins,    les résultats de mesure que l’on pourrait avoir. Et nous sommes capables    de resynchroniser notre galaxie en regardant non pas nous même, mais d’autres    sites 
Vous avez proposé la création d’un groupe de travail, au sein de la FING, sur la qualité de service. Pour quelles raisons ?
Le premier enjeu est un problème de prise de conscience. Il y a tout    un travail de sensibilisation à faire sur cette question. Il faut absolument    que les gens prennent en conscience que « la confiance n’exclut pas le contrôle » ;    comme dirait l’un de nos actionnaires, Jacques Séguéla. 
   Il va falloir effectivement qu’il y ait des gens qui puissent dire à    d’autres, qui offrent des services, que non tout n’est pas identique. On investit    des dizaines de millions sur des sites, des centaines de millions sur de la    promotion et derrière on ne se pose pas la question de savoir comment    c’est branché, comment ça fonctionne. C’est quand même fabuleux    ! 
Si on ne parvient pas à comprendre comment on fait de la qualité    de service aujourd’hui, je vois deux dérives :
   La première c’est que rien ne marchera. Ce sera en panne. Si vous saviez    le nombre de sites qui sont critiques, qui ont des taux de disponibilité    inférieurs à 98 %, c’est spectaculaire. Derrière, les usagers    ne comprendront pas pourquoi ils n’arrivent pas à se connecter ; ils auront    de mauvais temps de réponse quand ils passeront leurs ordres en bourse    et ne pourront pas les passer à l’heure de clôture. Quand vous    êtes un 30 décembre à 4 heures, que vous devez absolument    passer vos ordres de bourse et que ça ne fonctionne pas parce-que, derrière    il faut 6 minutes pour les traiter… Le risque c’est que les gens soient dégoûtés    par l’Internet, parce qu’il ne marche pas suffisamment bien ou suffisamment    vite. 
   La deuxième, c’est la crainte de ce que les Américains proposent.    Niveau qualité de service, leur discours est : « Il n’y pas de problèmes.    Il suffit que vous achetiez plus de bande passante , un fibre plus importante,    un machin, un truc, et il n’y a plus de problème. » Or, je fais partie    de ceux qui disent que ce n’est pas vrai. On ne peut pas acheter n’importe quoi.    A un moment il va falloir faire des priorité dans les flux qu’on fait    passer dans un tuyau. Il y a peut être des choses qui sont très    prioritaires et sur lesquelles on a envie de payer cher pour ça se passe    bien, et d’autres dont on n’a strictement rien à faire que ça    passe bien et vite. On peut très bien arriver à des niveaux de    priorité qui feront qu’on traitera des protocoles de façon plus    ou moins prioritaires. Les Américains, face à ça, ils ne    s’embêtent pas. C’est  » Do it yourself. On vous vend un tuyau et    inch Allah, ça fonctionnera bien et à la limite ça se développera. »    Vous me direz c’est un peu la philosophie d’Internet. Oui et non.
   Mais, il va quand même falloir que le réseau des opérateurs    s’ouvre à ces couches de qualité de service. Vous pouvez essayer    de développer une intelligence magnifique en périphérie.    Si cette intelligence n’est pas capable de dialoguer avec une autre intelligence    parce que l’opérateur au milieu a coupé tout ce qu’il faut, on    n’arrivera à rien. 
   Il est donc fondamental de sensibiliser les gens, de faire comprendre que c’est    important et ne pas confier tout ça à des marchands du temple    qui vont faire n’importe quoi. C’est une vraie évangélisation.    On ne fera pas un Internet de bonne qualité si on ne contrôle pas    les fondamentaux. 
Aujourd’hui on fait soit n’importe quoi. On met tout dans les tuyaux et le jour où ça ne passe pas, on prend un tuyau plus gros. C’est une démarche qui aura une fin. Quand les gens n’auront plus assez de budget, ce type de démarche arrivera à son terme. En plus, comme les clients râlent un peu, ils font pression sur les prix, donc l’opérateur offre des services moins chers. Mais là encore, cette démarche a un terme. Il arrive un moment où l’opérateur ne peut pas faire moins cher sans dégrader sa qualité de service. C’est un cercle sans fin. Alors peut-être que la démarche qui consiste à expliquer au client qu’il vaut mieux qu’il ait 3 megabits de bande passante utile sur 45 et qu’il peut en utiliser un peu plus si on a de la bande passante disponible est mieux que de vendre 45 méga à prix bradé, sur lesquels le client n’aura même pas un méga d’utile. Quand vous expliquez cette démarche, le client comprend. Il est donc nécessaire d’expliquer et d’expliquer encore, que derrière tout ça il y a de la technologie de la technique et qu’on ne fabrique pas de la bande passante comme ça.
La plupart des gens pensent qu’on branche et que ça fonctionne. D’autant plus qu’aujourd’hui l’offre est complètement déstructurée. Quand je dis déstructuré, c’est que l’internet peut passer sur n’importe quel support : câble, adsl, téléphone, numéris. Face à cela, que doit choisir l’usager ? Il n’en sait rien. Donc il prendra le moins cher. Et sur le moins cher, il aura un service de mauvaise qualité, ou de moins bonne qualité. Dès lors, peu importe que le service soit gratuit. Si l’usager a un service de mauvaise qualité, il ne pourra pas consommer les services qu’on lui proposera. Et peut-être que, au pire, certains diront aux usagers : « Ecoutez il ne faut pas aller sur Internet. Il faut aller sur mon réseau privé. »A la limite on pourrait très bien avoir un opérateur de télévision par câble qui duplique du contenu sur son réseau. Un contenu qui n’est pas mis à jour en temps réel et finalement les utilisateurs consultent un truc dans des caches qui n’est pas la réalité de ce qui est proposé sur Internet. C’est un Internet à plusieurs vitesses. Tant dans le contenu que dans la vitesse. Et demain, on vous conseillera d’être sur un réseau câblé pour consulter un film et le voisin qui, lui, sera sur le réseau ADSL ne pourra pas avoir accès à ce film.
Ce serait la négation totale de ce qu’internet a pu apporter. Or, aujourd’hui, il existe des solutions pour avoir un internet qui fonctionne. Il faut les utiliser.