L’arrivée de Docker et sa technique de containers agite le landerneau informatique. Accompagné par un marketing efficace et des cas d’adoption emblématique, Netflix ou Spotify, cette technologie se voit opposée par de nombreux opérateurs à la virtualisation. Une opposition qui relève plus de la volonté de créer du buzz que de la réalité.

Dans le domaine de l’IT, il est de bon ton de présenter les nouvelles techniques comme solution à tous les maux, et en contrepartie de renvoyer des technologies plus matures au rencard. Docker (ex DotCloud) n’échappe pas à ce mouvement ondulatoire. A entendre certains prosélytes, cette technologie de container rendrait la virtualisation classique obsolète. Comme de juste, « ce modèle ne remplace pas l’autre, mais le cas d’usage dictera l’emploi de l’un ou l’autre », explique Julien Cyr, ingénieur avant-vente pour Intrinsec et spécialiste de Docker.

Docker, pour les développements rapides

De fait, l’attraction suscitée par Docker repose sur deux atouts : un standard et la facilité de développement. Pour expliquer simplement cette technologie, il faut s’imaginer Docker comme un ensemble de containers qui permet d’assembler comme un Légo chaque bloc de l’application en cours de développement. Comme l’explique Julien Cyr, « Un développeur travaille souvent sur son PC avec une configuration en propre. Mais au fil des tests, recette, déploiement et mise en production sur d’autres serveurs dans le cloud, privé et public, les configurations peuvent êtres différentes. Les réactions de l’application seront alors différentes et vous pouvez avoir des régressions fonctionnelles. Avec les containers, chaque partie de l’application est dans un container. Du fait que cela soit standard, l’environnement sera identique sur n’importe quelle plateforme, ce qui fait gagner un temps précieux dans les projets de développements. »

Pour le dire en termes plus techniques, l’intégration et le déploiement continu (CI/CD) sont les deux atouts maîtres de Docker auxquels il convient d’ajouter la gestion de la montée charge. Autant d’atouts bien compris par les entreprises qui doivent aller vite dans les déploiements de nouveaux services et gérer de fortes montées en charge. Ce n’est pas un hasard si les entreprises très orientée web, Netflix ou encore Spotify, ont eu recours à Docker pour concevoir leur plateforme.

La virtualisation standard pour les systèmes critiques

Pour autant, Docker n’est pas adapté à tous les cas d’usages. Comme le résume Julien Cyr, « ce qui est orienté web est généralement adapté à Docker, les applications legacy ne peuvent être exploitées que sur des machines virtuelles standard (VMware, Xen etc.). » La répartition entre les deux technologies est assez claire. Le système d’information aux applications critiques et structurantes de l’entreprise, ERP, Oracle et autres, sont optimisées pour fonctionner sur ce type de machine virtuelle, qui offre de nombreux avantages en termes d’administration, de sécurité ou de mutualisation. Tout comme les performances.

Docker et machines virtuelles : deux univers techniques indispensables

En synthèse, dans le cadre d’un déploiement d’infrastructure et exploitation de son système d’information, les machines virtuelles classiques sont indétrônables et irremplaçables. A contrario, les nouvelles applications dédiées au web seront conçues en utilisant les containers sous la la pression de l’agilité et de la rapidité demandées par le time-to-market. Autrement dit, l’avenir de cette technologie s’annonce rayonnant, mais la pérennité des machines virtuelles tout autant.