Introduction

Un article de IPv6.

Préambule Table des matières Adressage Forum

Principes fondamentaux d'IP

L'Internet connaît un succès très important, bien au-delà des prévisions les plus optimistes faites à l'époque de sa conception. Les raisons de ce succès sont multiples ; on peut cependant essayer d'en dégager quelques-unes, tenant aux caractéristiques fondamentales de l'Internet et à l'architecture du protocole de communication IP (Internet Protocol) utilisé.

L'Internet est bâti sur un modèle de réseau de réseaux. Son nom vient d'ailleurs de l'anglais Inter Networking. On ne fait aucune hypothèse sur le type d'infrastructure ou d'équipement utilisés. Les extrémités, ou points de connexion aux réseaux, sont des objets capables de traitements évolués. Les données sont véhiculées dans des datagrammes séparés (que l'on appelle communément paquets). À partir de ces prémisses, les architectes de l'Internet ont retenu deux principes fondamentaux : la communication de "bout en bout" et le "meilleur effort" (Best Effort) pour l'acheminement.

Le principe du "bout en bout" implique que les partenaires d'une communication dialoguent depuis chaque extrémité du réseau pour établir et gérer leur communication. Les éléments intermédiaires sont transparents et n'interviennent pas dans le dialogue. Les objets d'extrémité étant "intelligents", ils sont à même de prendre les décisions nécessaires. Il n'y a pas de position intrinsèquement privilégiée sur le réseau : chaque ordinateur connecté à l'Internet a les mêmes potentialités. Ceci permet aussi une extension du modèle client/serveur : un serveur n'est plus forcément lié à un équipement particulier puisque tout ordinateur connecté à l'Internet peut devenir serveur et n'importe quel autre ordinateur peut en devenir client. C'est cette caractéristique qui a rendu possible la prolifération des serveurs Web dans le monde entier. N'importe qui possédant un ordinateur connecté à l'Internet peut en effet installer son propre serveur Web. Elle est également fondamentale pour les applications peer to peer.

Le principe du "meilleur effort" dit que les éléments d'interconnexion n'offrent aucune garantie sur l'acheminement des données. Ils se contentent de faire "de leur mieux" pour les acheminer. Par exemple, les paquets de données peuvent ne pas emprunter deux fois de suite le même chemin, certains peuvent se perdre en route, d'autres arriver dans le désordre, même si cela est relativement rare dans l'Internet...

C'est ce principe qui fait dire qu'IP n'est pas un protocole "fiable" mais par contre "robuste". Il n'est pas "fiable" au sens où l'arrivée des données envoyées n'est pas garantie. Les réseaux, ainsi libérés d'une tâche très complexe, peuvent dynamiquement se reconfigurer en cas de panne d'une liaison ou d'un équipement. Les protocoles de niveau transport comme TCP se chargent de la gestion des réémissions des données perdues et du réassemblage de celles arrivées dans le désordre ; ils fournissent ainsi la "fiabilité" du service.

Ces deux principes permettent de s'affranchir des différences entre les supports et entre matériels d'interconnexion utilisés. Ce sont eux qui ont rendu possible la croissance de l'Internet que l'on connaît aujourd'hui. Cette croissance est maintenant freinée par deux problèmes majeurs : le manque d'adresses disponibles et la stabilité due à la taille des tables de routage des équipements d'interconnexion des opérateurs réseaux.

Les ordinateurs sont identifiés dans l'Internet par des adresses IP uniques. Le principe du datagramme impose que l'adresse de destination se retrouve dans l'ensemble des paquets émis sur le réseau. Pour permettre un traitement très rapide, les routeurs doivent trouver rapidement cette adresse. Dans IPv4, ces adresses sont codées dans un mot binaire de 32 bits et se retrouvent toujours à la même place dans l'en-tête. Ce principe d'ingénierie a montré son efficacité puisqu'il permet de construire des équipements d'interconnexion simple traitant un nombre important de paquets à la seconde.

Une adresse codée sur 32 bits permet théoriquement d'adresser 232 machines, soit à peu près 4 milliards. Ce nombre pourrait paraître au premier abord très élevé, mais les ordinateurs ne sont pas numérotés séquentiellement. Ils sont regroupés par réseaux. À chaque réseau est affecté un numéro qui est codé sur une partie des 32 bits de l'adresse des machines. On s'aperçoit alors que le nombre de réseaux disponibles n'est pas si important que cela conduit à une pénurie. La tendance actuelle consiste à freiner au maximum l'allocation des adresses réseaux. Ce n'est pas un problème pour les sites déjà équipés disposant déjà de larges plages d'adresses. Cette contrainte est déjà forte pour les nouveaux sites dans les pays dits "développés" pour lesquels un grand nombre d'adresses a été réservé mais se révèle être un problème majeur pour les pays émergeants où parfois moins de 10 réseaux de 250 machines ont été attribués pour l'ensemble du pays.

Les équipements d'interconnexion des réseaux, orientant les paquets vers leur destination finale, sont des routeurs. Pour prendre leurs décisions, ils consultent une table dite de routage. Le nombre de réseaux dans l'Internet croissant de manière vertigineuse, ces tables de routage deviennent de plus en plus volumineuses et difficiles à maintenir. Pour pallier ce problème, une solution d'adressage hiérarchique permettent de réunir un ensemble de numéros de réseaux contigus en un seul préfixe a été conçue (CIDR : Classeless Inter Domain Routing). En plus de la réduction des tables de routage, CIDR permet aussi de réduire la sur-allocation d'adresses aux sites terminaux, réduisant quelque peu la pénurie d'adresses. Avec CIDR le propriétaire de l'adresse est modifié. Dans les plans d'adressage initiaux, le site était propriétaire de son préfixe, avec CIDR le préfixe devient la propriété de son opérateur, rendant la renumérotation du réseau nécessaire, si le site change d'opérateur. Cet adressage hiérarchique a montré son efficacité opérationnelle et les règles d'adressage actuelles pour IPv6 généralisent ce principe.

Un autre palliatif à la pénurie est le recours à la traduction d'adresses (NAT : Network Address Translator) utilisant des adresses "privées" à l'intérieur d'un site. Ces adresses ne permettent pas de communiquer directement avec une machine connectée à l'Internet. Les communications avec l'extérieur étant quand même nécessaires, on a recours à un artifice pour les réaliser : le routeur de sortie de site "convertit" toutes les adresses privées en une ou plusieurs adresses officielles. Ce routeur établit donc les communications en lieu et place des machines internes au site.

Un tel mécanisme ne nécessite que quelques adresses IP officielles pour l'ensemble d'un site pouvant contenir plusieurs milliers de machines. Cette approche est une violation manifeste du principe de connexion de bout en bout. Elle est suffisante pour utiliser des applications simples comme l'accès au Web mais pénalise lourdement la mise en place de nombreuses autres applications. De plus, elle interdit la mise en oeuvre de solutions à forte sécurité basées sur la cryptographie.

En résumé, ces mécanismes provisoires figent le réseau pour une utilisation dans un mode dit client/serveur. Les clients sont à l'intérieur de l'entreprise dans un Internet "privé" et les serveurs sont à l'extérieur sur l'Internet "public". Or ce paradigme est remis en cause par de nouvelles applications, comme le fax et la téléphonie sur Internet où chaque équipement doit être autorisé à recevoir des appels. De même pour les particuliers, les jeux répartis en réseau sont promis à un succès certain. Or, ils ne fonctionnent pas avec des mécanismes de traduction d'adresses, car les applications doivent s'échanger leur adresses.

Le succès d'un réseau n'est pas uniquement lié aux bons choix technologiques adoptés lors de la conception du protocole. Il est aussi lié aux services et aux applications disponibles sur ce réseau. IP joue ce rôle unificateur à la frontière entre des supports de transmission et des applications. Plus qu'une indépendance entre l'application et le médium, le réseau permet aux applications de communiquer entre les différents médias. Le risque à maintenir trop longtemps des adressages privés est de rompre cette communication entre différents mondes, créant la richesse du réseau. Elle pourrait même conduire chaque monde à développer un protocole réseau plus adapté à son besoin propre au détriment de l'interconnectivité.

Il était devenu impératif de s'attaquer simultanément à ces deux problèmes d'épuisement des adresses disponibles et d'explosion des tables de routage en s'appuyant sur les principes fondamentaux qui ont fait la réussite de l'Internet. C'est à cette tâche que depuis 1992 s'est attelé l'IETF (Internet Engineering Task Force), l'organisme de standardisation de l'Internet, pour définir le protocole IPv6.

Après plus de 10 ans d'efforts de standardisation, les spécifications de base du protocole et les règles d'attribution des adresses sont clairement définies. La plupart des routeurs et des systèmes d'exploitation incluent cette nouvelle version du protocole IP. Il reste maintenant à faire sortir IPv6 des laboratoires et des plate-formes d'expérimentation, à assurer l'interopérabilité avec IPv4 quand cela est nécessaire et à développer de nouvelles applications profitant de cette espace d'adressage quasi-illimité qu'offre IPv6. Un des défis dans les années à venir est d'utiliser IPv6 dans des domaines jusque là ignorés des réseaux (audio-visuel, domotique, automobile,...).

Préambule Table des matières Adressage Forum
HOME