A quel niveau le brouilleur 100base est appliqué. Technologie Fast Ethernet

Ethernet rapide

Fast Ethernet - la spécification IEEE 802.3 u officiellement adoptée le 26 octobre 1995, définit une norme de protocole de liaison de données pour les réseaux fonctionnant à la fois avec des câbles en cuivre et en fibre optique à une vitesse de 100 Mb/s. La nouvelle spécification est le successeur de la norme Ethernet IEEE 802.3, utilisant le même format de trame, le même mécanisme d'accès au support CSMA/CD et la même topologie en étoile. L'évolution a touché plusieurs éléments de la configuration des installations de la couche physique, ce qui a permis d'augmenter débit, y compris les types de câbles utilisés, la longueur des segments et le nombre de concentrateurs.

Structure Ethernet rapide

Pour mieux comprendre le fonctionnement et comprendre l'interaction des éléments Fast Ethernet, reportez-vous à la Figure 1.

Figure 1. Système Fast Ethernet

Sous-couche de contrôle de liaison logique (LLC)

La spécification IEEE 802.3 u divise les fonctions de la couche de liaison en deux sous-couches : le contrôle de liaison logique (LLC) et la couche d'accès au support (MAC), qui seront discutées ci-dessous. LLC, dont les fonctions sont définies par la norme IEEE 802.2, assure en effet l'interconnexion avec des protocoles de niveau supérieur (par exemple, IP ou IPX), fournissant divers services de communication :

  • Service sans établissement de connexion et accusé de réception. Un service simple qui ne fournit pas de contrôle de flux ou de contrôle d'erreur, et ne garantit pas une livraison correcte des données.
  • Service orienté connexion. Un service absolument fiable qui garantit une livraison correcte des données en établissant une connexion au système de réception avant le début du transfert de données et en utilisant des mécanismes de contrôle des erreurs et de contrôle du flux de données.
  • Service sans connexion avec accusés de réception. Un service modérément complexe qui utilise des messages d'accusé de réception pour assurer la livraison, mais n'établit pas de connexions tant que les données ne sont pas envoyées.

Sur le système de transmission, les données en aval du protocole de couche réseau sont d'abord encapsulées par la sous-couche LLC. La norme les appelle Protocol Data Unit (PDU). Lorsque la PDU est transmise à la sous-couche MAC, où elle est à nouveau encadrée avec un en-tête et des informations de poste, elle peut techniquement être appelée une trame à ce stade. Pour un paquet Ethernet, cela signifie que la trame 802.3 contient un en-tête LLC à trois octets en plus des données de la couche réseau. Ainsi, la longueur de données maximale autorisée dans chaque paquet est réduite de 1500 à 1497 octets.

L'en-tête LLC se compose de trois champs :

Dans certains cas, les trames LLC jouent un rôle mineur dans le processus de communication réseau. Par exemple, sur un réseau utilisant TCP/IP avec d'autres protocoles, la seule fonction de LLC pourrait être de permettre aux trames 802.3 de contenir un en-tête SNAP, comme un Ethertype, indiquant le protocole de couche réseau auquel la trame doit être envoyée. Dans ce cas, toutes les PDU LLC utilisent le format d'information non numéroté. Cependant, d'autres protocoles de niveau supérieur nécessitent un service plus avancé de la part de la LLC. Par exemple, les sessions NetBIOS et plusieurs protocoles NetWare utilisent plus largement les services orientés connexion LLC.

En-tête SNAP

Le système de réception doit déterminer lequel des protocoles de couche réseau doit recevoir les données entrantes. Les paquets 802.3 au sein du PDU LLC utilisent un autre protocole appelé Sous -RéseauAccèsProtocole (SNAP, protocole d'accès aux sous-réseaux).

L'en-tête SNAP a une longueur de 5 octets et est situé immédiatement après l'en-tête LLC dans le champ de données de la trame 802.3, comme le montre la figure. L'en-tête contient deux champs.

Code de l'organisation. L'ID d'organisation ou de fournisseur est un champ de 3 octets qui prend la même valeur que les 3 premiers octets de l'adresse MAC de l'expéditeur dans l'en-tête 802.3.

Code local. Le code local est un champ de 2 octets qui est fonctionnellement équivalent au champ Ethertype dans l'en-tête Ethernet II.

Sous-niveau correspondant

Comme indiqué précédemment, Fast Ethernet est une norme évolutive. Un MAC conçu pour l'interface AUI doit être mappé pour l'interface MII utilisée dans Fast Ethernet, ce à quoi sert cette sous-couche.

Contrôle d'accès aux médias (MAC)

Chaque nœud d'un réseau Fast Ethernet dispose d'un contrôleur d'accès au support (MédiasAccèsManette- MAC). MAC est la clé du Fast Ethernet et a trois objectifs :

La plus importante des trois affectations MAC est la première. Pour toute technologie de réseau qui utilise un support commun, les règles d'accès au support qui déterminent quand un nœud peut transmettre sont sa principale caractéristique. Plusieurs comités de l'IEEE sont impliqués dans l'élaboration des règles d'accès à l'environnement. Le comité 802.3, souvent appelé comité Ethernet, définit les normes LAN qui utilisent des règles appelées CSMA /CD(Accès multiple avec détection de porteuse avec détection de collision).

CSMS / CD sont des règles d'accès aux médias pour Ethernet et Fast Ethernet. C'est dans ce domaine que les deux technologies coïncident complètement.

Étant donné que tous les nœuds de Fast Ethernet partagent le même support, ils ne peuvent transmettre que lorsque c'est leur tour. Cette file d'attente est définie par les règles CSMA/CD.

CSMA / CD

Le contrôleur MAC Fast Ethernet écoute la porteuse avant de transmettre. La porteuse n'existe que lorsqu'un autre nœud est en train de transmettre. La couche PHY détecte la présence d'une porteuse et génère un message pour le MAC. La présence d'une porteuse indique que l'environnement est occupé et que le ou les nœuds d'écoute doivent céder le pas à l'émetteur.

Un MAC qui a une trame à transmettre doit attendre un minimum de temps après la fin de la trame précédente avant de la transmettre. Cette fois s'appelle écart interpaquet(IPG, interpacket gap) et dure 0,96 microseconde, soit un dixième du temps de transmission d'un paquet Ethernet normal à 10 Mbps (IPG est le seul intervalle de temps, toujours spécifié en microsecondes, pas en temps bit) Figure 2.


Figure 2. Écart entre les paquets

Après la fin du paquet 1, tous les nœuds LAN doivent attendre un temps IPG avant de pouvoir transmettre. L'intervalle de temps entre les paquets 1 et 2, 2 et 3 de la Fig. 2 est l'heure IPG. Une fois la transmission du paquet 3 terminée, aucun nœud n'avait de matériel à traiter, de sorte que l'intervalle de temps entre les paquets 3 et 4 est plus long que l'IPG.

Tous les nœuds du réseau doivent se conformer à ces règles. Même si un nœud a de nombreuses trames à transmettre et que ce nœud est le seul à transmettre, alors après avoir envoyé chaque paquet, il doit attendre au moins le temps IPG.

Cela fait partie des règles d'accès aux médias Fast Ethernet de CSMA. En bref, de nombreux nœuds ont accès au support et utilisent l'opérateur pour savoir s'il est occupé.

Les premiers réseaux expérimentaux appliquaient exactement ces règles, et de tels réseaux fonctionnaient très bien. Cependant, l'utilisation du CSMA seul a posé problème. Souvent, deux nœuds, ayant un paquet à transmettre et attendant l'heure IPG, commençaient à transmettre en même temps, entraînant une corruption des données des deux côtés. Cette situation s'appelle collision(collision) ou conflit.

Pour surmonter cet obstacle, les premiers protocoles utilisaient un mécanisme assez simple. Les packages ont été divisés en deux catégories : les commandes et les réactions. Chaque commande envoyée par le nœud nécessitait une réponse. Si aucune réponse n'a été reçue pendant un certain temps (appelé délai d'attente) après l'envoi de la commande, la commande d'origine est réémise. Cela pouvait se produire plusieurs fois (le nombre maximal de délais d'attente) avant que le nœud expéditeur n'enregistre l'erreur.

Ce schéma pourrait bien fonctionner, mais seulement jusqu'à un certain moment... L'apparition de conflits entraînait une forte diminution des performances (généralement mesurées en octets par seconde), car les nœuds restaient souvent inactifs en attendant des réponses à des commandes qui n'atteignaient jamais leur destination. La congestion du réseau, une augmentation du nombre de nœuds sont directement liées à une augmentation du nombre de conflits et, par conséquent, à une diminution des performances du réseau.

Les premiers concepteurs de réseaux ont rapidement trouvé une solution à ce problème : chaque nœud doit détecter la perte d'un paquet transmis en détectant un conflit (et ne pas attendre une réaction qui ne suivra jamais). Cela signifie que les paquets perdus en raison du conflit doivent être retransmis immédiatement avant l'expiration du délai d'attente. Si l'hôte a transmis le dernier bit du paquet sans conflit, alors le paquet a été transmis avec succès.

La détection de porteuse peut être bien combinée avec la détection de collision. Les collisions continuent de se produire, mais cela n'affecte pas les performances du réseau, car les nœuds s'en débarrassent rapidement. Le groupe DIX, ayant développé les règles d'accès à l'environnement CSMA/CD pour Ethernet, les a formalisées sous la forme d'un algorithme simple - Figure 3.


Figure 3. Algorithme de fonctionnement CSMA/CD

Périphérique de couche physique (PHY)

Étant donné que Fast Ethernet peut utiliser une variété de types de câbles, chaque support nécessite une préconversion de signal unique. La conversion est également nécessaire pour une transmission de données efficace : pour rendre le code transmis résistant aux interférences, à une perte possible ou à une distorsion de ses éléments individuels (baud), pour assurer une synchronisation efficace des horloges côté émission ou réception.

Sous-couche de codage (PCS)

Encode / décode les données provenant de / vers la couche MAC à l'aide d'algorithmes ou.

Interconnexion physique et sous-couches de dépendance des supports physiques (PMA et PMD)

Les sous-couches PMA et PMD communiquent entre la sous-couche PSC et l'interface MDI, assurant une formation conformément au procédé de codage physique : ou.

Sous-niveau d'auto-négociation (AUTONEG)

La sous-couche d'auto-négociation permet à deux ports communicants de sélectionner automatiquement le mode de fonctionnement le plus efficace : full-duplex ou half-duplex 10 ou 100 Mb/s. Couche physique

La norme Fast Ethernet définit trois types de supports de signalisation Ethernet 100 Mbps.

  • 100Base-TX - deux paires de fils torsadés. La transmission est effectuée conformément à la norme de transmission de données sur un support physique torsadé, développée par l'ANSI (American National Standards Institute - American National Standards Institute). Le câble de données enroulé peut être blindé ou non blindé. Utilise l'algorithme de codage de données 4B/5B et la méthode de codage physique MLT-3.
  • 100Base-FX est un câble à fibre optique à deux conducteurs. La transmission est également effectuée conformément à la norme ANSI pour la transmission de données sur des supports à fibre optique. Utilise l'algorithme de codage de données 4B/5B et la méthode de codage physique NRZI.

Les spécifications 100Base-TX et 100Base-FX sont également appelées 100Base-X

  • 100Base-T4 est une spécification spéciale développée par le comité IEEE 802.3u. Selon cette spécification, la transmission de données est effectuée sur quatre paires torsadées de câble téléphonique, appelé câble UTP de catégorie 3. Il utilise l'algorithme de codage de données 8B / 6T et la méthode de codage physique NRZI.

De plus, la norme Fast Ethernet comprend des directives pour les câbles à paires torsadées blindées de catégorie 1, qui sont les câbles standard traditionnellement utilisés dans les réseaux Token Ring. L'organisation d'assistance et les directives d'utilisation du câble STP sur Fast Ethernet fournissent un chemin de migration Ethernet rapide pour les clients disposant d'un câblage STP.

La spécification Fast Ethernet inclut également un mécanisme d'auto-négociation qui permet à un port hôte de s'adapter automatiquement à un taux de transfert de données de 10 Mbps ou 100 Mbps. Ce mécanisme est basé sur l'échange d'un certain nombre de paquets avec un port d'un hub ou d'un switch.

Environnement 100Base-TX

Deux paires torsadées sont utilisées comme support de transmission pour 100Base-TX, une paire étant utilisée pour transmettre des données et l'autre pour les recevoir. Étant donné que la spécification ANSI TP-PMD contient des descriptions des paires torsadées blindées et non blindées, la spécification 100Base-TX inclut la prise en charge des paires torsadées de type 1 et 7 non blindées et blindées.

Connecteur MDI (Medium Dependent Interface)

L'interface de liaison 100Base-TX dépendante du support peut être de deux types. Pour un câble à paire torsadée non blindé, utilisez comme connecteur MDI un connecteur RJ 45 à 8 broches de catégorie 5. Le même connecteur est utilisé sur un réseau 10Base-T pour assurer la rétrocompatibilité avec le câblage existant de catégorie 5. utilisez le connecteur IBM STP de type 1, qui est un connecteur DB9 blindé. Ce connecteur est couramment utilisé dans les réseaux Token Ring.

Câble UTP de catégorie 5 (e)

L'interface média UTP 100Base-TX utilise deux paires de fils. Pour minimiser la diaphonie et une éventuelle distorsion du signal, les quatre fils restants ne doivent pas être utilisés pour transporter des signaux. Les signaux d'émission et de réception de chaque paire sont polarisés, un fil portant un signal positif (+) et l'autre un signal négatif (-). Le codage couleur des fils du câble et les numéros de broche du connecteur pour le réseau 100Base-TX sont indiqués dans le tableau. 1. Bien que la couche PHY 100Base-TX ait été développée après l'adoption de la norme ANSI TP-PMD, les numéros de broche du connecteur RJ 45 ont été modifiés pour s'aligner sur les brochages 10Base-T déjà utilisés. La norme ANSI TP-PMD utilise les broches 7 et 9 pour recevoir des données, tandis que les normes 100Base-TX et 10Base-T utilisent pour cela les broches 3 et 6. Ce câblage vous permet d'utiliser des adaptateurs 100Base-TX au lieu des adaptateurs 10 Base - T et connectez-les aux mêmes câbles de catégorie 5 sans changer le câblage. Dans le connecteur RJ 45, les paires de fils utilisées sont connectées aux broches 1, 2 et 3, 6. Pour le bon raccordement des fils, respectez leur code couleur.

Tableau 1. Objectif des contacts du connecteurMDIcâbleUTP100Base-TX

Les nœuds interagissent les uns avec les autres en échangeant des trames (frames). Dans Fast Ethernet, une trame est l'unité de base d'échange sur un réseau - toute information transmise entre les nœuds est placée dans le champ de données d'une ou plusieurs trames. Le transfert de trames d'un nœud à un autre n'est possible que s'il existe un moyen d'identifier sans ambiguïté tous les nœuds du réseau. Par conséquent, chaque nœud du réseau local a une adresse appelée son adresse MAC. Cette adresse est unique : pas de deux nœuds réseau local ne peut pas avoir la même adresse MAC. De plus, dans aucune technologie LAN (à l'exception d'ARCNet), deux nœuds au monde ne peuvent avoir la même adresse MAC. Toute trame contient au moins trois informations principales : l'adresse du destinataire, l'adresse de l'expéditeur et les données. Certains cadres ont d'autres champs, mais seuls les trois répertoriés sont obligatoires. La figure 4 montre la structure de la trame Fast Ethernet.

Figure 4. Structure du cadreRapideEthernet

  • adresse du destinataire- l'adresse du nœud recevant les données est indiquée ;
  • l'adresse de l'expéditeur- l'adresse du nœud qui a envoyé les données est indiquée ;
  • longueur / type(L / T - Longueur / Type) - contient des informations sur le type de données transmises ;
  • somme de contrôle de trame(PCS - Frame Check Sequence) - conçu pour vérifier l'exactitude de la trame reçue par le nœud de réception.

La taille de trame minimale est de 64 octets, ou 512 bits (termes octuor et octet - synonymes). La taille de trame maximale est de 1518 octets, soit 12144 bits.

Adressage de trame

Chaque nœud d'un réseau Fast Ethernet possède un numéro unique appelé adresse MAC ou adresse de nœud. Ce numéro est composé de 48 bits (6 octets), affectés à l'interface réseau lors de la fabrication de l'appareil et programmés lors de l'initialisation. Par conséquent, les interfaces réseau de tous les réseaux locaux, à l'exception d'ARCNet, qui utilise des adresses 8 bits attribuées par l'administrateur réseau, ont une adresse MAC unique intégrée qui diffère de toutes les autres adresses MAC sur Terre et est attribuée par le fabricant. en accord avec l'IEEE.

Pour faciliter la gestion des interfaces réseau, l'IEEE a proposé de diviser le champ d'adresse de 48 bits en quatre parties, comme le montre la figure 5. Les deux premiers bits de l'adresse (bits 0 et 1) sont des drapeaux de type adresse. La signification des drapeaux détermine comment la partie d'adresse est interprétée (bits 2 à 47).


Figure 5. Format de l'adresse MAC

Le bit I/G est appelé indicateur d'adresse individuelle / de groupe et montre quelle est l'adresse (individuelle ou de groupe). Une adresse individuelle est attribuée à une seule interface (ou nœud) sur le réseau. Les adresses avec le bit I/G mis à 0 sont Adresses MAC ou adresses de nœuds. Si le bit I/O est mis à 1, alors l'adresse appartient au groupe et est généralement appelée adresse multipoint(adresse multicast) ou adresse fonctionnelle(adresse fonctionnelle). Une adresse de multidiffusion peut être attribuée à une ou plusieurs interfaces réseau LAN. Les trames envoyées à une adresse de multidiffusion reçoivent ou copient toutes les interfaces réseau LAN qui l'ont. Les adresses de multidiffusion permettent d'envoyer une trame à un sous-ensemble d'hôtes sur un réseau local. Si le bit I/O est mis à 1, alors les bits 46 à 0 sont traités comme une adresse multicast et non comme les champs U/L, OUI et OUA de l'adresse normale. Le bit U/L est appelé drapeau de contrôle universel / local et détermine comment l'adresse a été attribuée à l'interface réseau. Si les deux bits, I/O et U/L, sont mis à 0, alors l'adresse est l'identifiant unique de 48 bits décrit précédemment.

OUI (identifiant organisationnel unique - identifiant unique sur le plan organisationnel). L'IEEE attribue une ou plusieurs OUI à chaque fabricant d'adaptateurs et d'interfaces réseau. Chaque fabricant est responsable de l'attribution correcte de l'OUA (adresse organisationnelle unique - adresse organisationnelle unique), qui devrait avoir n'importe quel périphérique qu'il crée.

Lorsque le bit U/L est défini, l'adresse est gérée localement. Cela signifie qu'il n'est pas spécifié par le fabricant de l'interface réseau. Toute organisation peut créer sa propre adresse MAC pour l'interface réseau en définissant le bit U / L sur 1 et les bits 2 à 47 sur une valeur choisie. L'interface réseau, ayant reçu la trame, décode tout d'abord l'adresse de destination. Lorsque le bit I/O est défini dans l'adresse, la couche MAC ne recevra cette trame que si l'adresse de destination est dans la liste qui est stockée sur le nœud. Cette technique permet à un nœud d'envoyer une trame à plusieurs nœuds.

Il existe une adresse de multidiffusion spéciale appelée Adresse de diffusion. Dans une adresse de diffusion IEEE 48 bits, tous les bits sont mis à 1. Si une trame est transmise avec une adresse de diffusion de destination, alors tous les nœuds du réseau la recevront et la traiteront.

Longueur/Type de champ

Le champ L / T (Longueur / Type) sert à deux fins différentes :

  • déterminer la longueur du champ de données de la trame, à l'exclusion de tout remplissage avec des espaces ;
  • pour indiquer le type de données dans le champ de données.

La valeur du champ L/T comprise entre 0 et 1500 est la longueur du champ de données de la trame ; une valeur plus élevée indique le type de protocole.

En général, le champ L/T est un résidu historique de la normalisation Ethernet dans l'IEEE, qui a donné lieu à un certain nombre de problèmes de compatibilité pour les équipements sortis avant 1983. Or Ethernet et Fast Ethernet n'utilisent jamais les champs L/T. Le champ spécifié sert uniquement à la coordination avec le logiciel qui traite les trames (c'est-à-dire avec les protocoles). Mais le seul objectif vraiment standard du champ L/T est de l'utiliser comme champ de longueur - la spécification 802.3 ne mentionne même pas son utilisation possible comme champ de type de données. La norme stipule : "Les trames avec une valeur de champ de longueur supérieure à celle spécifiée dans la clause 4.4.2 peuvent être ignorées, rejetées ou utilisées en privé. L'utilisation de ces trames est en dehors du domaine d'application de cette norme."

En résumant ce qui a été dit, nous notons que le champ L/T est le mécanisme principal par lequel type de cadre. Les trames Fast Ethernet et Ethernet, dans lesquelles la longueur du champ L/T est définie (la valeur L/T 802.3, les trames dans lesquelles le type de données est défini par la valeur du même champ (valeur L/T > 1500) sont appelé cadres Ethernet- II ou DIX.

Champ de données

Dans le champ de données contient des informations qu'un nœud envoie à un autre. Contrairement à d'autres champs qui stockent des informations très spécifiques, un champ de données peut contenir presque n'importe quelle information, tant que sa taille est d'au moins 46 et pas plus de 1500 octets. La façon dont le contenu d'un champ de données est formaté et interprété est déterminée par les protocoles.

S'il est nécessaire d'envoyer des données de moins de 46 octets, la couche LLC ajoute des octets de valeur inconnue à la fin des données, appelés données insignifiantes(données de tampon). En conséquence, la longueur du champ devient 46 octets.

Si la trame est de type 802.3, le champ L/T indique la quantité de données valides. Par exemple, si un message de 12 octets est envoyé, le champ L / T contient la valeur 12 et le champ de données contient 34 octets supplémentaires non significatifs. L'ajout d'octets insignifiants initie la couche Fast Ethernet LLC et est généralement implémenté dans le matériel.

Les fonctionnalités de la couche MAC ne spécifient pas le contenu du champ L / T - elles le font Logiciel... La définition de la valeur de ce champ est presque toujours effectuée par le pilote d'interface réseau.

Somme de contrôle de trame

La séquence de contrôle de trame (PCS) garantit que les trames reçues ne sont pas corrompues. Lors de la formation de la trame transmise au niveau MAC, une formule mathématique spéciale est utilisée CRC(Cyclic Redundancy Check), conçu pour calculer une valeur de 32 bits. La valeur résultante est placée dans le champ FCS de la trame. Les valeurs de tous les octets de la trame sont fournies à l'entrée de l'élément de couche MAC qui calcule le CRC. Le champ FCS est le principal et le plus important mécanisme de détection et de correction des erreurs Fast Ethernet. Commençant par le premier octet de l'adresse de destination et se terminant par le dernier octet du champ de données.

Valeurs des champs DSAP et SSAP

Valeurs DSAP/SSAP

La description

Indiv LLC Gestion de sous-couche

Gestion des sous-couches du groupe LLC

Contrôle de chemin SNA

Réservé (DOD IP)

ISO CLNS IS 8473

L'algorithme de codage 8B6T convertit un octet de données de huit bits (8B) en un symbole ternaire de six bits (6T). Les groupes de codes 6T sont conçus pour être transmis en parallèle sur trois paires torsadées de câbles, de sorte que le débit de données effectif pour chaque paire torsadée est d'un tiers de 100 Mbit/s, soit 33,33 Mbit/s. Le débit de symboles ternaires pour chaque paire torsadée est de 6/8 de 33,3 Mbps, ce qui correspond à une fréquence d'horloge de 25 MHz. C'est avec cette fréquence que fonctionne le timer de l'interface MP. Contrairement aux signaux binaires, qui ont deux niveaux, les signaux ternaires transmis sur chaque paire peuvent avoir trois niveaux.

Table de codage des caractères

Code linéaire

symbole

Transmission multi-niveaux MLT-3 - 3 (transmission multi-niveaux) - un peu similaire au code NRZ, mais contrairement à ce dernier, il a trois niveaux de signal.

L'unité correspond à la transition d'un niveau de signal à un autre, et le changement de niveau de signal se produit séquentiellement en tenant compte de la transition précédente. Lors de la transmission "zéro", le signal ne change pas.

Ce code, comme NRZ, doit être pré-encodé.

Compilé sur la base de matériaux:

  1. Laem Queen, Richard Russell « Ethernet rapide » ;
  2. K. Zakler « Réseaux informatiques » ;
  3. V.G. et N.A. Olifer « Réseaux informatiques » ;

Un laboratoire de test "ComputerPress" a testé des cartes réseaux Fast Ethernet pour le bus PCI destinées à être utilisées dans des postes de travail 10/100 Mbit/s. Les cartes les plus couramment utilisées actuellement avec un débit de 10/100 Mbit/s ont été sélectionnées, car, d'une part, elles peuvent être utilisées dans les réseaux Ethernet, Fast Ethernet et mixtes, et, d'autre part, la prometteuse technologie Gigabit Ethernet (bande passante jusqu'à 1000 Mbit/s) est encore le plus souvent utilisé pour connecter des serveurs puissants aux équipements réseau du cœur de réseau. Il est extrêmement important de savoir quel équipement de réseau passif de qualité (câbles, prises, etc.) est utilisé sur le réseau. Il est bien connu que si un câble à paires torsadées de catégorie 3 est suffisant pour les réseaux Ethernet, la catégorie 5 est requise pour Fast Ethernet. La diffusion du signal, une mauvaise immunité au bruit peuvent réduire considérablement la bande passante du réseau.

Le but du test était de déterminer, tout d'abord, l'indice de performance effective (Rapport Indice de Performance / Efficacité - ci-après P / E-index), et ensuite seulement - la valeur absolue du débit. L'indice P/E est calculé comme le rapport de la bande passante de la carte réseau en Mbps au pourcentage d'utilisation du CPU. Cet index est la norme de l'industrie pour déterminer les performances des cartes réseau. Il a été introduit afin de prendre en compte l'utilisation des cartes réseaux des ressources CPU. Le fait est que certains fabricants de cartes réseau essaient d'obtenir les meilleures performances en utilisant davantage de cycles de processeur pour effectuer des opérations réseau. Une faible utilisation du processeur et une bande passante relativement élevée sont essentielles pour exécuter des applications commerciales et multimédias critiques, ainsi que des tâches en temps réel.

Nous avons testé les cartes les plus utilisées actuellement pour les postes de travail dans les réseaux d'entreprise et locaux :

  1. D-Link DFE-538TX
  2. SMC EtherPower II 10/100 9432TX / MP
  3. 3Com Fast EtherLink XL 3C905B-TX-NM
  4. Compex RL 100ATX
  5. Intel EtherExpress PRO / 100 + Gestion
  6. Réseau CNet PRO-120
  7. NetGear FA310TX
  8. Allied Telesyn AT 2500TX
  9. Surecom EP-320X-R

Les principales caractéristiques des adaptateurs réseau testés sont présentées dans le tableau. 1 . Expliquons quelques-uns des termes utilisés dans le tableau. La détection automatique de la vitesse de connexion signifie que l'adaptateur détermine lui-même la vitesse de fonctionnement maximale possible. De plus, si la détection automatique est prise en charge, aucune configuration supplémentaire n'est requise lors du passage d'Ethernet à Fast Ethernet et vice versa. C'est de administrateur du système pas besoin de reconfigurer l'adaptateur et de recharger les pilotes.

La prise en charge de Bus Master permet le transfert de données directement entre la carte réseau et la mémoire de l'ordinateur. Cela libère le processeur central pour effectuer d'autres opérations. Cette propriété est devenue la norme de facto. Pas étonnant que toutes les cartes réseau connues prennent en charge le mode Bus Master.

Le réveil à distance (Wake on LAN) vous permet d'allumer le PC via le réseau. C'est-à-dire qu'il devient possible de réparer le PC en dehors des heures de travail. À cette fin, des connecteurs à trois broches sur la carte mère et l'adaptateur réseau sont utilisés, qui sont connectés avec un câble spécial (inclus dans le kit de livraison). De plus, un logiciel de contrôle spécial est requis. La technologie Wake on LAN est développée par l'alliance Intel-IBM.

Le mode duplex intégral permet aux données d'être transmises simultanément dans les deux sens, semi-duplex - uniquement dans un sens. Ainsi, le débit maximum possible en mode full duplex est de 200 Mbps.

DMI (Desktop Management Interface) permet d'obtenir des informations sur la configuration et les ressources du PC à l'aide d'un logiciel de gestion de réseau.

La prise en charge de la spécification WfM (Wired for Management) permet à la carte réseau d'interagir avec les logiciels de gestion et d'administration du réseau.

Pour démarrer à distance le système d'exploitation d'un ordinateur sur un réseau, les adaptateurs réseau sont fournis avec une mémoire BootROM spéciale. Cela permet une utilisation efficace des stations de travail sans disque sur le réseau. La plupart des cartes testées n'avaient qu'un slot BootROM ; la BootROM elle-même est généralement une option commandée séparément.

La prise en charge de l'ACPI (Advanced Configuration Power Interface) permet de réduire la consommation d'énergie. ACPI est une nouvelle technologie de gestion de l'alimentation. Il repose sur l'utilisation à la fois de matériel et de logiciels. Fondamentalement, Wake on LAN est partie de ACPI.

Des moyens exclusifs d'augmenter la productivité peuvent augmenter l'efficacité de la carte réseau. Les plus célèbres d'entre eux sont Parallel Tasking II de 3Com et Adaptive Technology d'Intel. Ces fonds sont généralement brevetés.

La prise en charge des principaux systèmes d'exploitation est fournie par presque tous les adaptateurs. Les principaux systèmes d'exploitation incluent : Windows, Windows NT, NetWare, Linux, SCO UNIX, LAN Manager et autres.

Le niveau de support du service est évalué par la disponibilité de la documentation, une disquette avec les pilotes et la possibilité de télécharger les derniers pilotes à partir du site Web de l'entreprise. L'emballage joue également un rôle important. De ce point de vue, les meilleurs, à notre avis, sont les adaptateurs réseau D-Link, Allied Telesyn et Surecom. Mais en général, le niveau de support était satisfaisant pour toutes les cartes.

En règle générale, la garantie couvre toute la durée de vie de l'adaptateur secteur (garantie à vie). Parfois, il est limité à 1 à 3 ans.

Méthodologie de test

Tous les tests ont utilisé les derniers pilotes NIC, qui ont été téléchargés à partir des serveurs Internet des fournisseurs respectifs. Dans le cas où le pilote de la carte réseau permettait des ajustements et des optimisations, les paramètres par défaut étaient utilisés (sauf pour la carte réseau Intel). A noter que les plus riches caractéristiques supplémentaires et les fonctions sont fournies par les cartes et les pilotes correspondants de 3Com et Intel.

Les performances ont été mesurées à l'aide de l'utilitaire Perform3 de Novell. Le principe de fonctionnement de l'utilitaire est qu'un petit fichier est copié d'un poste de travail vers un poste partagé. lecteur réseau serveur, après quoi il reste dans le cache de fichiers du serveur et y est lu à plusieurs reprises au cours d'une période de temps spécifiée. Cela vous permet d'obtenir des interactions mémoire à mémoire et d'éliminer l'impact de la latence du disque. Les paramètres de l'utilitaire incluent la taille initiale du fichier, la taille finale du fichier, l'étape de redimensionnement et la durée du test. L'utilitaire Novell Perform3 affiche les valeurs de performances avec différentes tailles de fichiers, les performances moyennes et maximales (en Ko / s). Les paramètres suivants ont été utilisés pour configurer l'utilitaire :

  • Taille initiale du fichier - 4095 octets
  • Taille finale du fichier - 65 535 octets
  • Incrément de fichier - 8192 octets

Le temps de test avec chaque fichier a été fixé à vingt secondes.

Chaque expérience a utilisé une paire de cartes réseau identiques, l'une fonctionnant sur un serveur et l'autre sur un poste de travail. Cela ne semble pas être conforme à la pratique courante, car les serveurs utilisent généralement des adaptateurs réseau spécialisés avec un certain nombre de fonctionnalités supplémentaires. Mais c'est exactement ainsi - les mêmes cartes réseau sont installées sur le serveur et sur les postes de travail - que les tests sont effectués par tous les laboratoires de tests connus dans le monde (KeyLabs, Tolly Group, etc.). Les résultats sont un peu inférieurs, mais l'expérience s'avère propre, puisque seules les cartes réseau analysées fonctionnent sur tous les ordinateurs.

Configuration du client Compaq DeskPro FR :

  • Processeur Pentium II 450 MHz
  • cache 512 Ko
  • RAM 128 Mo
  • disque dur 10 Go
  • système opérateur Microsoft Windows NT Server 4.0 c 6 a SP
  • Protocole TCP/IP.

Configuration du serveur Compaq DeskPro EP :

  • Processeur Celeron 400 MHz
  • RAM 64 Mo
  • disque dur 4,3 Go
  • système d'exploitation Microsoft Windows NT Workstation 4.0 c c 6 a SP
  • Protocole TCP/IP.

Les tests ont été effectués avec des ordinateurs connectés directement avec un câble croisé UTP de catégorie 5. Au cours de ces tests, les cartes fonctionnaient en mode 100Base-TX Full Duplex. Dans ce mode, le débit s'avère un peu plus élevé du fait qu'une partie des informations de service (par exemple, accusé de réception) est transmise simultanément avec les informations utiles dont le montant est estimé. Dans ces conditions, il a été possible d'enregistrer des valeurs de débit assez élevées ; par exemple, l'adaptateur 3Com Fast EtherLink XL 3C905B-TX-NM a une moyenne de 79,23 Mbps.

La charge du processeur a été mesurée sur le serveur à l'aide de l'utilitaire Windows NT Performance Monitor ; les données ont été écrites dans un fichier journal. L'utilitaire Perform3 a été exécuté sur le client afin de ne pas affecter la charge du processeur du serveur. Intel Celeron a été utilisé comme processeur de l'ordinateur serveur, dont les performances sont nettement inférieures à celles des processeurs Pentium II et III. Intel Celeron a été utilisé à dessein : le fait est que, puisque la charge du processeur est déterminée avec une erreur absolue suffisamment grande, dans le cas de valeurs absolues élevées, l'erreur relative s'avère être plus petite.

Après chaque test, l'utilitaire Perform3 place les résultats de son travail dans un fichier texte sous la forme d'un ensemble de données de la forme suivante :

65535 octets. 10491,49 Kbit/s. 10491.49 Kbps agrégés. 57343 octets. 10844,03 Ko/s. 10844.03 Kbps agrégés. 49151 octets. 10737.95 Kbps. 10737.95 Kbps agrégés. 40959 octets. 10603.04 Ko/s. 10603.04 Agrégat de Kbps. 32767 octets. 10497.73 Ko/s. 10497.73 Kbps agrégés. 24575 octets. 10220,29 Kbit/s. 10220.29 Kbps agrégés. 16 383 octets. 9573.00 Ko/s. 9573.00 Kbps agrégés. 8191 octets. 8195,50 Ko/s. 8195,50 Kbps agrégés. 10844.03 Kbps maximum. 10145,38 KBp moyen.

La taille du fichier est affichée, le débit correspondant pour le client sélectionné et pour tous les clients (dans ce cas, il n'y a qu'un seul client), ainsi que le débit maximum et moyen tout au long du test. Les valeurs moyennes résultantes pour chaque test ont été converties de KB/s en Mbit/s en utilisant la formule :
(Ko x 8) / 1024,
et la valeur de l'indice P/E a été calculée comme le rapport du débit à la charge du processeur en pourcentage. Par la suite, la valeur moyenne de l'indice P/E a été calculée sur la base des résultats de trois mesures.

À l'aide de l'utilitaire Perform3 sur Windows NT Workstation, le problème suivant est survenu : en plus d'écrire sur un lecteur réseau, le fichier a également été écrit dans le cache de fichiers local, à partir duquel il a ensuite été lu très rapidement. Les résultats étaient impressionnants, mais irréalistes, car il n'y avait pas de transfert de données en soi sur le réseau. Pour permettre aux applications de traiter les lecteurs réseau partagés comme d'habitude lecteurs locaux, le système d'exploitation utilise un composant réseau spécial - un redirecteur qui redirige les demandes d'E/S sur le réseau. Dans des conditions de fonctionnement normales, lors de l'exécution de la procédure d'écriture d'un fichier sur un lecteur réseau partagé, le redirecteur utilise l'algorithme de mise en cache de Windows NT. C'est pourquoi, lors de l'écriture sur le serveur, il écrit également dans le cache de fichiers local de la machine cliente. Et pour tester, il faut que la mise en cache soit effectuée uniquement sur le serveur. Pour s'assurer qu'il n'y a pas de mise en cache sur l'ordinateur client, dans Registre Windows Les valeurs des paramètres NT ont été modifiées pour désactiver la mise en cache effectuée par le redirecteur. Voici comment cela a été fait :

  1. Chemin du registre :

    HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Services \ Rdr \ Parameters

    Le nom du paramètre:

    UseWriteBehind permet l'optimisation de l'écriture différée pour les fichiers en cours d'écriture

    Tapez : REG_DWORD

    Valeur : 0 (par défaut : 1)

  2. Chemin du registre :

    HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Services \ Lanmanworkstation \ parameters

    Le nom du paramètre:

    UtilizeNTCaching spécifie si le redirecteur utilisera le gestionnaire de cache de Windows NT pour mettre en cache le contenu du fichier.

    Type : REG_DWORD Valeur : 0 (par défaut : 1)

Carte réseau de gestion Intel EtherExpress PRO / 100 +

Le débit de la carte et l'utilisation du processeur sont presque les mêmes que ceux de 3Com. Les fenêtres de réglage des paramètres de cette carte sont présentées ci-dessous.

Le nouveau contrôleur Intel 82559 de cette carte offre des performances très élevées, notamment dans les réseaux Fast Ethernet.

La technologie qu'Intel utilise dans sa carte Intel EtherExpress PRO/100+ s'appelle Adaptive Technology. L'essence de la méthode est de modifier automatiquement les intervalles de temps entre les paquets Ethernet, en fonction de la charge du réseau. À mesure que la congestion du réseau augmente, la distance entre les paquets Ethernet individuels augmente de manière dynamique, ce qui réduit les collisions et augmente le débit. Avec une faible charge réseau, lorsque la probabilité de collisions est faible, les intervalles de temps entre les paquets sont réduits, ce qui conduit également à une augmentation des performances. Les avantages de cette méthode devraient être plus importants dans les grands segments Ethernet collisionnels, c'est-à-dire dans les cas où les concentrateurs plutôt que les commutateurs dominent la topologie du réseau.

La nouvelle technologie d'Intel, appelée Priority Packet, permet de limiter le trafic carte réseau, selon les priorités des packages individuels. Cela permet d'augmenter les taux de transfert de données pour les applications critiques.

Le support VLAN est fourni (norme IEEE 802.1Q).

Il n'y a que deux indicateurs sur la carte - travail / connexion, vitesse 100.

www.intel.com

Adaptateur réseau SMC EtherPower II 10/100 SMC9432TX/MP

L'architecture de cette carte utilise deux technologies prometteuses SMC SimulTasking et Programmable InterPacket Gap. La première technologie est similaire à la technologie 3Com Parallel Tasking. En comparant les résultats des tests des cartes de ces deux fabricants, nous pouvons conclure sur le degré d'efficacité de la mise en œuvre de ces technologies. A noter également que cette carte réseau affiche le troisième résultat en termes de performances et d'indice P/E, surpassant toutes les cartes sauf 3Com et Intel.

Il y a quatre indicateurs LED sur la carte : vitesse 100, transmission, connexion, duplex.

Le site Web principal de la société est www.smc.com

Ethernet, mais aussi à l'équipement d'autres réseaux moins répandus.

Adaptateurs Ethernet et Fast Ethernet

Caractéristiques de l'adaptateur

Adaptateurs réseau (NIC, carte d'interface réseau) Ethernet et Fast Ethernet peuvent s'interfacer avec un ordinateur via l'une des interfaces standard :

  • bus ISA (architecture standard de l'industrie) ;
  • Bus PCI (Interconnexion de composants périphériques) ;
  • Bus de carte PC (alias PCMCIA) ;

Il n'y a pas si longtemps, les adaptateurs conçus pour le bus système ISA (backbone) étaient le principal type d'adaptateurs. Le nombre d'entreprises produisant de tels adaptateurs était important, c'est pourquoi les appareils de ce type étaient les moins chers. Les adaptateurs ISA sont disponibles en 8 et 16 bits. Les adaptateurs 8 bits sont moins chers, tandis que les adaptateurs 16 bits sont plus rapides. Certes, l'échange d'informations via le bus ISA ne peut pas être trop rapide (dans la limite - 16 Mo / s, en réalité - pas plus de 8 Mo / s, et pour les adaptateurs 8 bits - jusqu'à 2 Mo / s). Par conséquent, les adaptateurs Fast Ethernet qui nécessitent travail efficace des débits en bauds élevés ne sont pratiquement pas disponibles pour ce bus système. Le bus ISA appartient au passé.

Le bus PCI a désormais pratiquement supplanté le bus ISA et devient le principal bus d'extension pour les ordinateurs. Il permet un échange de données 32 et 64 bits et dispose d'un débit élevé (théoriquement jusqu'à 264 Mo / s), qui satisfait pleinement aux exigences non seulement du Fast Ethernet, mais également du Gigabit Ethernet plus rapide. Il est également important que le bus PCI soit utilisé non seulement dans les PC IBM, mais également dans les ordinateurs PowerMac. De plus, il prend en charge la configuration matérielle automatique Plug-and-Play. Apparemment, dans un avenir proche, la majorité des adaptateurs réseau... L'inconvénient du PCI par rapport au bus ISA est que le nombre de ses emplacements d'extension dans un ordinateur est généralement petit (généralement 3 emplacements). Mais c'est précisément adaptateurs réseau connectez-vous d'abord à PCI.

Le bus PC Card (ancien nom PCMCIA) n'est utilisé jusqu'à présent que dans les ordinateurs portables de la classe Notebook. Dans ces ordinateurs, le bus PCI interne n'est généralement pas acheminé. L'interface PC Card permet une connexion simple à un ordinateur de cartes d'extension miniatures, et le taux de change avec ces cartes est assez élevé. Cependant, de plus en plus d'ordinateurs portables sont équipés de adaptateurs réseau, car la possibilité d'accéder au réseau devient une partie intégrante de l'ensemble standard de fonctions. Ces adaptateurs embarqués sont à nouveau connectés au bus PCI interne de l'ordinateur.

Au moment de choisir Adaptateur de réseau orienté vers un bus particulier, il faut tout d'abord s'assurer qu'il y a des slots d'extension libres pour ce bus dans l'ordinateur connecté au réseau. Il est également nécessaire d'évaluer la pénibilité de l'installation de l'adaptateur acheté et les perspectives de sortie de cartes de ce type. Ce dernier peut être nécessaire en cas de panne de l'adaptateur.

Enfin, il y a plus adaptateurs réseau connexion à un ordinateur via un parallèle (imprimante) port LPT... Le principal avantage de cette approche est que vous n'avez pas besoin d'ouvrir le boîtier de l'ordinateur pour connecter les adaptateurs. De plus, dans ce cas, les adaptateurs n'occupent pas les ressources système de l'ordinateur, telles que les canaux d'interruption et les DMA, ainsi que les adresses de mémoire et de périphériques d'E/S. Cependant, la vitesse d'échange d'informations entre eux et l'ordinateur dans ce cas est beaucoup plus faible que lors de l'utilisation du bus système. De plus, ils nécessitent plus de temps processeur pour communiquer avec le réseau, ce qui ralentit l'ordinateur.

Récemment, on trouve de plus en plus d'ordinateurs dans lesquels adaptateurs réseau intégré dans carte système... Les avantages de cette approche sont évidents : l'utilisateur n'a pas besoin d'acheter une carte réseau et de l'installer dans un ordinateur. Tout ce que vous avez à faire est de connecter le câble réseau à un connecteur externe sur votre ordinateur. Cependant, l'inconvénient est que l'utilisateur ne peut pas sélectionner l'adaptateur avec les meilleures performances.

Aux autres caractéristiques essentielles adaptateurs réseau peut être attribué:

  • façon de configurer l'adaptateur;
  • la taille de la mémoire tampon installée sur la carte et les modes d'échange avec elle ;
  • la possibilité d'installer une puce mémoire permanente sur la carte pour le démarrage à distance (BootROM).
  • la possibilité de connecter l'adaptateur à différents types de supports de transmission (paire torsadée, câble coaxial fin et épais, câble de fibre optique);
  • utilisé par la vitesse de transmission de l'adaptateur sur le réseau et la disponibilité de la fonction de sa commutation;
  • la possibilité d'utiliser l'adaptateur du mode d'échange full-duplex;
  • compatibilité de l'adaptateur (plus précisément du pilote de l'adaptateur) avec le logiciel réseau utilisé.

La configuration utilisateur de l'adaptateur était principalement utilisée pour les adaptateurs conçus pour le bus ISA. La configuration implique un ajustement à l'utilisation des ressources du système informatique (adresses d'E/S, canaux d'interruption et accès direct à la mémoire, mémoire tampon et mémoire de démarrage à distance). La configuration peut être effectuée en plaçant les commutateurs (cavaliers) sur la position souhaitée ou en utilisant le programme de configuration DOS fourni avec l'adaptateur (Jumperless, Configuration logicielle). Lors du démarrage d'un tel programme, l'utilisateur est invité à définir la configuration matérielle à l'aide de menu simple: sélectionnez les options de l'adaptateur. Le même programme vous permet de faire auto-test adaptateur. Les paramètres sélectionnés sont stockés dans la mémoire non volatile de l'adaptateur. Dans tous les cas, lors du choix des paramètres, vous devez éviter les conflits avec périphériques système ordinateur et avec d'autres cartes d'extension.

L'adaptateur peut également être configuré automatiquement en mode Plug-and-Play lorsque l'ordinateur est sous tension. Les adaptateurs modernes prennent généralement en charge ce mode, ils peuvent donc être facilement installés par l'utilisateur.

Dans les adaptateurs les plus simples, l'échange avec la mémoire tampon interne de l'adaptateur (Adapter RAM) s'effectue via l'espace d'adressage des périphériques d'E/S. Dans ce cas, aucune configuration supplémentaire d'adresses mémoire n'est requise. L'adresse de base de la mémoire tampon partagée doit être spécifiée. Il est affecté à la zone de la mémoire supérieure de l'ordinateur (

introduction

Le but de ce rapport était une présentation concise et accessible des principes de base du fonctionnement et des caractéristiques des réseaux informatiques, en utilisant l'exemple du Fast Ethernet.

Un réseau est un groupe d'ordinateurs et d'autres appareils connectés. L'objectif principal des réseaux informatiques est le partage des ressources et la mise en œuvre d'une communication interactive à la fois au sein d'une entreprise et à l'extérieur de celle-ci. Les ressources sont des données, des applications et des périphériques tels qu'un lecteur externe, une imprimante, une souris, un modem ou un joystick. Le concept de communication interactive des ordinateurs implique l'échange de messages dans mode réel temps.

Il existe de nombreux ensembles de normes pour la transmission de données dans les réseaux informatiques. L'un des kits est la norme Fast Ethernet.

À partir de ce matériel, vous apprendrez :

  • Technologies Fast Ethernet
  • Commutateurs
  • Câble FTP
  • Types de connexion
  • Topologies réseau informatique

Dans mon travail, je montrerai les principes d'un réseau basé sur la norme Fast Ethernet.

Les technologies de commutation de réseau local (LAN) et Fast Ethernet ont été développées en réponse au besoin d'améliorer l'efficacité des réseaux Ethernet. En augmentant la bande passante, ces technologies peuvent éliminer les goulots d'étranglement du réseau et prendre en charge les applications qui nécessitent des débits de données élevés. L'intérêt de ces solutions est que vous n'avez pas à choisir l'une ou l'autre. Ils sont complémentaires, de sorte que l'efficacité du réseau peut le plus souvent être améliorée en utilisant les deux technologies.

Les informations recueillies seront utiles à la fois pour ceux qui commencent à étudier les réseaux informatiques et pour les administrateurs de réseau.

1. Schéma du réseau

2. Technologie Fast Ethernet

réseau informatique ethernet rapide

Fast Ethernet est le résultat de l'évolution de la technologie Ethernet. Basés sur la même méthode CSMA / CD (Channel Polling and Collision Detection Shared Access) et la conservant intacte, les périphériques Fast Ethernet fonctionnent à une vitesse 10 fois supérieure à celle d'Ethernet. 100 Mbps. Fast Ethernet fournit une bande passante suffisante pour des applications telles que la conception et la fabrication assistées par ordinateur (CAO/FAO), les graphiques et l'imagerie, et le multimédia. Fast Ethernet est compatible avec Ethernet 10 Mbps, il est donc plus pratique d'intégrer Fast Ethernet dans votre réseau local en utilisant un commutateur plutôt qu'un routeur.

Changer

Utilisation des commutateurs de nombreux groupes de travail peuvent être reliés entre eux pour former un grand réseau local (voir Figure 1). Les commutateurs bon marché fonctionnent mieux que les routeurs pour de meilleures performances LAN. Les groupes de travail Fast Ethernet d'un ou deux concentrateurs peuvent être connectés via un commutateur Fast Ethernet pour augmenter encore le nombre d'utilisateurs et couvrir une zone plus large.

À titre d'exemple, considérons le commutateur suivant :

Riz. 1 D-Link-1228 / ME

La série DES-1228 / ME comprend des commutateurs Fast Ethernet configurables de classe "premium" de couche 2. Avec des fonctionnalités avancées, les appareils DES-1228 / ME offrent une solution à faible coût pour créer un réseau sécurisé et performant. Caractéristiques distinctives Ce commutateur présente une densité de ports élevée, 4 ports Gigabit Uplink, de petites étapes de réglage pour la gestion de la bande passante et une gestion de réseau améliorée. Ces commutateurs vous permettent d'optimiser le réseau à la fois en termes de fonctionnalités et de caractéristiques de coût. Les commutateurs de la série DES-1228 / ME sont la solution optimale à la fois en termes de fonctionnalité et de caractéristiques de coût.

Câble FTP

Câble LAN-5EFTP-BL se compose de 4 paires de conducteurs en cuivre massif.

Diamètre du conducteur 24AWG.

Chaque conducteur est recouvert d'une isolation HDPE (polyéthylène haute densité).

Deux conducteurs torsadés à un pas spécialement sélectionné forment une paire torsadée.

4 paires torsadées sont enveloppées dans un film de polyéthylène et, avec un conducteur de terre en cuivre unipolaire, sont enfermées dans un blindage en feuille commun et une gaine en PVC.

Tout droit

Ça sert:

  • 1. Pour connecter un ordinateur à un commutateur (hub, commutateur) via la carte réseau de l'ordinateur
  • 2. Pour se connecter à un commutateur (hub, commutateur) d'équipements périphériques réseau - imprimantes, scanners
  • 3. pour UPLINK "et sur le commutateur de niveau supérieur (hub, commutateur) - les commutateurs modernes peuvent configurer automatiquement les entrées dans le connecteur pour la réception et la transmission

Croisement

Ça sert:

  • 1. Pour la connexion directe de 2 ordinateurs à un réseau local, sans l'utilisation d'équipements de commutation (hubs, commutateurs, routeurs, etc.).
  • 2. pour la liaison montante, connexion à un commutateur de niveau supérieur dans une structure de réseau local complexe, pour les anciens types de commutateurs (hubs, commutateurs), ils ont un connecteur séparé, ou marqué "UPLINK" ou X.

Topologie en étoile

Aux étoiles- la topologie de base d'un réseau informatique, dans laquelle tous les ordinateurs du réseau sont connectés à un nœud central (généralement un commutateur), formant un segment de réseau physique. Un tel segment de réseau peut fonctionner à la fois séparément et dans le cadre d'une topologie de réseau complexe (généralement un « arbre »). Tous les échanges d'informations s'effectuent exclusivement via l'ordinateur central, auquel une charge très importante est ainsi imposée, il ne peut donc être engagé que dans le réseau. En règle générale, c'est l'ordinateur central qui est le plus puissant, et c'est à lui que sont confiées toutes les fonctions de gestion de l'échange. En principe, aucun conflit dans un réseau avec une topologie en étoile n'est possible, car la gestion est complètement centralisée.

Application

L'Ethernet 10 mégabits classique satisfait la plupart des utilisateurs depuis environ 15 ans. Cependant, au début des années 90, sa bande passante insuffisante a commencé à se faire sentir. Pour les ordinateurs sur Processeurs Intel 80286 ou 80386 avec ISA (8 Mo/s) ou EISA (32 Mo/s), la bande passante Ethernet était de 1/8 ou 1/32 du canal mémoire-à-disque, ce qui était en bon accord avec le ratio de les volumes de données traités localement et les données transmises sur le réseau. Pour les stations clientes plus puissantes avec un bus PCI (133 Mo/s), cette part est tombée à 1/133, ce qui n'était clairement pas suffisant. En conséquence, de nombreux segments Ethernet 10 Mbits sont devenus encombrés, la réactivité du serveur a considérablement diminué et les taux de collision ont considérablement augmenté, réduisant encore la bande passante utilisable.

Il y a un besoin de développer un "nouveau" Ethernet, c'est-à-dire une technologie qui serait aussi efficace en terme de rapport qualité/prix à une performance de 100 Mbps. À la suite de recherches et de recherches, les spécialistes ont été divisés en deux camps, ce qui a finalement conduit à l'émergence de deux nouvelles technologies - Fast Ethernet et l00VG-AnyLAN. Ils diffèrent par le degré de continuité avec l'Ethernet classique.

En 1992, un groupe de fabricants d'équipements de réseau, comprenant des leaders de la technologie Ethernet tels que SynOptics, 3Com et d'autres, ont formé la Fast Ethernet Alliance, une alliance à but non lucratif, pour standardiser une nouvelle technologie qui préserverait les fonctionnalités d'Ethernet comme autant que possible.

Le deuxième camp était dirigé par Hewlett-Packard et AT&T, qui ont proposé de profiter de l'occasion pour remédier à certaines des failles connues de la technologie Ethernet. Quelque temps plus tard, IBM a rejoint ces sociétés, ce qui a contribué à la proposition de fournir une certaine compatibilité avec les réseaux Token Ring dans la nouvelle technologie.

Parallèlement, un groupe de recherche a été formé au sein du comité 802 de l'IEEE pour étudier le potentiel technique des nouvelles technologies à haut débit. Entre fin 1992 et fin 1993, le groupe IEEE a examiné les solutions 100 mégabits proposées par divers fabricants... En plus de l'offre Fast Ethernet Alliance, le groupe a également passé en revue la technologie haut débit proposée par Hewlett-Packard et AT&T.

Les discussions ont porté sur la question de la préservation de la méthode d'accès aléatoire CSMA/CD. La proposition Fast Ethernet Alliance a maintenu cette méthode et a ainsi assuré la continuité et la cohérence des réseaux 10 Mbps et 100 Mbps. Une coalition de HP et AT&T, qui bénéficiait du soutien de beaucoup moins de fournisseurs du secteur des réseaux que la Fast Ethernet Alliance, a proposé une toute nouvelle méthode d'accès appelée Priorité de la demande- accès prioritaire sur demande. Cela a considérablement changé l'image du comportement des nœuds du réseau, de sorte qu'il ne pouvait pas s'adapter à la technologie Ethernet et à la norme 802.3, et un nouveau comité IEEE 802.12 a été organisé pour la standardiser.

À l'automne 1995, les deux technologies sont devenues des normes IEEE. Le comité IEEE 802.3 a adopté la spécification Fast Ethernet en tant que norme 802.3 et n'est pas une norme autonome, mais un ajout à la norme 802.3 existante sous la forme des chapitres 21 à 30. Le comité 802.12 a adopté la technologie l00VG-AnyLAN, qui utilise la nouvelle méthode d'accès Demand Priority et prend en charge les trames dans deux formats - Ethernet et Token Ring.

v Couche physique de la technologie Fast Ethernet

Toutes les différences entre la technologie Fast Ethernet et Ethernet se concentrent sur la couche physique (Fig. 3.20). Les couches MAC et LLC dans Fast Ethernet sont restées exactement les mêmes et sont décrites dans les chapitres précédents des normes 802.3 et 802.2. Par conséquent, compte tenu de la technologie Fast Ethernet, nous n'étudierons que quelques options pour sa couche physique.

La structure plus complexe de la couche physique de la technologie Fast Ethernet est due au fait qu'elle utilise trois options pour les systèmes câblés :

  • · Câble multimode à fibre optique, deux fibres sont utilisées ;
  • · Paire torsadée de catégorie 5, deux paires sont utilisées ;
  • · Paire torsadée de catégorie 3, quatre paires sont utilisées.

Le câble coaxial, qui a donné au monde le premier réseau Ethernet, n'était pas inclus dans le nombre de supports de transmission de données autorisés de la nouvelle technologie Fast Ethernet. C'est une tendance courante dans de nombreuses nouvelles technologies, car sur de courtes distances, les paires torsadées de catégorie 5 peuvent transmettre des données à la même vitesse que le câble coaxial, mais le réseau est moins cher et plus facile à utiliser. Sur de longues distances, la fibre optique a une bande passante beaucoup plus large que le câble coaxial, et le coût du réseau n'est pas beaucoup plus élevé, surtout si l'on considère les coûts de dépannage élevés d'un grand système de câblage coaxial.


Différences entre la technologie Fast Ethernet et la technologie Ethernet

Refus de câble coaxial conduit au fait que les réseaux Fast Ethernet ont toujours une structure arborescente hiérarchique construite sur des hubs, comme les réseaux l0Base-T / l0Base-F. La principale différence entre les configurations Fast Ethernet est la réduction du diamètre du réseau à environ 200 m, ce qui s'explique par une réduction par 10 du temps de transmission d'une longueur de trame minimale due à une multiplication par 10 de la vitesse de transmission par rapport à 10 -Ethernet Mbps.

Néanmoins, cette circonstance n'entrave pas grandement la construction de grands réseaux basés sur la technologie Fast Ethernet. Le fait est que le milieu des années 90 a été marqué non seulement par la généralisation de technologies à haut débit peu coûteuses, mais aussi par le développement rapide des réseaux locaux basés sur des commutateurs. Lors de l'utilisation de commutateurs, le protocole Fast Ethernet peut fonctionner en mode duplex intégral, dans lequel il n'y a aucune restriction sur la longueur totale du réseau, et uniquement des restrictions sur la longueur des segments physiques reliant les appareils voisins (adaptateur - commutateur ou commutateur - commutateur) restent. Par conséquent, lors de la création de backbones LAN longue distance, la technologie Fast Ethernet est également activement utilisée, mais uniquement dans une version full-duplex, avec des commutateurs.

Cette section traite de la variante semi-duplex de la technologie Fast Ethernet, qui est entièrement conforme à la définition d'une méthode d'accès décrite dans la norme 802.3.

Par rapport aux options de mise en œuvre physique d'Ethernet (et il y en a six), dans Fast Ethernet, les différences entre chaque option des autres sont plus profondes - à la fois le nombre de conducteurs et les méthodes de codage changent. Et comme les versions physiques de Fast Ethernet ont été créées simultanément, et non de manière évolutive, comme pour les réseaux Ethernet, il a été possible de définir en détail les sous-couches de la couche physique qui ne changent pas d'une version à l'autre, et ces sous-niveaux qui sont spécifiques à chaque version de l'environnement physique.

La norme officielle 802.3 a établi trois spécifications différentes pour la couche physique Fast Ethernet et leur a donné les noms suivants :

Structure de couche physique Fast Ethernet

  • · 100Base-TX pour câble à deux paires sur paire torsadée non blindée UTP catégorie 5 ou paire torsadée blindée STP Type 1 ;
  • · 100Base-T4 pour un câble à quatre paires sur une paire torsadée non blindée UTP catégorie 3, 4 ou 5 ;
  • · 100Base-FX pour câble à fibre optique multimode, deux fibres sont utilisées.

Les déclarations et caractéristiques suivantes s'appliquent aux trois normes.

  • · Les formats de trame Fast Ethernetee sont différents des trames Ethernet 10Mbit.
  • · L'Inter-Frame Gap (IPG) est de 0,96 µs et le Bit Gap est de 10 ns. Tous les paramètres temporels de l'algorithme d'accès (intervalle de backoff, temps de transmission de la longueur minimale de trame, etc.), mesurés en intervalles de bits, sont restés les mêmes, par conséquent, aucune modification n'a été apportée aux sections de la norme concernant le niveau MAC.
  • · Un signe de l'état libre du support est la transmission du symbole Idle du code de redondance correspondant sur celui-ci (et non l'absence de signaux, comme dans les normes Ethernet 10 Mbit/s). La couche physique comprend trois éléments :
  • o sous-couche de réconciliation ;
  • o interface indépendante des médias (Mil);
  • o Périphérique de couche physique (PHY).

La couche de négociation est nécessaire pour que la couche MAC, conçue pour l'interface AUI, puisse fonctionner avec la couche physique via l'interface IP.

Le dispositif de couche physique (PHY) se compose, à son tour, de plusieurs sous-niveaux (voir Fig. 3.20) :

  • · La sous-couche de codage logique des données, qui convertit les octets provenant du niveau MAC en symboles de code 4B / 5B ou 8B / 6T (les deux codes sont utilisés dans la technologie Fast Ethernet) ;
  • · Sous-couches d'interconnexion physique et sous-couches de dépendance physique des supports (PMD) qui fournissent une signalisation conformément à une technique de codage physique telle que NRZI ou MLT-3;
  • · Une sous-couche d'auto-négociation, qui permet à deux ports communicants de sélectionner automatiquement le mode de fonctionnement le plus efficace, par exemple, semi-duplex ou duplex intégral (cette sous-couche est facultative).

L'interface IP prend en charge un moyen d'échange de données indépendant du support physique entre la sous-couche MAC et la sous-couche PHY. Cette interface est similaire à l'interface AUI de l'Ethernet classique, sauf que l'interface AUI était située entre la sous-couche de codage du signal physique (pour toutes les variantes de câble, la même méthode de codage physique a été utilisée - code Manchester) et la sous-couche de connexion physique au et l'interface IP est située entre la sous-couche MAC et les sous-niveaux de codage du signal, dont il existe trois dans la norme Fast Ethernet - FX, TX et T4.

Le connecteur MP, contrairement au connecteur AUI, a 40 broches, la longueur de câble maximale pour le MP est d'un mètre. Les signaux transmis via l'interface MP ont une amplitude de 5 V.

Couche physique 100Base-FX - fibre multimode, deux fibres

Cette spécification définit le fonctionnement de Fast Ethernet sur fibre multimode en modes semi-duplex et duplex intégral sur la base du schéma de codage FDDI éprouvé. Comme dans la norme FDDI, chaque nœud est connecté au réseau par deux fibres optiques provenant du récepteur (R x) et de l'émetteur (T x).

Il existe de nombreuses similitudes entre les spécifications l00Base-FX et l00Base-TX, les propriétés communes aux deux spécifications seront donc données sous le nom générique l00Base-FX / TX.

Alors qu'Ethernet 10 Mbps utilise le codage Manchester pour représenter les données sur câble, Fast Ethernet définit une méthode de codage différente, 4V / 5V. Cette méthode a déjà montré son efficacité dans la norme FDDI et a été transférée sans modification à la spécification l00Base-FX / TX. Dans cette méthode, tous les 4 bits de données de sous-couche MAC (appelés symboles) sont représentés par 5 bits. Le bit redondant permet d'appliquer des codes candidats en représentant chacun des cinq bits sous forme d'impulsions électriques ou optiques. L'existence de combinaisons de caractères interdites permet de rejeter les caractères erronés, ce qui augmente la stabilité des réseaux avec l00Base-FX/TX.

Pour séparer la trame Ethernet des symboles Idle, une combinaison de symboles Start Delimiter est utilisée (une paire de symboles J (11000) et K (10001) du code 4B/5B, et après la fin de la trame, un symbole T est inséré avant le premier symbole Idle.


Flux de données continu des spécifications 100Base-FX / TX

Après avoir converti des portions de 4 bits de codes MAC en portions de 5 bits de la couche physique, ils doivent être représentés sous forme de signaux optiques ou électriques dans le câble reliant les nœuds du réseau. Les spécifications l00Base-FX et l00Base-TX utilisent différentes méthodes de codage physique pour cela - NRZI et MLT-3, respectivement (comme dans la technologie FDDI lorsque l'on travaille sur fibre et paire torsadée).

Couche physique 100Base-TX - paire torsadée DTP Cat 5 ou STP Type 1, deux paires

La spécification l00Base-TX utilise un câble UTP de catégorie 5 ou un câble STP de type 1. La longueur de câble maximale dans les deux cas est de 100 m.

Les principales différences par rapport à la spécification l00Base-FX sont l'utilisation de la méthode MLT-3 pour transmettre des signaux de portions de code 5 bits 4V/5V sur une paire torsadée, ainsi que la présence de la fonction Auto-négociation pour sélectionner le port mode de fonctionnement. Le schéma d'auto-négociation permet à deux appareils connectés physiquement qui prennent en charge plusieurs normes de couche physique, différant par le débit binaire et le nombre de paires torsadées, de choisir le mode de fonctionnement le plus avantageux. En règle générale, la procédure de négociation automatique se produit lorsque vous connectez une carte réseau pouvant fonctionner à des vitesses de 10 et 100 Mbps à un concentrateur ou un commutateur.

Le schéma d'auto-négociation décrit ci-dessous est désormais la norme pour la technologie 100Base-T. Avant cela, les fabricants utilisaient divers schémas propriétaires pour déterminer automatiquement la vitesse des ports en interaction, qui n'étaient pas compatibles. Le schéma d'auto-négociation standard a été proposé à l'origine par National Semiconductor sous le nom de NWay.

Un total de 5 sont actuellement identifiés différents modes fonctionne qui peut prendre en charge les appareils à paires torsadées l00Base-TX ou 100Base-T4 ;

  • L0Base-T - 2 paires de catégorie 3 ;
  • L0Base-T full-duplex - 2 paires de catégorie 3 ;
  • L00Base-TX - 2 paires de catégorie 5 (ou Type 1ASTP) ;
  • 100Base-T4 - 4 paires de catégorie 3 ;
  • 100Base-TX full-duplex - 2 paires de Catégorie 5 (ou Type 1A STP).

L0Base-T a la priorité d'appel la plus basse et 100Base-T4 full duplex a la priorité la plus élevée. Le processus de négociation se produit à la mise sous tension de l'appareil et peut également être lancé à tout moment par le module de contrôle de l'appareil.

L'appareil qui a lancé le processus d'auto-négociation envoie une rafale d'impulsions spéciales à son partenaire. Rafale d'impulsions de liaison rapide (FLP), qui contient un mot de 8 bits qui code le mode de communication proposé, en commençant par le plus élevé pris en charge par ce nœud.

Si le nœud partenaire prend en charge la fonction d'auto-négociation et peut également prendre en charge le mode proposé, il répond par une salve d'impulsions FLP, dans laquelle il confirme ce mode, et la négociation s'arrête là. Si le nœud partenaire peut prendre en charge un mode de priorité inférieure, il l'indique dans la réponse et ce mode est sélectionné comme mode de travail. Ainsi, le mode commun de priorité la plus élevée des nœuds est toujours sélectionné.

Un nœud qui ne prend en charge que la technologie l0Base-T envoie des impulsions Manchester toutes les 16 ms pour vérifier la continuité de la ligne le reliant au nœud voisin. Un tel nœud ne comprend pas la requête FLP que lui fait le nœud d'Auto-négociation et continue à envoyer ses impulsions. Un nœud qui n'a reçu que des impulsions de contrôle de continuité de ligne en réponse à une requête FLP, se rend compte que son partenaire ne peut fonctionner que selon la norme l0Base-T, et définit ce mode de fonctionnement pour lui-même.

Couche physique 100Base-T4 - paire torsadée UTP Cat 3, quatre paires

La spécification 100Base-T4 a été conçue pour tirer parti du câblage à paires torsadées existant de catégorie 3 pour l'Ethernet haut débit. Cette spécification améliore le débit global en transmettant simultanément des flux de bits sur les 4 paires de câbles.

La spécification 100Base-T4 est apparue plus tard que les autres spécifications de couche physique Fast Ethernet. Les développeurs de cette technologie voulaient avant tout créer des spécifications physiques les plus proches des spécifications l0Base-T et l0Base-F, qui fonctionnaient sur deux lignes de données : deux paires ou deux fibres. Pour mettre en œuvre des travaux sur deux paires torsadées, nous avons dû passer à un câble de catégorie 5 de meilleure qualité.

Dans le même temps, les développeurs de la technologie concurrente l00VG-AnyLAN se sont initialement appuyés sur des câbles à paires torsadées de catégorie 3 ; le principal avantage n'était pas tant le coût, mais le fait qu'il avait déjà été posé dans le nombre écrasant de bâtiments. Par conséquent, après la publication des spécifications l00Base-TX et l00Base-FX, les développeurs de la technologie Fast Ethernet ont mis en œuvre leur propre version de la couche physique pour paires torsadées de catégorie 3.

Au lieu du codage 4V/5V, cette méthode utilise un codage 8V/6T, qui a un spectre de signal plus étroit et à une vitesse de 33 Mbps s'insère dans la bande 16 MHz d'une paire torsadée de catégorie 3 (lors du codage 4V/5V, le signal spectre ne rentre pas dans cette bande) ... Tous les 8 bits d'informations de couche MAC sont codés avec 6 symboles ternaires, c'est-à-dire des chiffres avec trois états. Chaque chiffre ternaire a une longueur de 40 ns. Un groupe de 6 chiffres ternaires est ensuite transmis à l'une des trois paires torsadées de transmission, indépendamment et séquentiellement.

La quatrième paire est toujours utilisée pour écouter la fréquence porteuse pour la détection de collision. Le débit de données pour chacune des trois paires de transmission est de 33,3 Mbps, donc la vitesse totale du protocole 100Base-T4 est de 100 Mbps. Dans le même temps, en raison de la méthode de codage adoptée, le taux de changement de signal sur chaque paire n'est que de 25 Mbaud, ce qui permet l'utilisation d'un câble à paires torsadées de catégorie 3.

En figue. 3.23 montre la connexion du port MDI de l'adaptateur réseau 100Base-T4 avec le port MDI-X du hub (le préfixe X dit qu'à ce connecteur les connexions du récepteur et de l'émetteur sont permutées par paires du câble par rapport au connecteur de l'adaptateur réseau, ce qui facilite la connexion des paires de fils dans le câble - sans se croiser). Paire 1 -2 toujours requis pour transférer des données du port MDI au port MDI-X, paire 3 -6 - pour recevoir des données par le port MDI depuis le port MDI-X, et des paires 4 -5 et 7 -8 sont bidirectionnels et sont utilisés à la fois pour la réception et la transmission, selon les besoins.


Connexion de nœuds selon la spécification 100Base-T4

Fast Ethernet - la spécification IEEE 802.3 u officiellement adoptée le 26 octobre 1995, définit une norme de protocole de liaison de données pour les réseaux fonctionnant à la fois avec des câbles en cuivre et en fibre optique à une vitesse de 100 Mb/s. La nouvelle spécification est le successeur de la norme Ethernet IEEE 802.3, utilisant le même format de trame, le même mécanisme d'accès au support CSMA/CD et la même topologie en étoile. Plusieurs éléments de configuration de la couche physique ont évolué pour augmenter le débit, notamment les types de câbles, les longueurs de segments et le nombre de concentrateurs.

Couche physique

La norme Fast Ethernet définit trois types de supports de signalisation Ethernet 100 Mbps.

· 100Base-TX - deux paires de fils torsadés. La transmission est effectuée conformément à la norme de transmission de données sur un support physique torsadé, développée par l'ANSI (American National Standards Institute - American National Standards Institute). Le câble de données enroulé peut être blindé ou non blindé. Utilise l'algorithme de codage de données 4B/5B et la méthode de codage physique MLT-3.

· 100Base-FX - deux conducteurs, câble à fibre optique. La transmission est également effectuée conformément à la norme ANSI pour la transmission de données sur des supports à fibre optique. Utilise l'algorithme de codage de données 4B/5B et la méthode de codage physique NRZI.

· 100Base-T4 est une spécification spéciale développée par le comité IEEE 802.3u. Selon cette spécification, la transmission de données est effectuée sur quatre paires torsadées de câble téléphonique, appelé câble UTP de catégorie 3. Il utilise l'algorithme de codage de données 8B / 6T et la méthode de codage physique NRZI.

Câble multimode

Ce type de câble à fibre optique utilise une fibre avec une âme de 50 ou 62,5 micromètres de diamètre et une gaine extérieure d'une épaisseur de 125 micromètres. Un tel câble est appelé câble à fibre optique multimode 50/125 (62,5 / 125) micromètres. Un émetteur-récepteur LED avec une longueur d'onde de 850 (820) nanomètres est utilisé pour transmettre un signal lumineux sur un câble multimode. Si un câble multimode relie deux ports de commutateurs fonctionnant en mode duplex intégral, il peut mesurer jusqu'à 2000 mètres de long.

Câble monomode

La fibre monomode a un diamètre de noyau plus petit de 10 micromètres que la fibre multimode et utilise un émetteur-récepteur laser pour la transmission sur un câble monomode, qui ensemble assurent une transmission efficace sur de longues distances. La longueur d'onde du signal lumineux transmis est proche du diamètre du noyau, qui est de 1300 nanomètres. Ce nombre est connu sous le nom de longueur d'onde de dispersion nulle. Dans un câble monomode, la dispersion et la perte de signal sont très faibles, ce qui permet la transmission signaux lumineux sur des distances plus longues qu'avec la fibre multimode.


38. Technologie Gigabit Ethernet, caractéristiques générales, spécification de l'environnement physique, notions de base.
3.7.1. caractéristiques générales la norme

Assez peu de temps après que les produits Fast soient arrivés sur le marché Réseau Ethernet les intégrateurs et les administrateurs ont ressenti certaines limitations lors de la création réseaux d'entreprise... Dans de nombreux cas, les serveurs connectés sur un canal de 100 Mbps ont surchargé les backbones du réseau qui fonctionnent également à 100 Mbps - backbones FDDI et Fast Ethernet. Il y avait un besoin pour le prochain niveau de la hiérarchie de vitesse. En 1995, seuls les commutateurs ATM pouvaient fournir un niveau de vitesse plus élevé, et en l'absence de moyens pratiques de migration de cette technologie vers les réseaux locaux à l'époque (bien que la spécification LAN Emulation - LANE ait été adoptée au début de 1995, sa pratique la mise en œuvre était encore à venir), ils devaient être mis en œuvre dans presque personne n'osait au réseau local. De plus, la technologie ATM se distinguait par un niveau de coût très élevé.

La prochaine étape, franchie par l'IEEE, semblait donc logique - 5 mois après l'adoption définitive de la norme Fast Ethernet en juin 1995, le groupe de recherche sur la technologie IEEE High Speed ​​​​a été chargé d'étudier la possibilité de développer une norme Ethernet avec un débit binaire encore plus élevé.

À l'été 1996, un groupe 802.3z a été annoncé pour développer un protocole similaire à Ethernet autant que possible, mais avec un débit de 1000 Mbps. Comme pour Fast Ethernet, le message a été reçu avec beaucoup d'enthousiasme par les partisans d'Ethernet.



La principale raison de l'enthousiasme était la perspective de la même migration en douceur des dorsales de réseau vers Gigabit Ethernet, similaire à la migration des segments Ethernet encombrés situés aux niveaux inférieurs de la hiérarchie du réseau vers Fast Ethernet. De plus, l'expérience du transfert de données à des débits gigabit était déjà disponible, aussi bien dans les réseaux territoriaux (technologie SDH) que dans les réseaux locaux - la technologie Fibre Channel, qui est principalement utilisée pour connecter des périphériques à haut débit à des gros ordinateurs et transmet des données sur un câble à fibre optique à une vitesse proche du gigabit en utilisant un code de redondance 8B/10B.

La première version de la norme a été révisée en janvier 1997, et la norme 802.3z a finalement été adoptée le 29 juin 1998 lors d'une réunion du comité IEEE 802.3. Les travaux sur la mise en œuvre du Gigabit Ethernet sur paires torsadées de catégorie 5 ont été transférés à un comité spécial 802.3ab, qui a déjà examiné plusieurs versions du projet de cette norme, et depuis juillet 1998, le projet est devenu assez stable. L'adoption définitive de la norme 802.3ab est attendue en septembre 1999.

Sans attendre l'adoption de la norme, certaines entreprises ont sorti le premier équipement Gigabit Ethernet sur câble à fibre optique à l'été 1997.

L'idée principale des développeurs de la norme Gigabit Ethernet est de conserver au maximum les idées de la technologie Ethernet classique tout en atteignant un débit de 1000 Mbps.

Car lors du développement d'une nouvelle technologie, il est naturel de s'attendre à des innovations techniques qui vont dans le sens général du développement technologies de réseau, il est important de noter que Gigabit Ethernet, ainsi que ses cousins ​​plus lents, au niveau du protocole Ne fera pas Support:

  • qualité de service;
  • connexions redondantes;
  • tester l'opérabilité des nœuds et des équipements (dans ce dernier cas - à l'exception des tests de communication de port à port, comme cela est fait pour Ethernet 10Base-T et 10Base-F et Fast Ethernet).

Les trois propriétés nommées sont considérées comme très prometteuses et utiles dans réseaux modernes, et surtout dans les réseaux du futur proche. Pourquoi les auteurs du Gigabit Ethernet les abandonnent-ils ?

L'idée principale des développeurs de la technologie Gigabit Ethernet est qu'il existe et existera beaucoup de réseaux dans lesquels grande vitesse les backbones et la possibilité de hiérarchiser les paquets dans les commutateurs seront suffisants pour assurer la qualité des services de transport pour tous les clients sur le réseau. Et seulement dans les rares cas, lorsque le backbone est suffisamment chargé et que les exigences de qualité de service sont très strictes, il est nécessaire d'utiliser la technologie ATM, qui, en raison de sa grande complexité technique, garantit la qualité de service pour tous grands types de trafic.


39. Système de câblage structurel utilisé dans les technologies de réseau.
Le système de câblage structuré (SCS) est un ensemble d'éléments de commutation (câbles, connecteurs, connecteurs, panneaux croisés et armoires), ainsi qu'une méthodologie pour ceux-ci partage, qui vous permet de créer des structures de communication régulières et facilement extensibles dans les réseaux informatiques.

Le système de câblage structuré est une sorte de "constructeur", à l'aide duquel le concepteur de réseau construit la configuration requise à partir de câbles standard connectés par des connecteurs standard et commutés sur des panneaux croisés standard. Si nécessaire, la configuration des connexions peut être facilement modifiée - ajoutez un ordinateur, segmentez, commutez, supprimez les équipements inutiles et modifiez également les connexions entre les ordinateurs et les concentrateurs.

Lors de la construction d'un système de câblage structuré, il est supposé que chaque lieu de travail l'entreprise doit être équipée de prises pour connecter un téléphone et un ordinateur, même si cela n'est pas nécessaire pour le moment. C'est-à-dire qu'un bon système de câblage structuré est redondant. Cela peut économiser de l'argent à l'avenir, car des modifications peuvent être apportées à la connexion de nouveaux appareils en reconnectant les câbles existants.

Une structure hiérarchique typique d'un système de câblage structuré comprend :

  • sous-systèmes horizontaux (à l'intérieur d'un étage);
  • sous-systèmes verticaux (à l'intérieur du bâtiment);
  • un sous-système de campus (sur le même territoire avec plusieurs bâtiments).

Sous-système horizontal relie l'armoire de triage au sol aux prises des utilisateurs. Les sous-systèmes de ce type correspondent aux étages d'un bâtiment. Sous-système vertical relie les armoires de triage de chaque étage à la salle de contrôle centrale du bâtiment. La prochaine étape de la hiérarchie est sous-système du campus, qui relie plusieurs bâtiments à la salle de contrôle principale de l'ensemble du campus. Cette partie du système de câblage est communément appelée l'épine dorsale.

L'utilisation de câbles structurés au lieu de câbles posés de manière chaotique présente de nombreux avantages.

· Polyvalence. Un système de câblage structuré, avec une organisation bien pensée, peut devenir un support unifié pour la transmission de données informatiques dans un local réseau informatique, organisation d'un réseau téléphonique local, transmission d'informations vidéo et même transmission de signaux provenant de capteurs de sécurité incendie ou de systèmes de sécurité. Cela vous permet d'automatiser de nombreux processus de contrôle, de surveillance et de gestion des services économiques et des systèmes de survie de l'entreprise.

· Durée de vie augmentée. L'obsolescence d'un système de câblage bien structuré peut être de 10 à 15 ans.

· Réduire le coût d'ajout de nouveaux utilisateurs et de modification de leurs emplacements. On sait que le coût d'un système de câble est important et est principalement déterminé non par le coût du câble, mais par le coût de sa pose. Par conséquent, il est plus rentable d'effectuer un seul travail de pose du câble, éventuellement avec une grande marge de longueur, que d'effectuer plusieurs poses en augmentant la longueur du câble. Avec cette approche, tout le travail d'ajout ou de déplacement d'un utilisateur est réduit à la connexion de l'ordinateur à une prise existante.

· Possibilité d'extension facile du réseau. Le système de câblage structuré est modulaire et donc facile à étendre. Par exemple, un nouveau sous-réseau peut être ajouté à une jonction sans affecter les sous-réseaux existants. Vous pouvez modifier le type de câble sur un sous-réseau distinct indépendamment du reste du réseau. Le système de câblage structuré est la base pour diviser le réseau en segments logiques facilement gérables, puisqu'il est lui-même déjà divisé en segments physiques.

· Offrir un service plus efficace. Le câblage structuré rend la maintenance et le dépannage plus faciles que le câblage bus système de câble... Dans le cas d'un câblage bus, la défaillance de l'un des appareils ou éléments de connexion entraîne une défaillance difficilement localisable de l'ensemble du réseau. Dans les systèmes de câblage structuré, la défaillance d'un segment n'affecte pas les autres, puisque l'agrégation des segments s'effectue à l'aide de hubs. Les concentrateurs diagnostiquent et localisent la zone défectueuse.

· Fiabilité. Un système de câblage structuré a une fiabilité accrue, car le fabricant d'un tel système garantit non seulement la qualité de ses composants individuels, mais également leur compatibilité.


40. Hubs et adaptateurs réseau, principes, utilisation, concepts de base.
Les concentrateurs, ainsi que les adaptateurs réseau, ainsi qu'un système de câble, représentent le minimum d'équipement avec lequel vous pouvez créer un réseau local. Un tel réseau représentera un environnement partagé commun.

Adaptateur réseau (carte d'interface réseau, NIC) avec son pilote, il implémente la deuxième couche de liaison du modèle de systèmes ouverts dans le nœud de réseau final - l'ordinateur. Plus précisément, dans un système d'exploitation réseau, une paire d'adaptateur et de pilote n'exécute que les fonctions des couches physique et MAC, tandis que la couche LLC est généralement implémentée par le module système opérateur, le même pour tous les pilotes et cartes réseau. En fait, c'est ainsi que cela devrait être conformément au modèle de la pile de protocoles IEEE 802. Par exemple, dans Windows NT, le niveau LLC est implémenté dans le module NDIS, qui est commun à tous les pilotes de carte réseau, quelle que soit la technologie le pilote prend en charge.

L'adaptateur réseau et le pilote effectuent deux opérations : la transmission et la réception de trames.

Dans les adaptateurs pour ordinateurs clients, une grande partie du travail est transférée au pilote, ce qui rend l'adaptateur plus simple et moins cher. L'inconvénient de cette approche est le degré élevé de charge du processeur central de l'ordinateur avec un travail de routine sur le transfert de trames à partir de mémoire vive ordinateur au réseau. Le processeur central est obligé d'effectuer ce travail au lieu d'effectuer des tâches d'application utilisateur.

La carte réseau doit être configurée avant d'être installée sur un ordinateur. Lors de la configuration de l'adaptateur, vous spécifiez généralement le numéro IRQ utilisé par l'adaptateur, le numéro de canal DMA (si l'adaptateur prend en charge Mode DMA) et l'adresse de base des ports d'E/S.

Dans presque tous technologies modernes réseaux locaux, un périphérique est défini qui a plusieurs noms de pairs - moyeu(concentrateur), hub (hub), répéteur (répéteur). Selon le domaine d'application de cet appareil, la composition de ses fonctions et sa conception changent dans une large mesure. Seule la fonction principale reste inchangée - elle est répétition de trame soit sur tous les ports (tels que définis dans la norme Ethernet), soit sur certains ports uniquement, selon l'algorithme défini par la norme correspondante.

Un concentrateur possède généralement plusieurs ports auxquels les nœuds d'extrémité du réseau - les ordinateurs - sont connectés à l'aide de segments de câble physiques distincts. Le hub combine des segments de réseau physiques individuels dans un seul environnement partagé, auquel l'accès est effectué conformément à l'un des protocoles LAN considérés - Ethernet, Token Ring, etc. technologies ont produit leurs propres hubs - Ethernet; Anneau de jeton ; FDDI et 100VG-AnyLAN. Pour un protocole spécifique, on utilise parfois son propre nom hautement spécialisé de cet appareil, qui reflète plus précisément ses fonctions ou est utilisé en vertu de traditions, par exemple, le nom MSAU est caractéristique des concentrateurs Token Ring.

Chaque hub exécute une fonction de base définie dans le protocole correspondant de la technologie qu'il prend en charge. Bien que cette fonction soit définie en détail dans la norme technologique, lors de sa mise en œuvre, les concentrateurs de différents fabricants peuvent différer dans des détails tels que le nombre de ports, la prise en charge de plusieurs types de câbles, etc.

En plus de la fonction principale, le hub peut effectuer un certain nombre de fonctions supplémentaires, qui ne sont soit pas du tout définis dans la norme, soit sont facultatifs. Par exemple, un concentrateur Token Ring peut exécuter la fonction de fermeture des ports défectueux et de basculement vers un anneau de secours, bien que de telles capacités ne soient pas décrites dans la norme. Le hub s'est avéré être un appareil pratique pour exécuter des fonctions supplémentaires qui facilitent la surveillance et le fonctionnement du réseau.


41. L'utilisation de ponts et de commutateurs, principes, caractéristiques, exemples, limitations
Structuration avec des ponts et des commutateurs

le réseau peut être divisé en segments logiques à l'aide de deux types d'appareils - des ponts et/ou des commutateurs (switch, switch hub).

Le pont et le commutateur sont des jumeaux fonctionnels. Ces deux appareils avancent des trames sur la base des mêmes algorithmes. Les ponts et les commutateurs utilisent deux types d'algorithmes : un algorithme pont transparent, décrit dans la norme IEEE 802.1D, ou l'algorithme pont de routage source d'IBM pour les réseaux Token Ring. Ces normes ont été développées bien avant l'introduction du premier commutateur, elles utilisent donc le terme « pont ». Lorsque le premier modèle de commutateur industriel pour la technologie Ethernet est né, il utilisait le même algorithme de transfert de trame IEEE 802.ID, qui avait été élaboré par des ponts de réseaux locaux et mondiaux pendant une décennie.

La principale différence entre un commutateur et un pont est que le pont traite les trames séquentiellement, tandis que le commutateur traite les trames en parallèle. Cette circonstance est due au fait que les ponts sont apparus à l'époque où le réseau était divisé en un petit nombre de segments et où le trafic intersegment était faible (il obéissait à la règle des 80 sur 20%).

Aujourd'hui, les ponts fonctionnent toujours sur les réseaux, mais uniquement sur des liaisons globales assez lentes entre deux réseaux locaux distants. Ces ponts sont appelés ponts distants et leur algorithme n'est pas différent du 802.1D ou du routage source.

Les ponts transparents peuvent, en plus de transmettre des trames au sein d'une même technologie, traduire des protocoles LAN, par exemple Ethernet vers Token Ring, FDDI vers Ethernet, etc. Cette propriété des ponts transparents est décrite dans la norme IEEE 802.1H.

Dans ce qui suit, nous appellerons un appareil qui fait avancer les trames à l'aide de l'algorithme bridge et qui fonctionne en réseau local, le terme moderne « switch ». Lors de la description des algorithmes 802.1D et de routage source eux-mêmes dans la section suivante, nous appellerons traditionnellement le périphérique un pont, comme il est en fait appelé dans ces normes.


42. Commutateurs pour réseaux locaux, protocoles, modes de fonctionnement, exemples.
Chacun des 8 ports 10Base-T est desservi par un processeur de paquets Ethernet (EPP). De plus, le commutateur dispose d'un module système qui coordonne le travail de tous les processeurs EPP. Le module système gère la table d'adresses générales du commutateur et assure la gestion SNMP du commutateur. Pour transférer des trames entre les ports, une matrice de commutation est utilisée, similaire à celles trouvées dans les commutateurs téléphoniques ou les ordinateurs multiprocesseurs, connectant plusieurs processeurs avec plusieurs modules de mémoire.

La matrice de commutation fonctionne sur le principe de la commutation des canaux. Pour 8 ports, la matrice peut fournir 8 canaux internes simultanés en mode de port semi-duplex et 16 en mode duplex intégral, lorsque l'émetteur et le récepteur de chaque port fonctionnent indépendamment l'un de l'autre.

Lorsqu'une trame arrive sur un port, le processeur EPP met en mémoire tampon les premiers octets de la trame pour lire l'adresse de destination. Après avoir reçu l'adresse de destination, le processeur décide immédiatement de transférer le paquet, sans attendre l'arrivée des octets restants de la trame.

Si la trame doit être transmise à un autre port, le processeur se tourne vers la matrice de commutation et essaie d'y établir un chemin qui relie son port au port par lequel passe la route vers l'adresse de destination. La matrice de commutation ne peut le faire que lorsque le port de destination est libre à ce moment-là, c'est-à-dire qu'il n'est pas connecté à un autre port ; si le port est occupé, alors, comme dans tout dispositif à commutation de circuits, la matrice échoue la connexion. Dans ce cas, la trame est entièrement mise en mémoire tampon par le processeur du port d'entrée, après quoi le processeur attend que le port de sortie soit libéré et la matrice de commutation forme le chemin souhaité. Une fois le chemin souhaité établi, les octets de la trame mis en mémoire tampon sont envoyés à il, qui sont reçus par le processeur de port de sortie. Dès que le processeur en aval accède au segment Ethernet attaché à l'aide de l'algorithme CSMA/CD, les octets de la trame sont immédiatement transférés sur le réseau. La méthode décrite de transmission de trames sans mise en mémoire tampon complète est appelée commutation "à la volée" ou "coupée". La raison principale l'amélioration des performances du réseau lors de l'utilisation du commutateur est parallèle traitement de plusieurs trames Cet effet est illustré à la Fig. 4.26. La figure montre une situation idéale en termes d'amélioration des performances, lorsque quatre ports sur huit transmettent des données à une vitesse maximale de 10 Mb/s pour le protocole Ethernet, et ils transmettent ces données aux quatre autres ports du commutateur sans conflit - les flux de données entre les nœuds du réseau sont répartis de sorte que chaque port de réception possède son propre port de sortie. Si le commutateur parvient à traiter le trafic d'entrée même au débit maximal de trames entrantes vers les ports d'entrée, les performances totales du commutateur dans l'exemple donné seront de 4x10 = 40 Mbps, et en généralisant l'exemple pour N ports - (N / 2) x10 Mbps. On dit que le commutateur fournit à chaque station ou segment connecté à ses ports une bande passante de protocole dédiée. Naturellement, la situation dans le réseau n'évolue pas toujours comme le montre la Fig. 4.26. Si deux stations, par exemple des stations connectées aux ports 3 et 4, en même temps, vous devez écrire des données sur le même serveur connecté au port 8, alors le commutateur ne pourra pas allouer un flux de données de 10 Mbps à chaque station, puisque le port 5 ne peut pas transmettre de données à 20 Mbps. Les trames de station attendront dans les files d'attente internes des ports d'entrée 3 et 4, quand le port devient libre 8 pour transmettre la trame suivante. Evidemment, une bonne solution pour une telle distribution de flux de données serait de connecter le serveur à un port plus haut débit, par exemple Fast Ethernet, puisque le principal avantage du switch, grâce auquel il a conquis de très bonnes positions dans les réseaux locaux , est sa haute performance, les développeurs de commutateurs essaient de le libérer de cette manière appelée non bloquant changer de modèle.


43. Algorithme du pont transparent.
Les ponts transparents sont invisibles pour les adaptateurs réseau des nœuds d'extrémité, car ils créent indépendamment une table d'adresses spéciale, sur la base de laquelle vous pouvez décider si vous devez ou non transférer la trame entrante vers un autre segment. Lorsque des ponts transparents sont utilisés, les adaptateurs réseau fonctionnent de la même manière qu'en leur absence, c'est-à-dire qu'ils ne prennent aucune mesure supplémentaire pour faire passer la trame à travers le pont. L'algorithme de pontage transparent est indépendant de la technologie LAN dans laquelle le pont est installé, de sorte que les ponts Ethernet transparents fonctionnent exactement comme des ponts FDDI transparents.

Un pont transparent construit sa table d'adresses sur la base d'une surveillance passive du trafic circulant dans des segments connectés à ses ports. Dans ce cas, le pont prend en compte les adresses des sources de trames de données arrivant sur les ports du pont. Sur la base de l'adresse source de la trame, le pont conclut que ce nœud appartient à l'un ou l'autre segment de réseau.

Considérez le processus de création automatique d'une table d'adresses de pont et de son utilisation en utilisant l'exemple d'un réseau simple illustré à la Fig. 4.18.

Riz. 4.18. Comment fonctionne le pont transparent

Le pont relie deux segments logiques. Le segment 1 se compose d'ordinateurs connectés avec une longueur de câble coaxial au port 1 du pont, et le segment 2 se compose d'ordinateurs connectés avec une autre longueur de câble coaxial au port 2 du pont.

Chaque port de pont agit comme un point de terminaison sur son segment à une exception près : le port de pont n'a pas sa propre adresse MAC. Le port du pont fonctionne dans ce qu'on appelle promiscuité mode capture de paquets, lorsque tous les paquets arrivant sur le port sont stockés dans la mémoire tampon. Avec ce mode, le pont surveille tout le trafic transmis dans les segments qui lui sont rattachés, et utilise les paquets qui le traversent pour étudier la composition du réseau. Étant donné que tous les paquets sont écrits dans le tampon, le pont n'a pas besoin d'adresse de port.

V l'état original le pont ne sait rien des ordinateurs avec lesquels les adresses MAC sont connectées à chacun de ses ports. Par conséquent, dans ce cas, le pont transmet simplement toute trame capturée et mise en mémoire tampon à tous ses ports, à l'exception de celui à partir duquel elle a été reçue. Dans notre exemple, le pont n'a que deux ports, il transmet donc des trames du port 1 au port 2, et vice versa. Lorsqu'un pont est sur le point de transmettre une trame de segment à segment, par exemple, du segment 1 au segment 2, il essaie à nouveau d'accéder au segment 2 en tant que nœud d'extrémité selon les règles de l'algorithme d'accès, en cet exemple- selon les règles de l'algorithme CSMA/CD.

Simultanément à la transmission de la trame à tous les ports, le pont apprend l'adresse source de la trame et fait une nouvelle entrée sur son appartenance dans sa table d'adresses, également appelée table de filtrage ou de routage.

Une fois que le pont a passé la phase d'apprentissage, il peut fonctionner plus efficacement. Lors de la réception d'une trame envoyée, par exemple, de l'ordinateur 1 à l'ordinateur 3, il scrute la table d'adresses pour la coïncidence de ses adresses avec l'adresse de destination 3. Puisqu'il existe une telle entrée, le pont effectue la deuxième étape d'analyse de la table - il vérifie si les ordinateurs avec les adresses source (dans notre cas, il s'agit de l'adresse 1) et l'adresse de destination (adresse 3) dans un segment. Comme dans notre exemple, ils sont dans des segments différents, le pont effectue l'opération expéditeur frame - transmet une trame à un autre port, ayant déjà reçu l'accès à un autre segment.

Si l'adresse de destination est inconnue, le pont transmet la trame à tous ses ports, à l'exception du port - la source de la trame, comme dans la phase initiale du processus d'apprentissage.


44. Ponts avec routage depuis la source.
Les ponts routés par la source sont utilisés pour connecter les anneaux Token Ring et FDDI, bien que des ponts transparents puissent également être utilisés dans le même but. Le routage source (SR) est basé sur le fait que la station émettrice met dans une trame envoyée à un autre anneau toutes les informations d'adresse sur les ponts et anneaux intermédiaires que la trame doit passer avant d'entrer dans l'anneau auquel est connectée la station destinataire.

Considérons les principes de fonctionnement des ponts de routage source (ci-après, ponts SR) en utilisant l'exemple du réseau illustré à la Fig. 4.21. Le réseau se compose de trois anneaux reliés par trois ponts. Les anneaux et les ponts ont des identifiants pour définir l'itinéraire. Les ponts SR ne construisent pas de table d'adresses, mais lors de l'avancement des trames, ils utilisent les informations disponibles dans les champs correspondants de la trame de données.

Figure. 4.21.Ponts de routage source

À la réception de chaque paquet, le pont SR n'a besoin que de regarder le champ d'information de routage (RIF, dans une trame Token Ring ou FDDI) pour son propre identifiant. Et s'il y est présent et accompagné de l'identifiant de l'anneau qui est connecté à ce pont, alors dans ce cas le pont copie la trame entrante vers l'anneau spécifié. Sinon, la trame n'est pas copiée sur l'autre anneau. Dans tous les cas, la copie originale de la trame est renvoyée sur l'anneau d'origine de la station émettrice, et si elle a été transmise à un autre anneau, alors les bits A (adresse reconnue) et C (trame copiée) des champs d'état de la trame sont mis à 1 pour informer la station émettrice, que la trame a été reçue par la station destinataire (dans ce cas, elle a été transmise par le pont vers un autre anneau).

Étant donné que les informations de routage dans une trame ne sont pas toujours nécessaires, mais uniquement pour la transmission de trames entre des stations connectées à des anneaux différents, la présence du champ RIF dans la trame est indiquée en définissant l'adresse individuelle / de groupe (I / G) sur 1 bit ( ce bit n'est pas utilisé comme prévu, car l'adresse source est toujours individuelle).

Le RIF a un sous-champ de contrôle en trois parties.

  • Type de cadre définit le type du champ RIF. Il existe différents types de champs RIF qui sont utilisés pour trouver un itinéraire et envoyer une trame le long d'un itinéraire connu.
  • Champ longueur maximale Cadre utilisé par le pont pour connecter des anneaux qui ont une valeur MTU différente. A l'aide de ce champ, le pont informe la station de la longueur de trame maximale possible (c'est-à-dire la valeur MTU minimale le long de l'ensemble de la route multipartie).
  • Longueur du champ RIF est nécessaire, car le nombre de descripteurs de route qui précisent les identifiants des anneaux et ponts traversés est inconnu à l'avance.

Pour l'algorithme de routage source, deux types de trames supplémentaires sont utilisés : une trame de diffusion à route unique (SRBF) et une trame de diffusion à toutes les routes (ARBF).

Tous les ponts SR doivent être configurés manuellement par l'administrateur pour envoyer des trames ARBF à tous les ports à l'exception du port source de la trame, et pour les trames SRBF, certains ports de pont doivent être bloqués afin qu'il n'y ait pas de boucles sur le réseau.

Avantages et inconvénients des ponts de routage source

45. Interrupteurs : mise en œuvre technique, fonctions, caractéristiques qui affectent leur travail.
Caractéristiques de la mise en œuvre technique des commutateurs. De nombreux commutateurs de première génération étaient similaires à des routeurs, c'est-à-dire basés sur une unité centrale de traitement à usage général connectée aux ports d'interface via un bus interne à grande vitesse. Le principal inconvénient de ces commutateurs était leur faible vitesse. Le processeur généraliste ne pouvait en aucun cas faire face au volume important d'opérations spécialisées de transfert de trames entre modules d'interface. En plus des puces de processeur, pour un fonctionnement non bloquant réussi, le commutateur a également besoin d'un nœud à grande vitesse pour transférer des trames entre les puces de processeur de port. Actuellement, les commutateurs utilisent l'un des trois schémas comme base sur laquelle un tel nœud d'échange est construit :

  • matrice de commutation;
  • mémoire multi-entrée partagée ;
  • bus commun.
Partagez ceci