- Ordinateurs et électronique
- La mise en réseau
- Les commutateurs de réseau
- Dell
- Intel PRO Family of Adapters
- Manuel utilisateur
▼
Scroll to page 2
of
227
Appareils et cartes Ethernet Intel® Guide de l'utilisateur Présentation Bienvenue sur le Guide de l'utilisateur des cartes et périphériques Ethernet Intel®. Ce guide couvre l'installation du matériel et du logiciel, les procédures de configuration et contient des conseils de dépannage pour les cartes réseau Intel®, les connexions et d'autres périphériques. Installation de la carte réseau Si vous installez une carte réseau, commencez à l’étape 1. Si vous mettez à niveau le logiciel pilote, commencez à l'étape 4. REMARQUE : si vous mettez à jour le microprogramme, le pilote doit aussi être de la même version. 1. Consultez la configuration minimale requise. 2. Insérez la carte PCI Express, la carte mezzanine ou la carte fille réseau dans votre serveur. 3. Connectez soigneusement le ou les câbles réseau en cuivre, le ou les câbles réseau à fibre optique ou les câbles directs. 4. Installation des pilotes réseau et d'autres logiciels l Instructions sous Windows l Instructions sous Linux 5. Test de la carte réseau. Avant de commencer Périphériques pris en charge Cartes réseau 40 Gigabit prises en charge l l Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Carte réseau convergent Ethernet Intel® XL710-Q2 REMARQUE : le débit total pris en charge par la carte réseau Intel® XL710 est de 40 Gbit/s, même lorsqu'elle est associée à deux connexions de 40 Gbit/s. Cartes réseau 25 Gigabit prises en charge l l Carte mezzanine Ethernet Intel® 25G 2P XXV710 Carte réseau Ethernet Intel® 25G 2P XXV710 Cartes réseau 10 Gigabit prises en charge l l l l l l l l l l l l l l l l l l l Carte réseau Ethernet Intel® 10G 2P X520 Carte réseau Ethernet Intel® 10G X520 LOM Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 2P X550-t Carte réseau Ethernet Intel® 10G 4P X550 rNDC Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte Ethernet Intel® 10G 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Carte réseau Ethernet Intel® 10G 4P X710-k bNDC Carte réseau Ethernet Intel® 10G 2P X710-k bNDC Carte réseau Ethernet Intel® 10G X710-k bNDC Carte réseau convergent Ethernet Intel® X710 Carte réseau convergent Ethernet Intel® X710-T Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Carte réseau Ethernet Intel® 10G X710 rNDC Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP REMARQUE : le premier port d'une carte réseau X710 et XXV710 affiche la chaîne de marquage correcte. Tous les autres ports du même périphérique affichent une chaîne de marquage générique. Cartes réseau Gigabit et périphériques pris en charge l l l l l l l l l l l l l Carte Intel® Gigabit 2P I350-t Carte réseau Intel® Gigabit 4P I350-t Carte Intel® Gigabit 4P X550/I350 rNDC Carte Intel® Gigabit 4P I350-t rNDC Carte Intel® Gigabit 4P X540/I350 rNDC Carte Intel® Gigabit 4P X520/I350 rNDC Carte mezzanine Intel® Gigabit 4P I350-t Carte Intel® Gigabit 4P X710/l350 rNDC Carte Intel® Gigabit 4P I350 bNDC Fond de panier Connexion Ethernet Intel® I354 1.0 GbE Carte Intel® Gigabit 2P I350-t LOM Carte Intel® Gigabit I350-t LOM Carte Intel® Gigabit 2P I350 LOM Remarques de compatibilité Pour qu'une carte reposant sur le contrôleur XL710 atteigne son plein potentiel, vous devez l'installer dans un emplacement PCIe x8 de troisième génération. L'installation dans un emplacement plus court ou dans un emplacement de première ou deuxième génération limitera le débit de la carte. Systèmes d’exploitation pris en charge Systèmes d’exploitation d’architecture Intel® 64 pris en charge l l l l l l Microsoft* Windows Server* 2012 R2 Microsoft Windows Server 2016 Microsoft Windows Server 2016 Nano Server VMWare* ESXi* 6.0 U3 Red Hat* Enterprise Linux* (RHEL) 6.9 Novell* SUSE* Linux Enterprise Server (SLES) 12 SP3 REMARQUE : les périphériques suivants prennent également en charge Microsoft Windows 7 x64, Windows 8.1 x64, Windows 10 x64, RHEL 7.3 x64 et SLES 12 SP2 x64. Les systèmes d'exploitation Microsoft Windows 32 bits ne sont pas pris en charge dans cette version. l Carte Intel® Gigabit 4P I350-t rNDC l Carte Intel® Gigabit 4P X550/I350 rNDC l Carte Intel® Gigabit 4P X710/I350 rNDC l Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC l Carte réseau Ethernet Intel® 10G 4P X710/I350 rNDC (non pris en charge sur Windows 8.1 x64) Compatibilité matérielle Avant d'installer la carte, vérifiez que le système répond aux exigences suivantes : l Dernière version du BIOS de votre système l Un emplacement PCI Express ouvert (voir les spécifications de votre carte pour connaître la compatibilité des emplacements) Spécifications des câbles Cartes réseau Intel Gigabit Câbles à fibres optiques l l Longueur d'onde du laser : 850 nanomètres (invisible). Type de câble SC : l Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres. l Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres. l Type de connecteur : SC. Câbles en cuivre l 1000BASE-T ou 100BASE-TX avec câble en cuivre à 4 paires torsadées de catégorie 5 ou 5e : l Veillez à utiliser des câbles de catégorie 5 conformes aux spécifications de câblage de la norme TIA568. Pour obtenir de plus amples informations sur ces spécifications, visitez le site Web de l’association Telecommunications Industry Association : www.tiaonline.org. l La longueur maximale est de 100 mètres. l Le câblage de catégorie 3 ne fonctionne qu’à 10 Mbit/s. Cartes réseau Intel 10 Gigabit Câbles à fibres optiques l l Longueur d'onde du laser : 850 nanomètres (invisible). Type de câble SC : l Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres. l Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres. l Type de connecteur : SC. Câbles en cuivre l l Les longueurs maximales pour les cartes Intel® 10 Gigabit pour serveurs et les connexions qui utilisent 10GBASE-T sur des câbles en cuivre à quatre paires torsadées de catégories 6, 6a ou 7 sont les suivantes : l La longueur maximale pour la catégorie 6 est de 55 mètres. l La longueur maximale pour la catégorie 6a est 100 mètres. l La longueur maximale pour la catégorie 7 est de 100 mètres. l Pour garantir la conformité avec la norme CISPR 24 et la norme de l'Union européenne EN55024, les cartes Intel® 10 Gigabit pour serveurs et les connexions devraient être utilisées uniquement avec des câbles blindés de catégorie 6a dotés de terminaisons correctes conformément aux recommandations de la norme EN50174-2. 10 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax) l La longueur maximale est de 10 mètres. Cartes Intel 40 Gigabit Câbles à fibres optiques l l l Longueur d'onde du laser : 850 nanomètres (invisible). Type de câble SC : l Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres. l Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres. l Type de connecteur : SC. Type de câble LC : l l l Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres. Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres. Type de connecteur : LC. Câbles en cuivre l 40 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax) l La longueur maximale est de 7 mètres. Présentation de l’installation Installation de la carte réseau 1. 2. 3. 4. Mettez l’ordinateur hors tension et débranchez le cordon d’alimentation. Retirez le panneau de l’ordinateur et le panneau du connecteur de carte correspondant à votre carte. Insérez le connecteur au bord de la carte dans l'emplacement et attachez solidement le support sur le châssis. Replacez le couvercle de l’ordinateur et branchez le cordon d’alimentation. REMARQUE : pour savoir comment identifier les emplacements PCI Express qui accueillent vos cartes réseau, reportez-vous au guide de votre système Dell EMC. Installation des pilotes et des logiciels Systèmes d’exploitation Windows* Vous devez disposer des droits d’administration sur le système d’exploitation pour installer les pilotes. 1. Téléchargez le dernier Dell EMC Update Package (DUP) sur le site de l'assistance client. 2. Exécutez le fichier DUP et cliquez sur le bouton Install (Installer). 3. Suivez les instructions affichées à l’écran. Installation des pilotes Linux* à partir du code source 1. 2. 3. 4. Téléchargez le fichier tar du pilote de base et décompressez-le. Compilez le module du pilote. Installez le module à l'aide de la commande modprobe. Attribuez une adresse IP à l'aide de la commande ifconfig. Reportez-vous à la section Linux de ce guide pour des informations plus spécifiques. Autres systèmes d’exploitation Pour installer d’autres pilotes, consultez le site Web d’assistance à la clientèle : http://www.support.dell.com. Optimisation des performances Vous pouvez configurer les paramètres avancés de la carte réseau Intel pour optimiser la performance du serveur. Les exemples ci-dessous fournissent des instructions pour trois modèles d’utilisation de serveur : l Optimisation pour une réponse rapide et une faible latence – utile pour les serveurs vidéo, audio et HPCC (High Performance Computing Cluster) l Optimisation du débit – utile pour les serveurs de sauvegarde/récupération de données et les serveurs de fichiers l Optimisation du processeur – utile pour les serveurs d’applications, Web, de messagerie et de bases de données REMARQUES : l Les recommandations ci-dessous sont des consignes et doivent être traitées en tant que telles. Des fac- l l teurs additionnels tels que les applications installées, le type de bus, la topologie du réseau et le système d’exploitation affectent également la performance du système. Ces réglages doivent être faits par un administrateur réseau très compétent. Il n’est pas garanti qu’ils améliorent les performances. Tous les paramètres présentés ici ne sont pas nécessairement disponibles à partir de la configuration du pilote réseau, du système d'exploitation ou du BIOS système. Les utilisateurs de Linux doivent consulter le fichier README du package de pilotes Linux pour connaître les détails de l’amélioration des performances spécifiques à Linux. Si vous utilisez un logiciel de test de performance, consultez la documentation de ce logiciel pour obtenir des résultats optimaux. Optimisation générale l Installez la carte dans un emplacement approprié. REMARQUE :certains emplacements PCIe x8 sont en fait configurés comme des emplacements x4. Ces emplacements ont une bande passante insuffisante pour les débits de ligne avec des périphériques à deux ports. Le pilote peut détecter cette situation et écrit le message suivant dans le journal système : « PCI Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8 PCI-Express slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir des performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé).Si cette erreur se produit, placez la carte dans un véritable connecteur x8 pour résoudre le problème. l l l l l l l Pour qu'une carte réseau reposant sur le contrôleur Intel® X710/XL710 atteigne son plein potentiel, vous devez l'installer dans un emplacement PCIe 3e génération x8. L'installation dans un emplacement plus court ou dans un emplacement de première ou deuxième génération affectera le débit de la carte. Utilisez les câbles adaptés à votre appareil. Activez les paquets étendus, s’il est possible de configurer aussi les autres composants du réseau pour ce paramètre. Augmentez le nombre de ressources TCP et socket par rapport à la valeur par défaut. Pour les systèmes sous Windows, nous n’avons identifié aucun paramètre système autre que la taille de fenêtre TCP pour améliorer réellement les performances. Augmentez la taille d’allocations des ressources du pilote (descripteurs d’émission/de réception). Cependant la plupart des schémas de trafic TCP fonctionnent mieux avec la description d’émission à sa valeur par défaut et le descripteur de réception à sa valeur minimale. Lorsque le trafic passe par plusieurs ports réseau utilisant une application d'E/S qui s'exécute sur tous ou presque tous les cœurs de votre système, envisagez de configurer l'affinité du CPU de cette application sur moins de cœurs. Cette action devrait réduire l'utilisation du CPU et dans certains cas, et améliorer le débit de l'appareil. Les cœurs sélectionnés pour l'affinité du CPU doivent être en local sur le nœud/groupe de processeurs de l'appareil réseau concerné. Vous pouvez utiliser la commande PowerShell Get-NetAdapterRSS pour indiquer les cœurs en local sur un appareil. Vous aurez peut-être à augmenter le nombre de cœurs assignés à l'application pour optimiser le débit. Consultez la documentation de votre système d'exploitation pour obtenir plus d'informations sur la configuration de l'affinité du CPU. Si plusieurs ports 10 Gbit/s (ou plus rapides) sont installés sur un système, les files d'attente RSS de chaque port de carte peuvent être réglées de manière à utiliser un ensemble de processeurs ne se chevauchant pas au sein du nœud/socket NUMA local de la carte. Modifiez le numéro du processeur RSS de base de chaque port de carte réseau, de sorte que la combinaison du processeur de base et du nombre maximal de processeurs RSS garantisse le non-chevauchement des cœurs. 1. Déterminez les ports de carte à régler et inspectez leur paramètre RssProcessorArray à l'aide de la cmdlet PowerShell Get-NetAdapterRSS. 2. Déterminez les processeurs dont la distance NUMA est de 0. Il s'agit des cœurs du nœud/socket NUMA local de la carte qui fourniront les meilleures performances. 3. Réglez le processeur RSS de base de chaque port de sorte à utiliser un ensemble de processeurs ne se chevauchant pas au sein de l'ensemble local de processeurs. Vous pouvez le faire manuellement ou en utilisant la commande PowerShell suivante : Set-NetAdapterAdvancedProperty -Name <Nom de la carte> -DisplayName "RSS Base Processor Number" -DisplayValue <Valeur du Proc RSS de base> 4. Utilisez la cmdlet Get-NetAdpaterAdvancedproperty pour vérifier que les valeurs adéquates ont été définies : Get-NetAdpaterAdvancedproperty -Name <Nom de la carte> Par exemple, pour une carte à quatre ports avec des processeurs locaux 0, 2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28, 30 et un nombre maximal de processeurs RSS de 8, configurez les processeurs RSS de base sur 0, 8, 16 et 24. Optimisation pour une réponse rapide et une faible latence l l l l l l Minimisez ou désactivez le taux de gestion des interruptions. Désactivez le délestage de la segmentation TCP. Désactivez les paquets étendus. Augmentez les descripteurs de transmission. Augmentez les descripteurs de réception. Augmentez les files RSS Optimisation du débit l l l l Activez les paquets étendus. Augmentez les descripteurs de transmission. Augmentez les descripteurs de réception. Sur les systèmes qui prennent en charge NUMA, paramétrez le nœud NUMA privilégié (Preferred NUMA Node) sur chaque carte pour parvenir à un meilleur dimensionnement sur l’ensemble de ces nœuds. Optimisation du processeur l l l l Maximisez le taux de gestion des interruptions. Conservez le nombre de descripteurs de réception par défaut ; évitez de configurer un grand nombre de descripteurs de réception. Diminuez les files RSS. En environnement Hyper-V, diminuez le nombre Maxi de processeurs RSS. Stockage à distance La fonction de stockage à distance vous permet d'accéder à un SAN (Storage Area Network) ou à autre dispositif de stockage en réseau utilisant les protocoles Ethernet. Cela comprend les protocoles DCB (pontage de centre de données ou Data Center Bridging), iSCSI over DCB et FCoE (Fibre Channel over Ethernet). DCB (Pontage de centre de données) Le pontage de centre de données (DCB) est une collection d’extensions basées sur des normes à l’Ethernet classique. Il fournit une couche de transport sans perte pour les centres de données. Celle-ci autorise la convergence des LAN et SAN sur une infrastructure Unified Fabric unique. De plus, le Pontage de centre de données (DCB) assure la qualité de service de la configuration du matériel. Il utilise la balise de priorité VLAN (802.1p) pour filtrer le trafic. De ce fait, le trafic peut être classé en 8 priorités différentes. Il active également le contrôle du flux basé sur les priorités (802.1Qbb) susceptibles de limiter ou d'éliminer la perte de paquets lors des pics de réseau. Il est possible d'allouer de la bande passante à chacune de ces priorités, avec une mise en application au niveau du matériel (802.1Qaz). Le microprogramme de la carte met en œuvre les agents de protocole LLDP et DCBX, selon 802.1AB et 802.1Qaz respectivement. L'agent DCBX basé sur le microprogramme fonctionne uniquement en mode « Willing » et peut accepter les paramètres issus d'un pair équipé de DCBX. La configuration logicielle des paramètres DCBX via dcbtool/lldptool n'est pas prise en charge. REMARQUE : sur les appareils reposant sur le contrôleur X710 et exécutant Microsoft Windows, le pontage de centre de données (DCB) est uniquement pris en charge par les microprogrammes versions 17.0.12 et supérieures. Les versions antérieures de NVM doivent être mises à jour pour que la carte puisse prendre en charge DCB sous Windows. Périphériques pris en charge Les cartes suivantes prennent en charge le stockage à distance en utilisant iSCSI sur DCB et FCoE sur DCB. l Carte réseau Ethernet Intel® 10G 2P X520 Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G X520 LOM Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC (ports I350 uniquement) Carte réseau Ethernet Intel® 10G 2P X550-t Carte réseau Ethernet Intel® 10G 4P X550 rNDC‡ l Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC‡ l Carte réseau Ethernet Intel® 10G 4P X710-k bNDC‡ l Carte réseau Ethernet Intel® 10G 2P X710-k bNDC‡ l Carte réseau Ethernet Intel® 10G X710-k bNDC‡ l Carte réseau convergent Ethernet Intel® X710‡ l Carte réseau convergent Ethernet Intel® X710-T‡ l Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC‡ l Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC‡ l Carte réseau Ethernet Intel® 10G X710 rNDC‡ l Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP‡ l Carte réseau Ethernet Intel® 25G 2P XXV710‡ l Carte mezzanine Ethernet Intel® 25G 2P XXV710‡ l Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC‡ l Carte réseau convergent Ethernet Intel® XL710-Q2‡ l l l l l l l l ‡ Ce périphérique ne prend pas en charge FCoE sur DCB. REMARQUE : quand une carte réseau Intel® série 710 est en mode NPar, vous ne pouvez configurer DCB que depuis la Configuration système/le BIOS. iSCSI Over DCB Les cartes Ethernet Intel® prennent en charge les initiateurs de logiciel iSCSI natifs sur le système d’exploitation sousjacent. Dans le cas de Windows, l’initiateur du logiciel Microsoft iSCSI permet de connecter un hôte Windows à une batterie de disque de stockage externe iSCSI en utilisant une carte Intel Ethernet. Dans le cas de distributions Open Source, pratiquement toutes les distributions prennent en charge un initiateur de logiciel iSCSI ouvert et les cartes Ethernet Intel® les prennent en charge. Consultez la documentation traitant de votre distribution pour obtenir plus de détails de configuration sur chaque initiateur iSCSI ouvert. Les cartes Intel® avec chipset 82599 et X540 prennent en charge l'iSCSI dans un nuage de Pontage de centre de données. Utilisée avec les commutateurs et les cibles prenant en charge la fonction TVL de l’application iSCSI/DCB, cette solution peut garantir la bande passante minimum pour le trafic iSCSI entre l’hôte et la cible. Cette solution permet aux administrateurs de stockage de segmenter le trafic iSCSI du trafic du réseau local, de la même façon qu’ils peuvent actuellement segmenter le FCoE à partir du trafic du réseau local. Auparavant, le trafic iSCSI dans un environnement pris en charge par DCB était considéré comme un trafic de réseau local par les fournisseurs de commutateur. Consultez votre fournisseur de commutateurs et de cibles pour vérifier qu’il prend en charge la fonction TVL de l’application iSCSI/DCB. Intel® Ethernet FCoE (Fibre Channel over Ethernet) Fibre Channel over Ethernet (FCoE) est défini comme l’encapsulation des trames du protocole Fibre Channel (FC) standard comme données contenues dans les trames Ethernet standard. Cette encapsulation au niveau du lien, associée à une passerelle Ethernet-to-FC fonctionnant avec FCoE, agit comme une extension d’une matrice FC pour inclure la connectivité de l’hôte Ethernet. La spécification FCoE se concentre sur l’encapsulation des trames FC spécifiques au trafic de classe de stockage, telle que définie par la spécification Fibre Channel FC-4 FCP. REMARQUE : la prise en charge de nouveaux systèmes d'exploitation ne sera pas ajoutée à FCoE. Les dernières versions de systèmes d'exploitation prenant en charge FCoE sont les suivantes : l l l Microsoft* Windows Server* 2012 R2 SLES 11 SP4 VMware* ESX 6.0 U3 Trames Jumbo Le pilote de base prend en charge les mini trames Jumbo de FCoE (2,5 Ko) indépendamment des paramètres de trames Jumbo du LAN. Prise en charge de FCoE VN to VN (VN2VN) FCoE VN to VN (également nommé VN2VN) est une norme permettant de connecter deux nœuds d'extrémité (ENode) directement en utilisant FCoE. Un nœud ENode peut créer une liaison VN2VN virtuelle avec un autre nœud ENode sans se connecter à des commutateurs FC ou FCoE (FCF) entre les deux, afin qu'aucun zonage de port ni service avancé Fibre Channel ne soit nécessaire. Le logiciel de stockage contrôle l'accès aux unités logiques et leur sécurité en utilisant un masquage des unités logiques. La matrice VN2VN peut posséder un commutateur Ethernet sans pertes entre les nœuds ENode. Cela permet à plusieurs nœuds ENode de participer en créant plusieurs liaisons VN2VN virtuelles dans la matrice VN2VN. VN2VN possède deux modes de fonctionnement : Point à point (PT2PT) et Multipoint. REMARQUE : le mode de fonctionnement est utilisé uniquement lors de l'initialisation. Mode PT2PT (point à point) En mode Point à Point, il n'existe que deux ENodes qui sont connectés soit directement, soit via un commutateur Ethernet sans perte : Mode MultiPoint Si plus de deux nœuds ENode sont détectés dans la matrice VN2VN, tous les nœuds doivent fonctionner en mode Multipoint : Activation de VN2VN dans Microsoft Windows Pour activer VN2VN dans Microsoft Windows : 1. Ouvrez le Gestionnaire de périphériques Windows. 2. Ouvrez la feuille de propriétés du miniport FCoE approprié (en général sous Contrôleurs de stockage) et cliquez sur l'onglet Avancé. 3. Sélectionnez le paramètre VN2VN et choisissez "Activer". Démarrage à distance Le démarrage à distance vous permet de démarrer un système en utilisant uniquement une carte Ethernet. Vous vous connectez à un serveur qui contient une image du système d'exploitation et l'utilise pour démarrer votre système local. Intel® Boot Agent Intel® Boot Agent est un logiciel qui permet à un ordinateur client de démarrer à l'aide d'une image de code de programme fournie par un serveur à distance. Conforme aux spécifications de la version 2.1 de l'environnement Pre-boot eXecution Environment (PXE). Compatible avec les environnements de Boot Agent existants utilisant le protocole BOOTP. Périphériques pris en charge Vous pouvez utiliser BootUtil pour activer la ROM flash sur la plupart des cartes Intel pour serveurs. Cependant, pour les cartes suivantes, PXE est activé au moyen de l'environnement uEFI et il est impossible d'utiliser BootUtil pour mettre à jour l'image de démarrage. l Carte Intel® Gigabit 2P I350-t l Carte réseau Intel® Gigabit 4P I350-t l Carte Intel® Gigabit 4P I350-t rNDC l l l l l l l l l l l l l l l l l l l l l l l l l l l l Carte Intel® Gigabit 2P I350-t LOM Carte Intel® Gigabit I350-t LOM Carte Intel® Gigabit 2P I350 LOM Carte mezzanine Intel® Gigabit 4P I350-t Carte réseau Ethernet Intel® 10G 2P X520 Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Carte réseau Ethernet Intel® 4P X520/I350 rNDC Carte Intel® Gigabit 4P I350 bNDC Carte réseau Ethernet Intel® 10G X520 LOM Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X550-t Carte réseau Ethernet Intel® 10G 4P X550 rNDC Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Carte réseau convergent Ethernet Intel® X710 Carte réseau Ethernet Intel® 10G 4P X710-k bNDC Carte réseau Ethernet Intel® 10G 2P X710-k bNDC Carte réseau Ethernet Intel® 10G X710-k bNDC Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Carte réseau Ethernet Intel® 10G X710 rNDC Carte réseau convergent Ethernet Intel® X710-T Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP Carte réseau Ethernet Intel® 25G 2P XXV710 Carte mezzanine Ethernet Intel® 25G 2P XXV710 Carte réseau convergent Ethernet Intel® XL710-Q2 Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Intel® Ethernet iSCSI Boot Le démarrage iSCSI Ethernet Intel® permet le démarrage à partir d'une unité de disque iSCSI distante se trouvant sur un SAN (Storage Area Network) basé sur la norme iSCSI. Périphériques pris en charge l l l l l l l l l l l l l l l l l l l l l l Carte Intel® Gigabit 2P I350-t Carte réseau Intel® Gigabit 4P I350-t Carte Intel® Gigabit 4P I350-t rNDC Carte Intel® Gigabit 4P I350 bNDC Carte Intel® Gigabit 2P I350-t LOM Carte Intel® Gigabit I350-t LOM Carte Intel® Gigabit 2P I350 LOM Carte mezzanine Intel® Gigabit 4P I350-t Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 10G 2P X520 Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Carte réseau Ethernet Intel® 10G X520 LOM Carte réseau Ethernet Intel® 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X550-t Carte réseau convergent Ethernet Intel® XL710-Q2 Carte réseau Ethernet Intel® 10G 4P X550 rNDC Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Carte réseau convergent Ethernet Intel® X710 Carte réseau Ethernet Intel® 10G 2P X710-k bNDC Carte réseau Ethernet Intel® 10G 4P X710-k bNDC l l l l l l l l l Carte réseau Ethernet Intel® 10G X710-k bNDC Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Carte réseau Ethernet Intel® 10G X710 rNDC Carte réseau convergent Ethernet Intel® X710-T Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP Carte réseau Ethernet Intel® 25G 2P XXV710 Carte mezzanine Ethernet Intel® 25G 2P XXV710 Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Intel® Ethernet FCoE Boot Le démarrage FCoE Ethernet Intel® permet le démarrage à partir d'une unité de disque distante se trouvant sur un SAN (Storage Area Network) fibre. Utilisation d’Intel® PROSet pour le Gestionnaire de périphériques Windows Deux méthodes permettent d'atteindre les propriétés FCoE dans le Gestionnaire de périphériques Windows : en utilisant l'onglet « Data Center » sur la feuille de propriétés de la carte, ou en utilisant la feuille de propriétés Intel® « Ethernet Virtual Storage Miniport Driver for FCoE Storage Controllers ». Périphériques pris en charge Intel® FCoE est pris en charge sur les cartes réseau Intel® suivantes : l Carte réseau Ethernet Intel® 10G 2P X520 l Carte réseau Ethernet Intel® 10G 2P X520-k bNDC l Carte réseau Ethernet Intel® 4P X520/I350 rNDC l Carte réseau Ethernet Intel® 10G X520 LOM l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR l Carte réseau Ethernet Intel® 10G 2P X540-t l Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC (ports X540 uniquement) l Carte réseau Ethernet Intel® 10G 2P X550-t REMARQUES : l lors de l'utilisation d'un démarrage FCoE avec une carte réseau Intel, aucune carte de bus hôte (HBA) Brocade ne doit être installée sur le système. l Tous les systèmes d'exploitation ne sont pas pris en charge sur toutes les cartes. Infos sur la virtualisation La virtualisation permet l'exécution simultanée de plusieurs systèmes d'exploitation sur un même système physique en tant que machines virtuelles. Cette possibilité autorise la consolidation de plusieurs serveurs en un seul, même s’ils sont gérés sous des systèmes d’exploitation différents. Les cartes réseau Intel® fonctionnent avec et au sein des machines virtuelles, avec leurs pilotes et logiciels standards. REMARQUES : l Certaines options de virtualisation ne sont pas disponibles sur certaines combinaisons de carte/système d’exploitation. l Le paramètre Jumbo Frame à l'intérieur d'une machine virtuelle doit être identique ou inférieur au réglage du port physique. l Lors de la liaison d'une machine virtuelle à un réseau superposé locataire par le biais de ports de carte réseau virtuels sur un commutateur virtuel, les en-têtes d'encapsulation augmentent la taille de l'unité de transmission maximale (MTU) sur le port virtuel. La fonction d'en-tête d'encapsulation règle automatiquement la taille de l'unité de transmission maximale du port physique pour compenser cette augmentation. l Pour en savoir plus sur l’utilisation des cartes réseau Intel en environnements virtualisés, consultez le site http://www.intel.com/technology/advanced_comm/virtualization.htm. Utilisation des cartes réseau Intel® dans un environnement Microsoft* Hyper-V* Lorsqu’une interface réseau Hyper-V (VNIC) est créée dans la partition mère, la carte adopte l’adresse MAC de la carte physique sous-jacente. Il en va de même lorsqu’une carte réseau est créée pour une association de cartes ou un réseau VLAN. Comme une carte utilise l’adresse MAC de l’interface sous-jacente, toute opération qui modifie cette adresse (paramétrer LAA sur l’interface, modifier la carte principale d’une association, etc.) lui fera perdre sa connectivité. Pour empêcher cet inconvénient, Intel® PROSet ne vous permet pas de modifier des paramètres qui changent l’adresse MAC. REMARQUES : l Si FCoE/DCB est présent sur le port, la configuration du périphérique en mode VMQ + DCB réduit le nombre de VPorts VMQ disponible pour les systèmes d’exploitation invités. Cela ne s'applique pas aux périphériques à base de contrôleur Ethernet Intel® X710. l Lorsqu’ils sont expédiés depuis l’intérieur d’une machine virtuelle, les paquets LLDP et LACP peuvent représenter un risque pour la sécurité. Le pilote Intel® Virtual Function bloque l’envoi de ces paquets. l Le paramètre Virtualisation de l’onglet Avancé de la feuille des propriétés Gestionnaire de périphériques de la carte réseau n’est pas disponible si le rôle Hyper-V n’est pas installé. l Avant de configurer les fonctionnalités Microsoft* Hyper-V, les pilotes des cartes réseau Intel® doivent être installés par le Dell EMC Update Package. Si la fonction Microsoft* Hyper-V est configurée sur une partition de carte réseau non prise en charge sur les périphériques Intel® X710 avant l'exécution du Dell EMC Update Package pour installer les pilotes de carte réseau Intel®, l'installation des pilotes peut échouer. Pour résoudre le problème, vous devez désinstaller Microsoft* Hyper-V, désinstaller "Connexions réseau Intel®" de "Programmes et fonctionnalités", et exécuter le Dell EMC Update Package pour installer les pilotes de carte réseau Intel®. Le commutateur de machines virtuelles Le commutateur de machines virtuelles fait partie du chemin de données des E/S réseaux. Il se situe entre la carte physique et les interfaces des machines virtuelles et achemine les paquets vers l’adresse MAC voulue. L’activation du déchargement VMQ (Virtual Machine Queue) dans Intel® PROSet active automatiquement la file VMQ dans le commutateur de machines virtuelles. Pour les installations du pilote uniquement, il faut activer manuellement la file VMQ dans le commutateur de machines virtuelles. Utilisation de VLAN ANS Si vous créez des réseaux locaux virtuels ANS dans la partition parente puis que vous créez une interface de carte réseau virtuelle Hyper-V sur un réseau local virtuel ANS, l’interface de la carte réseau virtuelle doit avoir le même ID de réseau local virtuel que le réseau local virtuel ANS. Si l’ID de réseau local virtuel est différent ou s’il n’est pas défini dans l’interface de la carte réseau virtuelle, cette interface perd ses communications. La liaison des commutateurs virtuels sur un réseau local virtuel ANS aura la même adresse MAC que le VLAN, qui aura la même adresse que la carte réseau virtuelle ou l’association sous-jacente. Si vous avez plusieurs VLAN liés à une association et qu’un commutateur virtuel est lié à chaque VLAN, tous les commutateurs virtuels auront la même adresse MAC. Le groupage des commutateurs virtuels entraîne une erreur de réseau dans l’outil de validation du cluster Microsoft. Dans certains cas, il n’y aura aucun impact sur la performance du cluster si cette erreur est ignorée. Cependant, ce genre de cluster n’est pas pris en charge par Microsoft. L’utilisation du Gestionnaire de périphérique pour donner à chaque commutateur virtuel une adresse unique permet de résoudre ce problème. Reportez-vous à l'article Microsoft TechNet Configure MAC Address Spoofing for Virtual Network Adapters pour plus de détails. VMQ et SR-IOV ne peuvent pas être activés sur une interface de carte réseau virtuelle Hyper-V liée à un VLAN configuré à l’aide de l’onglet VLAN du Gestionnaire de périphériques Windows. Utilisation d'une association ou d'un VLAN ANS comme carte réseau virtuelle Pour utiliser une association ou un réseau local virtuel comme carte réseau virtuelle, suivez ces étapes : REMARQUES : l Ceci est applicable uniquement aux cartes réseau virtuelles créées sur une association ou un réseau local virtuel. Les cartes réseau virtuelles créées sur une carte physique ne nécessitent pas ces étapes. l Le mode RLB (Receive Load Balancing) n’est pas pris en charge dans Hyper-V. Désactivez le mode RLB lorsque vous utilisez Hyper-V. 1. 2. 3. 4. 5. Utilisez Intel® PROSet pour créer l’association ou le réseau local virtuel. Ouvrez le Panneau de configuration Réseau. Ouvrez l’association ou le réseau local virtuel. Dans l’onglet Général, désélectionnez toutes les liaisons de protocole et cliquez sur OK. Créez la carte réseau virtuelle. (Si vous cochez la case "Allow management operating system to share the network adapter" (Permettre au système d’exploitation d’administration de partager la carte réseau), l’étape suivante peut être réalisée dans la partition parente.) 6. Ouvrez le Panneau de configuration Réseau de la carte réseau virtuelle. 7. Dans l’onglet Général, cochez les liaisons de protocole souhaitées. REMARQUE ; cette étape n’est pas nécessaire pour l’association. Lorsque la carte réseau virtuelle est créée, ses protocoles sont liés correctement. Ligne de commande pour Microsoft Windows Server* Core Microsoft Windows Server* Core ne possède pas d’interface utilisateur graphique. Pour utiliser une association ANS ou un réseau VLAN comme carte d'interface réseau virtuelle, vous devez utiliser Microsoft* Windows PowerShell* pour procéder à la configuration. Utilisez Windows PowerShell pour créer l'association ou le réseau local virtuel. Voici un exemple de configuration en utilisant Microsoft* Windows PowerShell*. 1. Répertoriez toutes les cartes du système et stockez-les dans une variable. $a = Get-IntelNetAdapter 2. Créez une association en référençant les index de la baie des cartes stockées. New-IntelNetTeam -TeamMembers $a[1],$a[2] -TeamMode VirtualMachineLoadBalancing -TeamName “Team1” Délestage de la file d’attente d’une machine virtuelle L'activation du délestage du filtrage VMQ améliore les performances de réception et de transmission, car la carte informatique peut traiter ces tâches plus rapidement que le système d'exploitation. Le délestage permet également de libérer des ressources du processeur. Le filtrage est basé sur les filtres MAC et/ou des VLAN. Pour les périphériques qui le prennent en charge, le délestage VMQ est activé sur la partition hôte de la feuille des propriétés Gestionnaire de périphériques de la carte réseau (section Virtualisation de l’onglet Avancé). Chaque carte réseau Ethernet Intel® dispose d’un pool de ports virtuels qui se répartissent entre les diverses fonctionnalités : délestage VMQ, SR-IOV, Data Center Bridging (DCB) et Fibre Channel over Ethernet (FCoE). L’augmentation du nombre de ports virtuels utilisées pour une fonctionnalité diminue d’autant le nombre utilisable par les autres fonctionnalités. Sur les périphériques qui le permettent, l'activation de DCB réduit à 32 le pool total disponible pour les autres fonctionnalités. L'activation de FCoE fait tomber ce nombre à 24. REMARQUE : ceci ne s'applique pas aux dispositifs basés sur les contrôleurs Ethernet Intel® X710 ou XL710. Intel® PROSet affiche le nombre de ports virtuels disponibles pour les fonctions virtuelles (propriétés Virtualisation dans l’onglet Avancé du périphérique). Il permet également de définir la manière dont les ports virtuels disponibles sont répartis entre VMQ et SR-IOV. Remarques concernant les associations l l l Si la fonctionnalité VMQ n’est pas activée sur toutes les cartes d’une association, elle sera désactivée sur cette association. Si une carte ne prenant pas en charge la fonctionnalité VMQ est ajoutée à l’association, la fonctionnalité VMQ sera désactivée sur l’association. Les cartes réseau virtuelles ne peuvent pas être créées sur une association sur laquelle l’équilibrage de la charge de réception est activé. L’équilibrage de la charge de réception est automatiquement désactivé si vous l créez une carte réseau virtuelle sur l’association. Si une association est liée à une carte réseau virtuelle Hyper-V, vous ne pouvez pas changer la carte principale ou la carte secondaire. Files d'attente multiples de machines virtuelles Les files d'attente multiples de machines virtuelles (VMMQ) activent Receive Side Scaling (RSS) pour les ports virtuels liés à un port physique. Cela permet d'utiliser RSS en conjonction avec SR-IOV et à l'intérieur d'une machine virtuelle VMQ, ainsi que de délester le traitement RSS sur la carte réseau. Cette fonctionnalité reçoit le trafic sur plusieurs processeurs ou cœurs de processeurs. ce paramètre est sans effet si le système ne comporte d’un processeur. Vue d’ensemble de SR-IOV Single Root IO Virtualization (SR-IOV) est une spécification PCI SIG permettant aux périphériques PCI Express d’apparaître sous la forme de plusieurs périphériques PCI Express physiques distincts. SR-IOV permet un partage efficace des périphériques PCI entre des machines virtuelles (VM). Il gère et transporte les données sans passer par un hyperviseur en fournissant un espace mémoire indépendant, des interruptions et des flux DMA pour chaque machine virtuelle. L’architecture SR-IOV comprend deux fonctions : l La fonction physique (PF) est une fonction PCI Express totalement fonctionnelle qui peut être détectée, gérée et configurée comme n’importe quel autre périphérique PCI Express. l La fonction virtuelle (VF) est semblable à PF, mais elle ne peut être configurée et elle a comme seule capacité celle de transférer des données en entrée et en sortie. La VF est affectée à une machine virtuelle. REMARQUES : l SR-IOV doit être activé dans le BIOS. l Si SR-IOV n'est pas activé dans la configuration du système en appuyant sur F2 lorsque vous installez Intel® PROSet pour le Gestionnaire de périphériques Windows, la disponibilité des ports virtuels ne s'affiche pas dans la boîte de dialogue de virtualisation. Activez SR-IOV dans le BIOS système et réinstallez Intel® PROSet pour le Gestionnaire de périphériques Windows afin de corriger l'affichage. l Si vous prévoyez d'affecter directement des périphériques à une machine virtuelle sous Linux*, vous devez activer la prise en charge de l'unité de gestion de mémoire d'E/S (I/O Memory Management Unit, IOMMU) afin de garantir le bon fonctionnement de SR-IOV. Utilisez les paramètres d'amorçage du noyau "intel_iommu=on" et "iommu=pt" pour activer la prise en charge d'IOMMU. Pour optimiser la protection de la mémoire, utilisez "intel_iommu=on". Pour optimiser les performances, utilisez les deux paramètres ("intel_iommu=on iommu=p"). Ces paramètres peuvent être ajoutés à l'entrée CMDLINE__GRUB LINUX du fichier de configuration /etc/default/grub. Pour les systèmes utilisant le mode d'amorçage UEFI, exécutez grub2-mkconfig -o /etc/grub2-efi.cfg. Pour les systèmes amorcés en mode BIOS existant, exécutez grub2-mkconfig -o /boot/grub2/grub.cfg. Partitionnement NIC Le partitionnement de carte réseau (NIC) (NPar) permet aux administrateurs réseau de créer plusieurs partitions pour chaque port physique d'une carte réseau, et de définir différentes allocations de bande passante sur chaque partition. Pour le réseau et le système d'exploitation, chaque partition apparaît comme un port physique distinct sur la carte. Ceci facilite la réduction du nombre de ports de commutation et la complexité du câblage tout en préservant la segmentation et l'isolation du réseau. De plus, l'allocation flexible de bande passante par partition permet une utilisation efficace de la liaison. NPar est disponible sous Linux et ESXi, ainsi que sous Windows Server et sous les versions de Windows Server Core à partir de 2012 R2. Les cartes réseau suivantes prennent en charge NPar. Veuillez noter que NPar prend en charge jusqu'à 8 partitions par contrôleur. l Carte réseau Ethernet Intel® 25G 2P XXV710 l Carte Ethernet Intel® 10G 4P X710/I350 rNDC l Carte réseau Ethernet Intel® 10G 4P X710-k bNDC l Carte réseau Ethernet Intel® 10G 4P X710 rNDC l Carte réseau Ethernet Intel® 10G 2P X710-k bNDC l Carte réseau Ethernet Intel® 10G X710-k bNDC l Carte réseau convergent Ethernet Intel® X710 l Carte réseau convergent Ethernet Intel® X710-T l Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP REMARQUES : l Les cartes réseau prennent en charge NPar en mode NIC (LAN) uniquement. l Les technologies suivantes ne fonctionnent que sur la première partition de chaque port : l PXE Boot l iSCSIboot l Paramètres de vitesse de liaison et de duplex l Contrôle de flux l Options de gestion de l’alimentation l SR-IOV l Traitement des NVGRE l Les limitations de ressources sous Microsoft Windows peuvent affecter le nombre de ports affichés. Si plusieurs cartes sont installées sur un système et que NPar ou NParEP est activé sur ces cartes, le Gestionnaire de périphériques Windows peut ne pas afficher tous les ports. l La bande passante minimale peut ne pas être répartie équitablement sur les partitions NIC lors de la modification des modes NPAR/NPAR EP. Les valeurs minimales de la bande passante peuvent être modifiées après la modification des modes NPAR/NPAR EP. l Le délestage iSCSI n'est pas pris en charge sur les partitions NIC des appareils reposant sur le contrôleur Intel X710. Les cartes X710 affichent, de manière erronée, la valeur 'True' (Vrai) en regard de l'option 'iSCSI Offload Support' (Prise en charge du délestage iSCSI). L'activation de l'option 'iSCSI Offload Mode' (Mode de délestage iSCSI) sur la page [NIC Partitioning Configuration] active la partition du trafic de stockage iSCSI. l Le test de bouclage n'est pas pris en charge lorsque les appareils sont en mode NPAR. l Lors de la configuration du système pour un système d'exploitation Microsoft Windows, n'activez pas le mode de délestage iSCSI lors de la configuration des partitions des appareils Intel X710 directement dans le BIOS via HII, ni au moyen d'une configuration à distance telle que racadm ou WSMAN. l Si le mode NPAR est activé, veillez à ce que le paramètre avancé 'RSS load balancing profile' (Profil d'équilibrage de la charge RSS) soit configuré sur NUMAScalingStatic. l Le paramètre NVGRE n'est pas pris en charge lorsque l'appareil est en mode NPAR. Si le mode NPAR est activé sur votre appareil, le paramètre NVGRE (Délestage de tâche encapsulée de l'onglet Avancé du Gestionnaire de périphériques Windows) n'est pas pris en charge. Mode NParEP Le mode NParEP est une combinaison de NPar et de PCIe ARI. Il augmente le nombre maximum de partitions à 16 par contrôleur. Prise en charge de la plate-forme NParEP Connecteur PCI Express Plateforme Dell EMC Carte mezzanine pour OCP Emplacement pour carte fille réseau pour rack C4130 C4140 C6420 non oui 1 2 3 oui oui oui non oui 4 5 6 7 8 9 10 11 12 13 oui R230 non non R330 non non R430 oui oui R440 oui oui oui R530 oui oui oui R530XD oui oui non R540 oui oui oui non non oui oui non R630 oui oui oui oui R640 oui oui oui oui R730 oui oui oui oui oui oui oui R730XD oui oui oui oui oui oui oui R740 oui oui oui oui oui oui oui R830 oui oui oui oui oui oui oui R840 oui oui oui oui oui oui oui oui oui oui oui R930 oui oui oui oui oui oui oui oui oui oui oui R940 oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui T130 non non non non T330 non non non oui T430 non non oui oui oui T440 non oui oui oui oui T630 oui non oui oui oui oui oui oui oui oui oui oui oui oui T640 oui oui Connecteur mezzanine Plate-forme Dell EMC Emplacement pour carte fille réseau lame B C FC430 FC630 oui FC830 oui M630 oui M630 pour VRTX oui M640 oui M640 pour VRTX oui M830 oui M830 pour VRTX oui MX740c oui oui oui MX840c oui oui oui Les plates-formes ou connecteurs pris en charge sont indiqués par un "oui". Mention « non » : non pris en charge. Cellule vide : non applicable. Configuration du mode NPar Configuration du mode NPar depuis le gestionnaire de démarrage Lorsque vous démarrez le système, appuyez sur la touche F2 pour afficher le menu System Setup (Configuration du système). Sélectionnez Device Settings (Paramètres du périphérique) dans la liste sous le menu principal Configuration du système, puis sélectionnez votre carte réseau dans la liste pour accéder au menu de configuration du périphérique. Sélectionnez Device Level Configuration (configuration du niveau du périphérique) dans la liste sous la page de configuration principale. Ceci affiche les paramètres de Virtualisation sous Device Level Configuration (configuration du niveau du périphérique). Il existe quatre options dans la liste déroulante Virtualization Mode (mode de virtualisation). l None : la carte fonctionne normalement l NPar : autorise jusqu'à 8 partitions sur la carte. Si vous sélectionnez le mode de virtualisation NPar, vous voyez alors l'option d'activer le mode NParEP, qui étend le nombre de partitions par carte au total de 16 en associant NPar avec PCIe ARI. REMARQUES : l Lorsqu'une carte réseau fonctionne en mode NPar, elle est limitée à 8 partitions au total. Une carte à deux ports disposera de quatre partitions par port. Une carte à quatre ports disposera de deux partitions par port. l Le mode NParEP ne peut être activé que lorsque le mode NPar a été lui-même activé. l Lorsqu'une carte réseau fonctionne en mode NParEP, elle est limitée à 16 partitions au total. Une carte à deux ports disposera de huit partitions par port. Une carte à quatre ports disposera de quatre partitions par port. l l SR-IOV : active SR-IOV sur le port NPar+SR-IOV : autorise jusqu'à 8 partitions (fonctions physiques) pour la carte et active SR-IOV. REMARQUES : l SR-IOV est limité à la partition racine de chaque port. l Lorsqu'une carte fonctionne en mode NPar, les paramètres de virtualisation (SR-IOV) s'appliquent à tous les ports de la carte et à toutes les partitions de chaque port. Les modifications apportées aux paramètres de virtualisation sur un port sont appliqués à tous les ports de la carte. Lorsque vous avez terminé la sélection, cliquez sur le bouton Back (Retour) pour retourner à la page de Configuration principale. Cliquez sur le nouvel élément intitulé NIC Partitioning Configuration (Configuration des partitions de carte d'interface réseau) dans la liste de configuration pour passer à la page de Configuration des partitions de la carte réseau, qui affiche la liste des partitions NPar (ou NParEP) de la carte. La page Global Bandwidth Allocation permet de spécifier l'allocation de bande passante minimale et maximale garantie pour chaque partition d'un port. Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra allouer, en pourcentage de la vitesse totale de liaison du port physique. La bande passante allouée n'est jamais inférieure au niveau spécifié ici. La plage de valeurs valides s'étend de : 1 à ((100 moins le nombre de partitions sur le port physique) plus 1). Par exemple, si un port physique comporte 4 partitions, la plage serait : 1 à ((100 - 4) + 1 = 97) La bande passante maximale représente la bande passante de transmission maximale de la partition sous la forme d'un pourcentage de la vitesse totale de liaison du port physique. La plage des valeurs acceptable va de 0 à 100. Cette valeur peut être utilisée comme limiteur si vous choisissez qu'une partition donnée ne pourra pas consommer la totalité de la bande passante disponible d'un port. La somme de toutes les valeurs de bande passante maximale n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port. REMARQUE : l Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres seront automatiquement ajustés de sorte qu'elle soit égale à 100. l Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale. l Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule tâche et assurez-vous que la somme des valeurs est égale à 100. Cliquez sur le bouton Back (Retour) après avoir alloué la bande passante pour retourner à la page de configuration des partitions de la carte réseau. Sur cette page, vous pouvez cliquer sur l'un des éléments de la liste Partition n Configuration (Configuration de la partition n) sous Global Bandwidth Allocation (Affectation globale de la bande passante). S'affiche alors une page d'information de configuration sur un port particulier. Vous pouvez afficher le mode NIC, PCI ; l'ID de périphérique, l'adresse MAC et l'adresse MAC virtuelle (le cas échéant) de toutes les partitions d'un port donné en cliquant sur les éléments de la liste de configuration de partition. Lorsque vous avez terminé la configuration de toutes les partitions sur un port, retournez à la page principale configuration, cliquez sur le bouton Finish, puis sur le bouton OK dans la boîte de dialogue Success (Saving Changes) (Réussite (Enregistrement des modifications)). Répétez le processus de configuration des partitions pour tous les ports de votre carte réseau. REMARQUE : une fois NPar activé sur l'une des partitions d'un port, il apparaît comme activé pour toutes les autres partitions de ce port. Si le premier paramètre de NPar incluait l'activation du mode NParEP, le mode NParEP apparaîtra également activé pour toutes les autres partitions de ce port. Après avoir configuré toutes les partitions de tous les ports de toutes les cartes réseau du serveur, retournez au menu principal de configuration système, et cliquez sur le bouton Finish. Cliquez ensuite sur Yes pour quitter le menu de configuration du système et redémarrer le système pour appliquer les modifications. Lorsque le processus de démarrage du système est terminé, NPar reste activé jusqu'à ce que vous le désactiviez explicitement en désactivant l'option lors d'une séquence de démarrage suivante. Configuration du mode NPar sous Microsoft Windows Il est possible de configurer une partition de port de carte réseau dans Windows de la même manière qu'un port de carte réseau. Exécutez le Gestionnaire de périphériques, sélectionnez et ouvrez les feuilles de propriétés des partitions pour configurer les options. Activation du protocole NPar L'activation du protocole NPar se fait à partir de l'onglet Advanced (Avancé) de la feuille des propriétés Gestionnaire de périphériques. Options de démarrage L'onglet Boot Options (Options de démarrage) vous avertit que le périphérique est en mode NPar et que les paramètres de protocole de prédémarrage existants ne peuvent être configurés que sur la partition racine. Un clic sur le bouton Properties (Propriétés) lance la feuille de propriétés de la partition racine de la carte réseau. Options de gestion de l’alimentation Les paramètres de gestion de l'alimentation ne sont autorisés que sur la première partition de chaque port physique. Si vous sélectionnez l'onglet Power Management (Gestion de l'alimentation) dans la feuille de propriété du Gestionnaire de périphériques lorsqu'une partition autre que la première est sélectionnée, la boîte de dialogue de gestion de l'alimentation indique qu'il est impossible de configurer les paramètres de gestion de l'alimentation sur la connexion en cours. Un clic sur le bouton Properties (Propriétés) lance la feuille de propriétés de la partition racine de la carte réseau. REMARQUE : les options de démarrage et les paramètres de gestion de l'alimentation ne sont disponibles que sur la partition racine de chaque port physique. Contrôle de flux Il est possible de modifier les paramètres de contrôle de flux pour n'importe quelle partition d'un port donné. Cependant, lorsqu'un changement est apporté aux paramètres de contrôle de flux d'une partition associée à un port sur une carte réseau fonctionnant en mode NPar, la nouvelle valeur est appliquée à toutes les partitions de ce port. Le contrôle de flux est accessible en sélectionnant l'onglet Advanced (Avancé) d'Intel® PROSet, puis le bouton Properties (Propriétés), puis en sélectionnant Flow Control (Contrôle de flux) dans la liste des options de la liste Settings (Paramètres) dans la boîte de dialogue affichée. Identification des associations de ports La boîte de dialogue d'informations sur le matériel des feuilles de propriétés d'Intel® PROSet facilite l'identification du port physique associé à une partition donnée. Un bouton Identifier la carte sur l'onglet Vitesse de liaison permet de faire clignoter le témoin lumineux ACK/Link du port associé à la partition active. Configuration de la bande passante des partitions La boîte de dialogue Bandwidth Configuration (Configuration de la bande passante) indique le port pour lequel les paramètres sont en cours, au-dessus de la liste des partitions de ce port et de leurs allocations de bande passante actuelles (Min%, Max%). Le bouton Bandwidth Configuration (Configuration de la bande passante) de l'onglet Vitesse de liaison des feuilles de propriétés d'Intel® PROSet permet d'accéder à la configuration de la bande passante des partitions. La bande passante allouée à chaque partition du port n'est jamais inférieure à la valeur définie sous Min%. Pour toutes les partitions d'un même port physique, le pourcentage de la bande passante minimale doit être réglé à zéro pour toutes les partitions, ou la somme du pourcentage de bande passante minimale de toutes les partitions doit être égale à 100, la plage des pourcentages de bande passante minimale étant comprise entre 1 et (100-n) %, où n représente le nombre de partitions d'un port particulier. Par exemple, pour un port comportant quatre partitions définies : P1=0 P2=0 P3=0 P4=0 Correct P1=10 P2=20 P3=30 P4=40 Correct P1=20 P2=80 P3=0 P4=0 Incorrect Les valeurs valides pour Max% sont la valeur du “Min%” de cette partition jusqu'à “100”. Par exemple, si la valeur Min% de la Partition 1 est 50 %, la plage de valeur Max% de cette partition est “50”-“100”. Si vous paramétrez la valeur Max% d'une partition pour dépasser 100 % en incrémentant la valeur à l'aide du spinner, une erreur s'affiche et la valeur Max% est décrémentée jusqu'à 100 %. La somme des valeurs Max% de toutes les partitions d'un port donné est illimitée. Pour modifier la valeur de Min% ou de Max%, sélectionnez une partition dans la liste, et utilisez les flèches vers le haut et vers le bas sous "Selected Partition Bandwidth Percentages" (Pourcentage de bande passante des partitions sélectionnées). REMARQUE : l Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres seront automatiquement ajustés de sorte qu'elle soit égale à 100. l Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale. l Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule tâche et assurez-vous que la somme des valeurs est égale à 100. Paramètres de vitesse de liaison et de duplex Le paramètre de vitesse et de duplex d'un port donné est modifiable depuis n'importe quelle partition associée à ce port. Cependant, du fait que toutes les partitions d'un port donné d'une carte fonctionnant en mode NPar partagent le même module enfiché dans ce port, la modification du paramètre de vitesse et de duplex applique la nouvelle valeur à toutes les partitions d'un même port physique. La modification du paramètre de vitesse et de duplex d'un port sur une carte fonctionnant en mode NPar provoque le rechargement du pilote pour chaque partition associée à ce port, ce qui peut entraîner la perte momentanée de la liaison. Diagnostics en ligne Les diagnostics en ligne peuvent être effectués en mode NPar sans que la carte ne perde la liaison. Les diagnostics suivants sont disponibles pour toutes les partitions d'un port donné lorsque la carte fonctionne en mode NPar : l EEPROM l Register (Registre) l Test d'intégrité NVM l Connexion Diagnostics hors ligne Les diagnostics hors ligne ne sont pas pris en charge lorsqu'une carte fonctionne en mode NPar. Les tests de bouclage et les tests de câble hors ligne ne sont pas autorisés en mode NPar. Règles d'agrégation NPar Il ne peut pas exister deux partitions membres d'une agrégation ANS qui soient associées au même port physique. Si vous essayez d'ajouter une partition à une agrégation existante au moyen de l'onglet Agrégation de cartes des feuilles de propriétés d'Intel® PROSet pour une carte réseau fonctionnant en mode NPar, le système vérifie si la partition à ajouter est associée au même port physique qu'un membre préexistant de l'agrégation. Lorsqu'une carte est ajoutée à une association, la modification des paramètres de la carte et de l'association peut entraîner une perte temporaire de la connectivité. Virtualisation Les paramètres de virtualisation (Virtual Machine Queues et SR-IOV) sont accessibles dans les feuilles de propriétés d'Intel® PROSet en sélectionnant l'onglet Avancé, puis "Virtualisation" dans la liste des paramètres. Lorsqu'une carte fonctionne en mode NPar, seule la première partition de chaque port physique peut être configurée au moyen des paramètres de virtualisation. REMARQUE : Microsoft* Hyper-V* doit être installé sur le système pour que les paramètres de virtualisation soient disponibles. En l'absence d'Hyper-V*, l'onglet Virtualisation de PROSet ne s'affiche pas. Configuration du mode NPar sous Linux Sur les cartes réseau Intel® série 710 qui le prennent en charge, vous pouvez configurer plusieurs fonctions sur chaque port physique. Ces fonctions sont configurées au moyen de la Configuration système/BIOS. Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra allouer, en pourcentage de la vitesse totale de liaison du port physique. La bande passante allouée n'est jamais inférieure au niveau spécifié ici. La plage des valeurs de bande passante minimale 1 à ((100 moins le nombre de partitions sur le port physique) plus 1). Par exemple, si un port physique comporte 4 partitions, la plage serait 1 à ((100 - 4) + 1 = 97) La bande passante maximum représente la bande passante de transmission maximum de la partition sous la forme d'un pourcentage de la vitesse de liaison du port physique complet. La plage de valeurs acceptable va de 1 à 100. La valeur peut être utilisée comme limiteur si vous décidez qu'une fonction donnée ne pourra pas consommer la totalité (100 %) de la bande passante d'un port (en cas de disponibilité). La somme de toutes les valeurs de bande passante maximale n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port. REMARQUE : l Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres seront automatiquement ajustés de sorte qu'elle soit égale à 100. l Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale. l Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule tâche et assurez-vous que la somme des valeurs est égale à 100. Une fois la configuration initiale terminée, vous pouvez définir différentes allocations de bande passante pour chaque fonction de la manière suivante : 1. Créez un nouveau répertoire nommé /config 2. Modifiez etc/fstab pour inclure : configfs /config configfs defaults 3. Chargez (ou rechargez) le pilote i40e 4. Montez /config 5. Créez sous config un nouveau répertoire pour chaque partition pour laquelle vous souhaitez configurer la bande passante. Trois fichiers apparaissent dans le répertoire config/partition : - max_bw - min_bw - commit Lisez à partir de max_bw pour afficher le paramètre actuel de bande passante maximale. Écrivez dans max_bw pour fixer la bande passante maximale pour cette fonction. Lisez à partir de min_bw pour afficher le paramètre actuel de bande passante minimale. Écrivez dans min_bw pour fixer la bande passante minimale pour cette fonction. Écrivez un '1' pour confirmer l'enregistrement (commit) des modifications. REMARQUES : l Commit est en écriture seule. Toute tentative de lecture provoquera une erreur. l L'écriture dans commit n'est prise en charge que pour la première fonction d'un port donné. L'écriture pour une des fonctions suivantes provoquera une erreur. l La réécriture de la bande passante minimale n'est pas prise en charge. Le NVM du périphérique sousjacent règle la bande passante maximale sur les valeurs prises en charge de manière indéterminée. Supprimez tous les répertoires sous config et rechargez-les pour voir quelles sont les valeurs réelles. l Pour décharger le pilote, vous devez tout d'abord supprimer les répertoires créés à l'étape 5 ci-dessus. Exemple de réglage de la bande passante maximale et minimale (en supposant quatre fonctions sur le port eth6-eth9, et que eth6 soit la première fonction du port) : # mkdir /config/eth6 # mkdir /config/eth7 # mkdir /config/eth8 # mkdir /config/eth9 # echo 50 > /config/eth6/min_bw # echo 100 > /config/eth6/max_bw # echo 20 > /config/eth7/min_bw # echo 100 > /config/eth7/max_bw # echo 20 > /config/eth8/min_bw # echo 100 > /config/eth8/max_bw # echo 10 > /config/eth9/min_bw # echo 25 > /config/eth9/max_bw # echo 1 > /config/eth6/commit Sortie du mode NPar Le mode NPar est désactivé dans le menu de configuration du système lors d'un redémarrage. Redémarrez le système et appuyez sur la touche F2 pour afficher le menu System Setup. Sélectionnez Device Settings (Paramètres du périphérique) dans la liste sous le menu principal Configuration du système, puis sélectionnez votre carte réseau dans la liste pour accéder au menu de configuration du périphérique. Sélectionnez Device Level Configuration (configuration du niveau du périphérique) dans la liste sous la page de configuration principale. Ceci affiche les paramètres de Virtualisation sous Device Level Configuration (configuration du niveau du périphérique). Dans la liste Virtualization Mode (Mode de virtualisation), sélectionnez "None". Cliquez ensuite sur le bouton Back pour retourner à la page de configuration principale. Puis cliquez sur le bouton Finish pour enregistrer les modifications et redémarrer le système. NPar n'est plus actif après ce redémarrage. REMARQUE : lorsque NPar a été désactivé et que le redémarrage est terminé, tous les autres paramètres associés à la virtualisation, tels que NParEP ou SR-IOV sont également désactivés. Installation de la carte réseau Sélection de l'emplacement adéquat Un emplacement PCI-Express x4, x8 ou x16, en fonction de votre carte. REMARQUE : certains systèmes possèdent des connecteurs PCI Express x8 physiques qui prennent en charge uniquement des vitesses qui sont en fait inférieures. Consultez le manuel de votre système pour identifier le connecteur. Insertion de la carte dans l'ordinateur 1. Si votre ordinateur prend en charge PCI Hot Plug, consultez la documentation de votre ordinateur pour obtenir des instructions spéciales d'installation. 2. Mettez votre ordinateur hors tension et débranchez-le. Retirez-en ensuite le capot. ATTENTION : coupez l'alimentation et débranchez l'ordinateur avant d'enlever le capot. Si vous ne procédez pas ainsi, vous risquez de vous blesser et d'endommager la carte ou l'ordinateur. 3. Retirez le support du capot d'un emplacement disponible. 4. Insérez la carte en appuyant dessus, jusqu'à ce qu'elle soit correctement insérée dans son emplacement. Vous pouvez installer une petite carte PCI Express dans un emplacement PCI Express plus grand. ATTENTION : certaines cartes PCI Express peuvent être dotées d'un connecteur court ce qui les rend plus fragiles que les cartes PCI. Une force excessive pourrait endommager le connecteur. Insérez la carte dans l’emplacement en appuyant doucement. 5. Sécurisez le support de la carte avec une vis si nécessaire. 6. Replacez le capot de l'ordinateur et branchez le cordon d'alimentation. 7. Mettez l'ordinateur en marche. Connexion du câble réseau Branchez le câble réseau approprié, comme décrit dans les sections suivantes. Connexion du câble réseau RJ-45 Connectez le câble réseau RJ-45 comme illustré : Type de câblage à utiliser : l 10GBASE-T sur les câblages cuivre à 4 paires torsadées de catégories 6, 6a ou 7 : l La longueur maximum est de 55 mètres pour la catégorie 6. l La longueur maximum est de 100 mètres pour la catégorie 6a. l La longueur maximum est de 100 mètres pour la catégorie 7. REMARQUE : pour la carte réseau Intel® 10 Gigabit AT pour serveurs, en vue d’assurer la conformité avec les normes CISPR 24 et EN55024 (Union européenne), ce produit doit être utilisé uniquement avec des câbles blindés de catégorie 6a dotés de terminaisons correctes d’après les recommandations de la norme EN50174-2. l Pour 1000BASE-T ou 100BASE-TX, utilisez un câble cuivre à 4 paires torsadées de catégories 5 ou 5e : l Veillez à utiliser des câbles de catégorie 5 conformes aux spécifications de câblage de la norme TIA568. Pour obtenir de plus amples informations sur ces spécifications, visitez le site Web de l’association Telecommunications Industry Association : www.tiaonline.org. l La longueur maximale est de 100 mètres. l Le câblage de catégorie 3 ne fonctionne qu’à 10 Mbit/s. ATTENTION : en cas d’utilisation d’un câble de moins de quatre paires, vous devez configurer manuellement la vitesse et le duplex de la carte et le partenaire de liaison. De plus, avec des câbles à deux et trois paires, la carte ne peut qu’opérer à des vitesses allant jusqu’à 100 Mbit/s. l l l Avec 100BASE-TX, utilisez un câble de catégorie 5. Avec 10Base-T, utilisez un câble de catégorie 3 ou 5. Si vous souhaitez utiliser cette carte dans un environnement résidentiel (quelle que soit la vitesse), utilisez un câble de catégorie 5. Si le câble passe entre des pièces ou à travers des murs ou des plafonds, il doit être ignifuge pour assurer la protection contre les incendies. Dans tous les cas : l La carte doit être connectée à un partenaire de liaison compatible et configurée de préférence pour négocier automatiquement la vitesse et le mode duplex pour les cartes Intel Gigabit. l Les cartes réseau Intel Gigabit et 10 Gigabit pour serveurs utilisant des connexions en cuivre acceptent automatiquement les connexions MDI ou MDI-X. La fonctionnalité MDI-X automatique des cartes réseau Intel Gigabit à connexions en cuivre permet la connexion directe de deux cartes sans faire appel à un câble de jonction. Connexion du câble réseau en fibre optique ATTENTION : les ports fibre optique utilisent un appareil laser de la classe 1. Quand ils ne sont pas utilisés, couvrez-les toujours avec le capuchon. En cas de panne anormale, vous risquez de subir des lésions cutanées ou oculaires si vous vous trouvez à proximité des ports exposés. Retirez le panneau du connecteur à fibre optique et mettez-le sur le côté. Insérez un câble fibre optique dans les ports du support de la carte réseau, tel qu’illustré ci-dessous. La plupart des connecteurs et des ports sont marqués pour faciliter leur orientation. Si le câble que vous utilisez n’est pas marqué, veillez à l’orienter correctement (port de transmission connecté au port de réception du partenaire de liaison et vice versa). La carte doit être connectée à un partenaire de liaison compatible fonctionnant à la même longueur d'onde laser que l'adaptateur. Les câbles de conversion pour d’autres types de connecteur (p. ex., un connecteur SC à LC) peuvent être utilisés si le câblage est conforme aux spécifications optiques de la carte, y compris les limites de longueur. Insérez le câble à fibre optique comme indiqué ci-dessous. Exigences de connexion l l l l 40GBASE-SR4/MPO sur fibre optique de 850 nanomètres : l OM3 de 50/125 microns : longueur maximale égale 100 mètres. l OM4 de 50/125 microns : longueur maximale égale 150 mètres. 25GBASE-SR/LC sur fibre optique de 850 nanomètres : l Fibre multimode de 50 microns : longueur maximale égale à 300 mètres. l Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres. 10GBASE-SR/LC sur fibre optique de 850 nanomètres : l Fibre multimode de 50 microns : longueur maximale égale à 300 mètres. l Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres. 1000BASE-SX/LC sur fibre optique de 850 nanomètres : l Fibre multimode de 50 microns : longueur maximale égale à 550 mètres. l Fibre multimode de 62,5 microns : longueur maximale égale à 275 mètres. Modules SFP+ et QSFP+ pris en charge Les cartes réseau serveur Ethernet Intel® prennent en charge uniquement les câbles en fibre optique Intel® et/ou les câbles de branchement direct à limitation active et passive conformes aux spécifications SFF-8431 v4.1 et SFF-8472 v10.4. Lorsque les modules SFP+ avec contrôleur 82599 sont branchés dos à dos, ils doivent être réglés sur le même paramètre de vitesse avec Intel® PROSet pour Windows ou ethtool. Si vous attribuez des paramètres de vitesse différents, les résultats peuvent varier. La plupart des cartes réseau Ethernet Intel® pour serveurs prennent en charge les modules suivants : REMARQUE : les périphériques équipés de la série Intel® 710 ne prennent pas en charge les modules tiers. Fabricant Type Références Cartes prises en charge Dell EMC SFP+ SR 1G/10G double débit (avec étrier) Y3KJN, XYD50, WTRD11 X520, X7102 , XXV710 Dell EMC QSFP+ F10 Passive Octopus (QSFP+ à 4xSFP+) TCPM2, 27GG5, P8T4W X520, X7102 Dell EMC Émetteur-récepteur SFP+ vers 1000BASET 8T47V X7102 Dell EMC SFP+ LR Optic 60F4J, RN84N X7102,3 Dell EMC Câble optique actif (AOC) YJF03, P9GND, T1KCN, 1DXKP, MT7R2, K0T7R et W5G04. X7102 , XXV710 Dell EMC 25G optique P7D7R, HHHHC XXV710 Dell EMC SFP28 25G optique 68X15 XXV710 Dell EMC SFP+ F10 passif V250M, 53HVN, 358VV XXV710 Dell EMC SFP28 passif 2JVDD, D0R73, VXFJY, 9X8JP XXV710 Dell EMC QSFP28 F10 Passive Octopus (QSFP+ à 4xSFP28) 26FN3, YFNDD, 7R9N9 XXV710 Dell EMC QSFP+ SR 1G/10G/40G triple débit (avec étrier) (1G et 10G non pris en charge sur les cartes XL710) 9GCCD, 7TCDN, 5NP8R, FC6KV, J90VN XL710 1 WTRD1 n'est pas pris en charge sur les cartes réseau équipées du contrôleur Intel® X520. carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP prend uniquement en charge les modules répertoriés dans le tableau suivant : 3 Prise en charge uniquement sur la carte réseau convergent Ethernet Intel® X710 à deux ports. 2 La La carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP prend uniquement en charge les modules suivants : Fabricant Type Références Dell EMC SFP+ SR High Temp Optics N8TDR Dell EMC QSFP+ F10 Passive Octopus TCPM2, 27GG5, P8T4W LA LISTE DES MODULES ET CÂBLES OPTIQUES DE FABRICANTS TIERS CI-DESSUS N'EST FOURNIE QUE POUR INDIQUER LEURS CARACTÉRISTIQUES ET LEUR COMPATIBILITÉ POTENTIELLE. ELLE NE CONSTITUE NI UNE RECOMMANDATION, NI UN AVAL, NI UN PARRAINAGE DE PRODUITS TIERS PAR INTEL. INTEL N’AVALISE NI NE PROMEUT LES PRODUITS FABRIQUÉS PAR DES TIERS ET LA RÉFÉRENCE À CES DERNIERS N’EST PROPOSÉE QU’À TITRE D’INFORMATION SUR CERTAINS MODULES ET CÂBLES OPTIQUES AUX CARACTÉRISTIQUES CI-DESSUS. IL PEUT AINSI EXISTER D’AUTRES FABRICANTS OU FOURNISSEURS QUI FABRIQUENT OU PROPOSENT DES MODULES ET CÂBLES OPTIQUES AUX CARACTÉRISTIQUES SIMILAIRES OU CORRESPONDANT AUX DESCRIPTIONS. LES CLIENTS DOIVENT DONC EXERCER LEUR PROPRE JUGEMENT POUR L’ACHAT DE MODULES OU DE CÂBLES DE TIERS DE LEUR CHOIX. C’EST AINSI AUX CLIENTS UNIQUEMENT QU’IL INCOMBE DE DÉTERMINER SI LE PRODUIT ET/OU LE PÉRIPHÉRIQUE CONVIENT AINSI QUE D’EN CHOISIR LE FABRICANT. LES MODULES ET CÂBLES OPTIQUES AUXQUELS IL EST FAIT RÉFÉRENCE CI-DESSUS N’ENTRENT PAS DANS LA GARANTIE D’INTEL NI DANS SES CONDITIONS DE SÀV. INTEL REJETTE AINSI TOUTE RESPONSABILITÉ AINSI QUE TOUTE GARANTIE EXPRESSE OU IMPLICITE RELATIVE À LA VENTE ET/OU À L’UTILISATION DE CES PRODUITS DE TIERS OU AUX CHOIX EFFECTUÉ PAR LES CLIENTS. Connexion du câble à raccordement direct Insérez le câble réseau direct comme indiqué ci-dessous. Type de câblage : l 40 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax) l La longueur maximale est de 7 mètres. l 25 Gigabit Ethernet sur câble SFP28 à fixation directe (Twinax) l La longueur maximale est de 5 mètres. l Pour des performances optimales, utiliser CA-25G-L avec RS-FEC et 25GBASE-CR l 10 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax) l La longueur maximale est de 10 mètres. Installation d'une carte mezzanine dans le serveur-lame Consultez la documentation de votre serveur pour obtenir des instructions détaillées sur l'installation d'une carte mezzanine. 1. Arrêtez le serveur-lame et retirez-le du châssis, puis enlevez le couvercle. ATTENTION : le serveur-lame doit être arrêté. Autrement, vous vous mettez en danger et risquez d’endommager la carte ou le serveur. 2. Levez le levier de verrouillage et insérez la carte dans un logement disponible compatible avec les cartes mezzanine. Poussez la carte dans le logement jusqu’à ce qu’elle soit fermement enfoncée. REMARQUE : un commutateur ou un module de connexion directe doit être présent sur la même matrice que la carte dans le châssis afin de fournir une connexion physique. Par exemple, si la carte mezzanine est insérée dans la matrice B, un commutateur doit également être présent dans la matrice B du châssis. 3. 4. 5. 6. Répétez l’étape 2 pour chaque carte que vous souhaitez installer. Abaissez le levier de verrouillage jusqu’à ce qu’il s’enclenche en position sur la ou les cartes. Replacez le couvercle du serveur-lame et remettez la lame dans le châssis du serveur. Mettez l’ordinateur sous tension. Installation d'une carte fille réseau dans un serveur Consultez la documentation de votre serveur pour obtenir des instructions détaillées sur la manière d'installer une carte bNDC ou rNDC. 1. Mettez le serveur hors tension et retirez son capot. ATTENTION : le serveur doit être arrêté. Autrement, vous vous mettez en danger et risquez d'endommager la carte ou le serveur. 2. Repérez le connecteur de la carte fille réseau de votre serveur. Consultez la documentation de votre serveur pour obtenir davantage de détails. 3. Encastrez la carte fille réseau dans le connecteur. 4. Resserrez les vis de la carte fille réseau pour la maintenir en place. 5. Remplacez le capot du serveur. Installation et configuration de Microsoft* Windows* Installation des pilotes et logiciels Windows Installer les pilotes REMARQUES : l Cette opération mettra à jour les pilotes de toutes les cartes réseau Intel® du système prises en charge. l La fonction de restauration de pilote de Windows Server (disponible sur l'onglet Driver (Pilote) de la boîte de dialogue Propriétés de la carte) ne fonctionnera pas correctement si une association de cartes ou Intel® PROSet est présent sur le système. Avant d’utiliser cette fonction, utilisez Intel® PROSet pour supprimer les associations, et ensuite pour supprimer Intel® PROSet, utilisez Programs and Features (Programmes et fonctionnalités) dans le panneau de configuration de Windows. l L'utilisation de Microsoft Windows Update pour mettre à niveau vos pilotes de réseau Ethernet ou les mettre à niveau vers la version antérieure n'est pas prise en charge. Veuillez télécharger le dernier package de pilote à partir du site Internet d'assistance. Avant d'installer ou de mettre à jour les pilotes, insérez vos cartes dans l'ordinateur et branchez le câble réseau. Lorsque Windows détecte la nouvelle carte, il tente de trouver un pilote Windows adéquat déjà installé sur le système d'exploitation. S'il en détecte un, le pilote est installé sans intervention de l'utilisateur. Si Windows ne détecte pas le pilote, l'Assistant Ajout de nouveau matériel détecté s'affiche. Que Windows détecte ou non le pilote, il est recommandé de suivre la procédure ci-dessous pour installer le pilote. Les pilotes de toutes les cartes Intel® prises en charge par cette version du logiciel sont installés. 1. 2. 3. 4. 5. Téléchargez les pilotes les plus récents sur le site Web d'assistance et transférez-les sur le système. Si l'écran Assistant Ajout de nouveau matériel détecté s'affiche, cliquez sur Annuler. Double-cliquez sur le fichier téléchargé. Sélectionnez Install (Installer) dans l'écran Dell Update Package. Suivez les instructions de l'assistant d'installation. Veillez à sélectionner Intel PROSet pour l'installation. REMARQUE : veillez à sélectionner l'option d'installation "iSCSI using Data Center Bridging" (iSCSI avec DCB) pour les systèmes sur lesquels un périphérique compatible NPAR est installé. Syntaxe pour Dell EMC Update Package (DUP) Le Dell EMC Update Package (DUP) est un package exécutable qui procédera à la mise à jour des pilotes réseau sur votre système. REMARQUES : l Si vous installez un pilote sur un ordinateur équipé de cartes Intel, veillez à mettre à jour toutes les cartes et tous les ports à l’aide des mêmes pilotes et du même logiciel Intel® PROSet pour assurer un fonctionnement correct de toutes les cartes. l Si le démarrage Fibre Channel over Ethernet (FCoE) est activé sur un équipement du système, vous ne serez pas en mesure de mettre à niveau vos pilotes. Vous devez désactiver le lancement automatique du FCoE avant de mettre à niveau les pilotes Ethernet. Syntaxe Network_Driver_XXXXX_WN64_XX.X.X_A00.exe [/<option1>[=<value1>]] [/<option2>[=<value2>]]... Descriptif des options de ligne de commande Aucune Si vous ne spécifiez aucune option de ligne de commande, le package vous guidera tout au long du processus d'installation. /? ou /h Affiche les informations d'utilisation du Dell Update Package. /s Supprime toutes les interfaces utilisateur graphiques du Dell Update Package. /i Lance une nouvelle installation des pilotes inclus dans le Dell Update Package. REMARQUE : l'option /s est requise /e=<chemin d'accès> Extrait la totalité du Dell Update Package vers le dossier défini sous <chemin d'accès>. REMARQUE : l'option /s est requise /drivers=<chemin Extrait uniquement les composants de pilote du Dell Update Package vers le dossier défini sous d'accès> <chemin d'accès>. REMARQUE : l'option /s est requise /driveronly Installe ou met à jour uniquement les composants de pilote du Dell Update Package. REMARQUE : l'option /s est requise /passthrough (Avancé) Envoie directement le texte suivant l'option /passthrough vers le logiciel d'installation fournisseur du Dell Update Package. Ce mode supprime toutes les interfaces utilisateur graphiques éventuellement fournies, sans inclure nécessairement celles du logiciel fournisseur. /capabilities (Avancé) Renvoie une description codée des fonctionnalités du Dell Update Package prises en charge. REMARQUE : l'option /s est requise /l=<chemin d'accès> Définit un chemin d'accès spécifique pour le fichier journal de Update Package. /f Remplace une légère erreur de dépendance renvoyée par le Update Package. REMARQUE : cette option NE peut PAS être utilisée simultanément avec les options /passthrough ou /capabilities REMARQUE : l'option /s est requise et cette option NE peut PAS être utilisée simultanément avec les options /passthrough ou /capabilities Exemples Mise à jour du système en mode silencieux Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s Nouvelle installation en mode silencieux Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /i Extractions des contenus de la mise à jour vers le dossier C:\mydir Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /e=C:\mydir Extraction des composants de pilote vers le dossier C:\mydir Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /drivers=C:\mydir Installation des composants de pilote uniquement Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /driveronly Remplacement de l'emplacement du fichier journal par défaut par C:\mon chemin d'accès avec espaces\log.txt Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /l="C:\mon chemin d'accès avec espaces\log.txt" Mise à jour forcée, même en cas d'erreurs de qualification « mineures » Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /f Installation du pilote de base et d'Intel® PROSet sur Nano Server Installation du pilote REMARQUE :l'installation des pilotes nécessite des droits d'administrateur sur le système d'exploitation. Pour installer les pilotes sur Microsoft* Windows Server* Nano Server : 1. Déterminez les pilotes à installer sur le système d'exploitation. 2. Créez un répertoire à partir duquel l'installation des pilotes sera effectuée. Exemple : C:\Nano\Drivers Utilisez la commande "<nom de fichier DUP Dell>.exe /s /drivers=<chemin>" pour extraire les fichiers de pilote dans le répertoire voulu. 3. Copiez les pilotes appropriés pour le système d'exploitation et le matériel. Par exemple, "copy d:\<chemin>\production\W2K16-x64\40G_X710\*.* c:\Nano\Drivers /y" 4. Si vous utilisez le module New-NanoServerImage, utilisez le chemin d’accès ci-dessus pour le paramètre -DriversPath. Exemple : « New-NanoServerImage ...-DriversPath C:\Nano\Drivers » 5. Si vous utilisez également DISM.exe, utilisez le chemin d’accès ci-dessus pour le paramètre /AddDriver. Exemple : « DISM .../Add-Driver C:\Nano\Drivers » Installation d'Intel® PROSet Pour installer Intel® PROSet sur Microsoft* Windows Server* Nano Server : 1. Utilisez la cmdlet New-NanoServerImage pour ajouter le fichier PROSetNS.zip à partir du répertoire .\Disk\APPS\PROSETDX\NanoServer à votre paramètre -CopyPath. 2. Ajoutez le fichier NanoSetup.ps1 (situé dans le même répertoire) à votre paramètre -SetupCompleteCommands. Par exemple : New-NanoServerImage ... -CopyPath "<CHEMIN>\PROSetNS.zip", "<CHEMIN>\NanoSetup.ps1" ` -SetupCompleteCommands "PowerShell ""C:\NanoSetup.ps1""" Suivez le lien ci-dessous pour de plus amples informations sur le déploiement d'une image Nano Server et l'utilisation de la cmdlet : https://msdn.microsoft.com/en-us/library/mt126167.aspx Installation par ligne de commande pour les pilotes de base et Intel® PROSet Installation du pilote L'utilitaire d'installation de pilote Setupx64.exe permet une installation sans assistance des pilotes à partir d'une ligne de commande. REMARQUES : l Intel PROSet ne peut pas être installé avec msiexec.exe. Vous devez utiliser Setupx64.exe. Setupx64.exe peut être utilisé pour installer le pilote de base, le pilote intermédiaire et toutes les applications de gestion pour les périphériques pris en charge. Setupx64.exe Options de ligne de commande La définition des paramètres sur la ligne de commande permet d’activer et de désactiver les applications de gestion. Si un paramètre n’est pas spécifié, seuls les composants existants sont mis à jour. Setupx64.exe prend en charge les paramètres de ligne de commande suivants : Paramètre Définition BD Pilote de base "0", ne pas installer le pilote de base. "1", installer le pilote de base. ANS Services réseaux avancés "0", ne pas installer ANS. Si ANS est déjà installé, il sera désinstallé. "1", installer ANS. La propriété ANS nécessite DMIX=1. REMARQUE : si le paramètre ANS est défini sur ANS=1, Intel® PROSet et ANS seront tous les deux installés. DMIX PROSet pour le Gestionnaire de périphériques Windows "0", ne pas installer la fonctionnalité Intel® PROSet. Si la fonctionnalité Intel® PROSet est déjà installée, elle sera désinstallée. "1" - Installer la fonctionnalité Intel® PROSet. La propriété DMIX nécessite BD=1. REMARQUE : si DMIX=0, ANS ne sera pas installé. Si DMIX=0 et Intel® PROSet, ANS et FCoE sont déjà installés, Intel® PROSet, ANS et FCoE seront désinstallés. FCOE Fibre Channel over Ethernet "0", ne pas installer FCoE. Si FCoE est déjà installé, il sera désinstallé. "1", installer FCoE. La propriété FCoE nécessite DMIX=1. REMARQUE : même si le paramètre FCoE=1 est transmis, FCoE ne sera pas installé si le système d’exploitation et les adaptateurs installés ne prennent pas en charge FCoE. iSCSI iSCSI "0", ne pas installer iSCSI. Si iSCSI est déjà installé, il sera désinstallé. "1", installer FCoE. La propriété iSCSI nécessite DMIX=1. LOG [nom du fichier journal] LOG vous permet d’entrer le nom de fichier du fichier journal de l’installation. Le nom par défaut est C:\UmbInst.log. XML [nom du fichier XML] XML vous permet d’entrer le nom de fichier de sortie XML. -a Extraire les composants nécessaires à l'installation du pilote de base sur C:\Program Files\Intel\Drivers. Le répertoire vers lequel ces fichiers seront extraits peut être modifié, à moins que le mode silencieux (/qn) ne soit spécifié. Si ce paramètre est spécifié, le programme d'installation se ferme une fois que le pilote de base est extrait. Tout autre paramètre sera ignoré. -f Force une rétrogradation des composants dont l’installation est en cours. REMARQUE : si la version installée est plus récente que la version actuelle, ce paramètre doit être défini. -v Affiche la version du paquetage d’installation actuel. Paramètre Définition /q[r|n] /q --- options d’installation en mode silencieux /l[i|w|e|a] r Installation discrète de l’interface graphique utilisateur (affiche les messages d’avertissement critiques uniquement) n Installation en mode silencieux /l --- option de fichier journal pour l'installation PROSet. Les options d’enregistrement sont les suivantes : -u i Enregistrement des messages d’état. w Enregistrement des avertissements non fatals. e Enregistrement des messages d’erreur. a Enregistrement du démarrage de toutes les actions. Désinstaller les pilotes. REMARQUES : l Vous devez inclure un espace entre les paramètres. l Si vous spécifiez un chemin d’accès pour le fichier journal, ce chemin doit exister. Si vous ne spécifiez pas un chemin d’accès complet, le journal d'installation sera créé dans le répertoire actuel. l Aucune valeur par défaut n'a besoin d'être spécifiée. Pour installer les pilotes de base, Intel PROSet et les Services réseau avancés (ANS), les exemples suivants sont équivalents : Setupx64.exe l l l l Setupx64.exe BD=1 DMIX=1 ANS=1 La propriété ANS ne doit être définie que sur ANS=1 si DMIX=1. Si DMIX=0 et ANS=1, alors ANS=1 est ignoré et seul le pilote de base est installé. Même si le paramètre FCOE=1 est transmis, FCoE utilisant DCB ne sera pas installé si le système d'exploitation et les cartes installés ne le prennent pas en charge. Si FORCE=1 est également transmis, FCoE sera installé si le système d'exploitation le prend en charge. Même si le paramètre iSCSI=1 est transmis, iSCSI utilisant DCB ne sera pas installé si le système d'exploitation et les cartes installés ne le prennent pas en charge. Si FORCE=1 est également transmis, iSCSI sera installé si le système d'exploitation le prend en charge. Les propriétés publiques ne sont pas sensibles à la casse. Aucune espace n'est autorisée entre les caractères. Par exemple : Setupx64.exe /qn DMIX=1 Toute espace dans « DMIX=1 » invalide le paramètre. Exemples d’installation à partir d’une ligne de commande Supposons que Setupx64.exe se trouve dans le répertoire racine du CD, D:\. 1. Comment installer le pilote de base : D:\Setupx64.exe DMIX=0 ANS=0 2. Installation du pilote de base avec l'option de journalisation : D:\Setupx64.exe LOG=C:\installBD.log DMIX=0 ANS=0 3. Installation d'Intel® PROSet et ANS en mode silencieux : D:\Setupx64.exe DMIX=1 ANS=1 /qn 4. Installation d'Intel® PROSet sans ANS en mode silencieux : D:\Setupx64.exe DMIX=1 ANS=0 /qn 5. Installation des composants lorsque ANS est désélectionné : D:\Setupx64.exe DMIX=1 ANS=0 /qn /liew C:\install.log L'option de journalisation /liew fournit un fichier journal pour l'installation d'Intel PROSet. REMARQUE : pour installer la prise en charge des associations et des réseaux locaux virtuels sur un système sur lequel les pilotes de base des cartes et Intel PROSet pour le Gestionnaire de périphériques Windows sont installés, entrez la ligne de commande D:\Setupx64.exe ANS=1. Windows Server Core Outre la méthode ci-dessus, sur Windows Server Core, il est également possible d'installer le pilote de base en utilisant l'utilitaire Plug and Play, PnPUtil.exe. Rétrogradation des pilotes Vous pouvez utiliser les options /s et /f pour rétrograder vos pilotes. Par exemple, si les pilotes 17.0.0 sont chargés que vous souhaitez les rétrograder vers 16.5.0, tapez ce qui suit : Network_Driver_XXXXX_WN64_16.5.0_A00.exe /s /f Utilisation d'Intel® PROSet pour le Gestionnaire de périphériques Windows* Intel® PROSet pour le Gestionnaire de périphériques Windows* est une extension du Gestionnaire de périphériques Windows. Lorsque vous installez le logiciel Intel® PROSet, des onglets supplémentaires sont ajoutés automatiquement au Gestionnaire de périphériques. REMARQUES : l Vous devez disposer de droits d’administrateur pour installer ou utiliser Intel® PROSet pour le Gestionnaire de périphériques Windows. l Intel® PROSet pour le Gestionnaire de périphériques Windows et le module IntelNetCmdlets pour Windows PowerShell* nécessitent le dernier package de pilote et le package logiciel de vos appareils Ethernet Intel®. Veuillez télécharger le package de pilote et le package logiciel le plus récent pour votre système d'exploitation sur le site www.intel.com. l Il se peut que sur les systèmes d'exploitation récents, le matériel plus ancien ne prenne pas en charge Intel® PROSet pour le Gestionnaire de périphériques Windows ni le module IntelNetCmdlets pour Windows PowerShell. Dans ce cas, les onglets Intel®PROSet peuvent ne pas s'afficher dans l'interface utilisateur du Gestionnaire de périphériques Windows, et le module IntelNetCmdlets peut afficher un message d'erreur indiquant qu'aucun pilote Intel® n'est installé sur l'appareil. Modification des paramètres d’Intel® PROSet sous Windows Server Core Vous pouvez utiliser le module Intel® NetCmdlets pour Microsoft* Windows PowerShell* pour modifier la plupart des paramètres d'Intel® PROSet sous Windows Server Core. Veuillez consulter le fichier d'aide aboutIntelNetCmdlets.hlp.txt. Pour configurer le vidage sur incident iSCSI, utilisez le module Intel® NetCmdlets pour Microsoft* Windows PowerShell* et consultez le fichier d'aide aboutIntelNetCmdlets.help.txt. REMARQUE : La prise en charge des utilitaires de ligne de commande Intel® PROSet (prosetcl.exe et crashdmp.exe) a été supprimée et n'est plus installée. Cette fonctionnalité a été remplacée par les Netcmdlets Intel pour Microsoft* Windows PowerShell*. Veuillez procéder à la transition de vos scripts et processus, de sorte qu'ils utilisent les Netcmdlets Intel pour Microsoft Windows PowerShell. Onglet Vitesse de liaison L’onglet Vitesse de liaison vous permet de modifier la vitesse et le mode duplex de la carte, d’exécuter des diagnostics et d’utiliser la fonctionnalité d’identification de carte. Configuration de la vitesse et du mode duplex Présentation Les paramètres de vitesse de liaison et de mode duplex permettent de choisir la manière dont la carte envoie et reçoit des paquets de données dans le réseau. En mode par défaut, une carte réseau Intel utilisant des connexions en cuivre tente de négocier automatiquement avec son partenaire de liaison pour déterminer la meilleure configuration. Si aucune liaison n’est établie avec le partenaire de liaison en utilisant la négociation automatique, vous devez configurer manuellement la carte et le partenaire de liaison de manière identique pour pouvoir établir la liaison et transmettre des paquets. Cette opération ne doit être exécutée que pour établir une liaison avec un commutateur ancien qui ne prend pas en charge la négociation automatique ou utilisant une vitesse ou un mode duplex particuliers. La négociation automatique est désactivée en sélectionnant une vitesse distincte et le mode duplex dans les propriétés de la carte réseau. REMARQUES : l Lorsqu'une carte fonctionne en mode NPar, les paramètres de vitesse sont limités à la partition racine de chaque port. l les cartes à fibres optiques fonctionnent uniquement en Full duplex et à leur vitesse native. Les paramètres disponibles lorsque la négociation automatique est désactivée dépendent de votre périphérique. Les vitesses ne sont pas toutes disponibles sur tous les périphériques. La configuration du partenaire de liaison doit correspondre à celle que vous avez choisie. REMARQUES : l Bien que la feuille de paramètres de certaines cartes réseau (paramètres des propriétés du pilote) donne comme option 10 Mbit/s et 100 Mbit/s en Half duplex ou Full duplex, l'utilisation de ces paramètres n'est pas recommandée. l Seul un administrateur réseau expérimenté devrait forcer manuellement la vitesse et le mode duplex. l Vous ne pouvez pas modifier la vitesse et le mode duplex des cartes Intel utilisant un câble à fibre optique. l L'onglet Vitesse de liaison peut afficher une icône d'information bleue avec le message contextuel "Ce périphérique n'est pas lié à sa capacité de vitesse maximale".Dans ce cas, si le périphérique est configuré pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du partenaire de liaison du périphérique à la vitesse maximale du périphérique. Si le périphérique n’est pas configuré pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du périphérique manuellement en vous assurant que le partenaire de liaison est réglé sur la même vitesse. Les cartes réseau Intel 10 Gigabit prenant en charge la vitesse 1 gigabit permettent de configurer le paramètre de vitesse. Si cette option n’est pas présente, votre carte fonctionne uniquement à sa vitesse native. Si la carte ne parvient pas à établir la liaison avec le partenaire de liaison Gigabit en utilisant la négociation automatique, configurez la carte sur 1 Gbit/s Duplex intégral. Les cartes réseau 10 Gigabit Intel® à fibre optique et les appareils SFP à fixation directe ne fonctionnent qu'en Duplex intégral et uniquement à leur vitesse native. Les modules SFP+ Fiber 10 Gigabit multi-vitesse prennent en charge le mode Duplex intégral à 10 Gbit/s et à 1 Gbit/s. La négociation automatique et l'essai automatique ne sont pas pris en charge sur les périphériques reposant sur les contrôleurs Ethernet Intel® Connection X552 et Ethernet Intel® Connection X553. Configuration manuelle des paramètres du mode duplex et de la vitesse La configuration est propre au pilote de votre système d'exploitation. Pour définir un mode Vitesse de liaison et duplex, reportez-vous à la section ci-dessous correspondant à votre système d’exploitation. ATTENTION : les paramètres du commutateur doivent toujours concorder avec ceux de la carte. La carte sera sensiblement moins performante ou ne fonctionnera pas correctement si ses paramètres diffèrent de ceux du commutateur. Windows La négociation automatique est activée par défaut. Ne modifiez ce paramètre pour correspondre à la vitesse et au mode duplex de votre partenaire de liaison qu'en cas de problèmes de connexion. 1. Double-cliquez sur la carte réseau que vous voulez configurer dans le Gestionnaire de périphériques Windows. 2. Sous l’onglet Vitesse de liaison, sélectionnez une vitesse et un mode duplex appropriés dans le menu déroulant Vitesse et duplex. 3. Cliquez sur OK. Des instructions plus spécifiques sont disponibles dans l’Aide Intel® PROSet. Linux Reportez-vous à la rubrique Pilote Linux* pour famille de cartes réseau Intel® Gigabit pour des informations sur la configuration de la vitesse et du mode duplex sur les systèmes Linux. Onglet Avancé Les paramètres répertoriés sous l’onglet Advanced (Avancé) d’Intel® PROSet pour le Gestionnaire de périphériques Windows vous permettent de personnaliser la manière dont la carte prend en charge le repérage des paquets QS, les paquets étendus, le délestage, ainsi que d’autres fonctionnalités. Il est possible que certaines des fonctionnalités cidessous ne soient pas disponibles. Cela dépend du système d’exploitation utilisé, des cartes spécifiques installées et de la plate-forme spécifique utilisée. Espacement intertrame dynamique Permet de compenser les collisions excessives des paquets Ethernet sur le réseau. Le paramètre par défaut est le plus efficace pour la plupart des ordinateurs et réseaux. Lorsque cette fonctionnalité est activée, la carte réseau s’adapte dynamiquement aux conditions de trafic sur le réseau. En de rares occasions cependant, il est possible d’obtenir de meilleures performances en désactivant cette fonctionnalité. Ce paramètre force un vide statique entre les paquets. Valeur par défaut Valeurs possibles Désactivé l l Activé Désactivé Coalition d’accès direct à la mémoire (DMA) Le DMA (Direct Memory Access) permet au périphérique de réseau de déplacer directement les données de paquet vers la mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles aléatoires d’arrivée de paquets ne permettent pas au système d’entrer en mode faible consommation. La coalition DMA permet à la carte réseau de collecter des paquets avant de démarrer un événement DMA. Cela peut augmenter la latence du réseau, mais augmenter aussi les chances de baisse de consommation du système. Les cartes et périphériques de réseau basés sur le contrôleur Ethernet Intel® I350 (et les versions ultérieures) prennent en charge la coalition DMA. Des valeurs de coalition DMA élevées permettent d’économiser plus d’énergie, mais peuvent augmenter la latence du réseau du système. Si la coalition DMA est activée, le taux de gestion des interruptions doit aussi être défini sur ’Minimal’ (minimum). Cela permet de limiter l’impact de latence imposé par la coalition DMA et d’améliorer le rendement du réseau. La coalition DMA doit être activée sur tous les ports actifs dans le système. Si l’activation ne touche que certains ports du système, l’économie d’énergie ne sera pas évidente. Il existe aussi plusieurs BIOS, plate-forme et paramètres d’application qui peuvent influencer les économies potentielles d’énergie. La meilleure configuration de votre plate-forme est expliquée dans un document disponible sur le site Web Intel. Mode de correction des erreurs de transfert (FEC) Permet de configurer le mode de correction des erreurs de transfert (Forward Error Correction, FEC). Le mode FEC améliore la stabilité de la liaison mais augmente la latence. De nombreux câbles optiques, câbles à branchement direct et canaux de type fonds de panier de haute qualité offrent une liaison stable sans mode FEC. Le pilote vous permet de définir les modes FEC suivants : l FEC auto - Définit le mode FEC en fonction des capacités du câble branché. l CL108 RS-FEC - Sélectionne uniquement les capacités et fonctionnalités de demande RS-FEC. l CL74 FC-FEC/BASE-R - Sélectionne uniquement les capacités et fonctionnalités de demande BASE-R. l Pas de FEC - Désactive le mode FEC. REMARQUE : les périphériques ne peuvent tirer parti de cette fonctionnalité que si le mode FEC est activé sur les partenaires de liaison. Contrôle de flux Permet aux cartes de réguler le trafic d’une manière plus efficace. Les cartes génèrent des trames de contrôle de flux lorsque leurs files de réception atteignent une limite prédéterminée. La génération des trames de contrôle de flux indique à l’émetteur de ralentir les transmissions. Les cartes répondent aux trames de contrôle de flux en interrompant la transmission des paquets pour un délai spécifié dans la trame de contrôle de flux. En permettant aux cartes d’ajuster la transmission des paquets, le contrôle de flux empêche la perte de paquets. REMARQUE S : l Pour que les cartes puissent bénéficier de cette fonctionnalité, les partenaires de liaison doivent prendre en charge les trames de contrôle de flux. l Quand une carte réseau fonctionne en mode NPar, le contrôle de flux est limité à la partition racine de chaque port. Valeur par défaut Valeurs possibles RX et TX activées l l l l Désactivé RX activée TX activée RX et TX activées Mode Maître-Esclave Gigabit Détermine si la carte ou le partenaire de liaison est désigné comme le maître. L’autre périphérique est désigné comme l’esclave. Par défaut, la norme IEEE 802.3ab définie comment sont traités les conflits. Les périphériques multiports tels que les commutateurs sont affectés d’un niveau de priorité plus élevé que les périphériques à port unique et sont désignés comme maîtres. Si les deux périphériques sont multiports, c’est celui qui possède le nombre de bits le plus élevé qui est désigné comme le maître. Le paramètre par défaut est appelé "Matériel par défaut". REMARQUE : dans la plupart des cas, il est recommandé de conserver la valeur par défaut de cette fonctionnalité. La définition de ce paramètre sur "Forcer le mode Maître" ou "Forcer le mode Esclave" outrepasse la valeur Matériel par défaut. Valeur par défaut Valeurs possibles Détection automatique l l l Forcer le mode Maître Forcer le mode Esclave Détection automatique REMARQUE : le mode Maître peut être forcé sur certains périphériques multiports. Si la carte est connectée à un tel périphérique et qu’elle est configurée pour forcer le mode Maître, la liaison ne sera pas établie. Taux de gestion des interruptions Définit l’ITR (Interrupt Throttle Rate). Ce paramètre détermine le taux auquel les interruptions de transmission et de réception sont générées. Lorsqu’un événement, tel que la réception de paquets, a lieu, la carte génère des interruptions. L’interruption interrompt le processeur et toute application exécutée à ce moment demande au pilote de traiter le paquet. Aux vitesses de liaison rapides, les interruptions sont plus nombreuses et les taux du processeur augmentent également. Cela entraîne une diminution des performances du système. Lorsque vous sélectionnez un paramètre ITR plus élevé, le taux d’interruption est diminué, ce qui entraîne une amélioration des performances du processeur. REMARQUE : un taux ITR élevé signifie également une latence plus importante du pilote lors du traitement des paquets. Si la carte traite de nombreux petits paquets, il est préférable de diminuer l’ITR afin que le pilote puisse répondre plus efficacement aux paquets entrant et sortant. La modification de ce paramètre peut améliorer le débit sur certains réseaux et dans certaines configurations de système. Cependant, le paramètre par défaut est optimal pour les réseaux et configurations de système les plus courants. Ne modifiez pas ce paramètre sans avoir vérifié que les modifications envisagées affecteront de façon positive les performances du réseau. Valeur par défaut Valeurs possibles Adaptatif l l l l l l l Adaptatif Extrême Haut Moyen Faible Minimal Désactivé Délester somme de contrôle IPv4 Ceci permet à la carte de calculer la somme de contrôle IPv4 des paquets entrants et sortants. Cette fonctionnalité améliore les performances de transmission IPv4, et réduit le taux d’utilisation du processeur. Lorsque le délestage est désactivé, le système d’exploitation vérifie la somme de contrôle IPv4. Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation. Valeur par défaut Valeurs possibles RX et TX activées l l l l Désactivé RX activée TX activée RX et TX activées Trames Jumbo Active ou désactive la fonctionnalité Paquets étendus. La taille normale des trames Ethernet est de 1514 octets, alors que les paquets étendus sont plus volumineux. Les paquets étendus peuvent augmenter le débit et limiter l’utilisation du processeur. Toutefois, la latence peut augmenter. Activez la fonctionnalité Paquets étendus uniquement si TOUS les périphériques du réseau la prennent en charge et sont configurés pour utiliser une taille de trame équivalente. Lors de la configuration des paquets étendus sur d’autres périphériques réseau, souvenez-vous que la taille des paquets étendus est calculée de façon différente en fonction du périphérique réseau. Certains périphériques incluent la taille de trame dans les informations d’en-tête et d’autres non. Les cartes Intel n’incluent pas la taille des trames dans les informations d’en-tête. Les paquets étendus peuvent être implémentés simultanément avec les réseaux locaux virtuels et l’agrégation de cartes. Si une association comporte une ou plusieurs cartes d’un autre fabricant qu’Intel, elle ne prend pas en charge les paquets étendus. Avant d’ajouter à l’association une carte d’un autre fabricant qu’Intel, veillez à désactiver les paquets étendus sur toutes les cartes d’un autre fabricant qu’Intel, à l’aide du logiciel fourni avec la carte en question. Restrictions l l l l Seuls les protocoles IP (TCP, UDP) sont pris en charge. Les trames Jumbo nécessitent des commutateurs compatibles avec le transfert de trames Jumbo. Pour de plus amples informations, contactez le fabricant du commutateur. Si des trames Ethernet de taille standard (64 à 1518 octets) sont utilisées, il n’y a aucun avantage à configurer des trames Jumbo. Le paramètre des paquets étendus sur le commutateur doit être supérieur d’un minimum de 8 octets à celui du paramètre de carte des systèmes d’exploitation Windows, et d’un minimum de 22 octets supérieur pour tous les autres systèmes d’exploitation. Valeur par défaut Désactivé Valeurs possibles Désactivé (1514), 4088 ou 9014 octets. (Définissez le commutateur sur 4 octets supplémentaires pour le CRC, plus 4 octets supplémentaires en cas d’utilisation de réseaux VLAN.) REMARQUES : l Les paquets étendus sont pris en charge uniquement à 10 Gbit/s et à 1 Gbit/s. L’utilisation de ces paquets à 10 ou 100 Mbit/s pourrait résulter en une diminution des performances ou une perte de liaison. l Le matériel réseau bout en bout doit prendre en charge cette capacité, faute de quoi des paquets seront perdus. l Certaines cartes Intel prenant en charge les paquets étendus ont une taille de trame limitée à 9 238 octets, avec une taille MTU correspondante de 9 216 octets. Délester envoi important (IPv4 et IPv6) Configure la carte pour qu’elle déleste les tâches de segmentation des messages TCP en trames Ethernet valides. La taille de trame maximum pour le délestage d’envoi important est de 64 000 octets. Cette fonctionnalité peut améliorer les performances de transmission car le matériel de la carte est capable de segmenter les données beaucoup plus rapidement que le logiciel du système d’exploitation. De plus, la carte utilise moins de ressources processeur. Valeur par défaut Activé Valeurs possibles l l Activé Désactivé Adresse administrée localement Remplace l’adresse MAC initiale par une adresse MAC affectée par l’utilisateur. Pour entrer une nouvelle adresse de réseau, tapez un nombre hexadécimal de 12 caractères dans cette zone. Valeur par défaut Aucune Valeurs possibles 0000 0000 0001 - FFFF FFFF FFFD Exceptions : l Ne pas utiliser une adresse multicast (Bit le moins significatif de l’octet haut = 1). Par exemple, dans l’adresse 0Y123456789A, "Y" ne peut être un nombre impair. (Y doit être 0, 2, 4, 6, 8, A, C ou E.) l Ne pas utiliser que des zéros ou que des F. Si vous n’entrez aucune adresse, l’adresse réseau initiale de la carte est utilisée. Par exemple, Multidiffusion : 0123 4567 8999 Diffusion : FFFF FFFF FFFF Unicast (légal) : 0070 4567 8999 REMARQUE : dans une association, Intel® PROSet utilise soit : l l’adresse MAC permanente de la carte principale si aucune adresse administrée localement n’est configurée pour l’association, ou l l’adresse administrée localement de l’association, si elle est configurée. Intel® PROSet n’utilise pas l’adresse administrée localement d’une carte si cette carte est la carte principale de l’association, ou si l’association dispose d’une telle adresse. Enregistrement d’événement d’état de liaison Ce paramètre est utilisé pour activer/désactiver l’enregistrement des changements d’état de liaison. S’il est activé, un événement de changement au niveau de l’établissement ou de l’interruption d’une liaison génère un message qui s’affiche dans le journal des événements du système. Ce message contient la vitesse et le duplex de la liaison. Les administrateurs peuvent visualiser le message d’événement depuis le journal des événements du système. Les événements suivants sont enregistrés : l La liaison est active. l La liaison est inactive. l Discordance de duplex. l Protocole Spanning Tree détecté. Valeur par défaut Activé Valeurs possibles Activé, Désactivé Interruptions à faible latence Les interruptions à faible latence (LLI) permettent au périphérique réseau de contourner le schéma de modération des interruptions configuré en fonction du type de données reçu. Il configure quels paquets TCP entrants déclenchent une interruption immédiate, ce qui permet au système de traiter le paquet plus rapidement. La réduction de la latence des données permet à certaines applications d’accéder plus rapidement aux données du réseau. REMARQUE : lorsque les interruptions à faible latence sont activées, l’utilisation du processeur peut s’accroître. Les interruptions à faible latence peuvent être utilisées pour les paquets de données dont l’en-tête contient un indicateur TCP PSH ou pour des ports TCP spécifiés. l Paquets avec indicateur TCP PSH - Tout paquet entrant contenant l’indicateur TCP PSH déclenche une interruption immédiate. L’indicateur PSH est défini par le périphérique d’envoi. l Ports TCP - Chaque paquet reçu sur les ports spécifiés déclenche une interruption immédiate. Huit ports peuvent être spécifiés. Valeur par défaut Valeurs possibles Désactivé l l l Désactivé Basé sur des indicateurs PSH Basé sur des ports Virtualisation réseau à l'aide de l'Encapsulation générique de routage (Generic Routing Encapsulation, NVGRE) La virtualisation réseau à l'aide de l'Encapsulation générique de routage (Generic Routing Encapsulation, NVGRE) augmente l'efficacité du routage du trafic réseau dans un environnement virtualisé ou de Cloud. Certaines cartes réseau Ethernet Intel® effectuent la virtualisation réseau en utilisant le traitement Encapsulation générique de routage (NVGRE), la délestant ainsi du système d'exploitation. Cette fonctionnalité réduit le taux d'utilisation de l'UC. REMARQUE : lorsqu'un port est en mode NPar, NVGRE (le paramètre Délestage de tâche encapsulée) est disponible uniquement sur la première partition du port. Options de performances Profil de performance Les profils de performances sont pris en charge sur les cartes réseau Intel® 10GbE. Ils permettent d’optimiser rapidement les performances de votre carte réseau Ethernet Intel®. Le choix d’un profil de performances ajuste automatiquement certains paramètres avancés en les réglant de manière optimale pour l’application sélectionnée. Par exemple, un serveur standard n’a de performances optimales qu’avec deux files d’attente RSS (Receive-Side Scaling), alors qu’un serveur Web aura besoin de davantage de files d’attente pour une meilleure évolutivité. Pour pouvoir utiliser les profils de performances, vous devez installer Intel® PROSet pour le Gestionnaire de périphériques Windows. La sélection des profils se fait dans l’onglet Avancé de la page de propriétés de la carte. Profils l l l l l l Serveur standard – Ce profil est optimisé pour les serveurs typiques. Serveur Web – Ce profil est optimisé pour les serveurs Web IIS et HTTP. Serveur de virtualisation – Ce profil est optimisé pour l’environnement de virtualisation Hyper-V de Microsoft. Serveur de stockage – Ce profil est optimisé pour la performance Fibre Channel over Ethernet ou iSCSI over DCB. La sélection de ce profil désactivera SR-IOV et VMQ. Stockage + virtualisation – Ce profil est optimisé pour une combinaison d’exigences de stockage et de virtualisation. Faible latence – Ce profil est optimisé pour minimiser la latence du réseau. REMARQUES : l Toutes les options ne sont pas disponibles pour toutes les combinaisons de carte/système d’exploitation.128 à 4096, l Si vous avez sélectionné le profil Serveur de virtualisation ou le profil Stockage + virtualisation et que vous désinstallez le rôle Hyper-V, vous devez sélectionner un nouveau profil. Remarques concernant les associations Lorsque vous créez une association dont tous les membres prennent en charge les profils de performances, au moment de créer l’association, il vous sera demandé quel profil utiliser. Le profil sera synchronisé dans l’ensemble de l’association. S’il n’y a pas de profil pris en charge par la totalité des membres de l’association, la seule possibilité sera d’utiliser les paramètres actuels. L’association sera créée normalement. L’ajout d’une carte réseau à une association existante se passe de manière très semblable. Si vous ajoutez à une association une carte qui prend en charge les profils de performances avec une carte qui ne les prend pas en charge, le profil sur la carte qui les prend en charge sera défini avec les paramètres personnalisés et l’association sera créée normalement. Balisage de la priorité et des VLAN Permet à la carte de décharger l’insertion et la suppression de balises de priorité et de VLAN pour l’émission et la réception. Valeur par défaut Priorité et VLAN activés Valeurs possibles l l l l Priorité et VLAN désactivés Priorité activée VLAN activé Priorité et VLAN activés Qualité de service La fonction QoS permet à la carte d'envoyer et de recevoir des trames balisées IEEE 802.3ac. Les trames balisées 802.3ac comprennent les trames balisées 802.1p prioritaires et 802.1Q VLAN. Pour mettre en œuvre la fonctionnalité QS, la carte doit être connectée à un commutateur prenant en charge QS et configuré en conséquence. Les trames balisées prioritaires permettent aux applications traitant des événements en temps réel, d’optimiser l’utilisation de la largeur de bande du réseau. Les paquets à priorité élevée sont traités avant les paquets à faible priorité. Pour mettre en œuvre la fonctionnalité QS, la carte doit être connectée à un commutateur prenant en charge la qualité de service 802.1p et configuré en conséquence. Le balisage QS peut être activé ou désactivé dans l’onglet Avancé d’Intel® PROSet pour le Gestionnaire de périphériques Windows. Une fois QS activé dans Intel® PROSet, vous pouvez spécifier des degrés de priorité en fonction du balisage de trames IEEE 802.1p/802.1Q. Tampons de réception Définit le nombre de tampons de réception (segments de données). Ceux-ci sont alloués dans la mémoire hôte et utilisés pour stocker les paquets reçus. Chaque paquet reçu nécessite au moins un descripteur de réception et chaque descripteur utilise 2 Ko de mémoire. Vous pouvez augmenter le nombre de tampons de réception si vous remarquez une diminution considérable des performances relatives au trafic de réception. Si vous n’avez pas de problème relatif aux performances de réception, utilisez la valeur par défaut de la carte. Valeur par défaut 512, pour les cartes réseau 10 Gigabit pour serveurs. 256, pour toutes les autres cartes en fonction des fonctionnalités sélectionnées. Valeurs possibles 128 à 4 096, par intervalles de 64, pour les cartes réseau 10 Gigabit pour serveurs. 80 à 2048, par intervalles de 8, pour toutes les autres cartes. Valeur recommandée Carte associée : 256 Si IPSec et/ou des fonctionnalités multiples sont utilisées : 352 Receive Side Scaling Lorsque la mise à l’échelle de l’extrémité réception (RSS) est activée, tout le traitement des données en réception sur une connexion TCP donnée sont partagées par plusieurs processeurs ou cœurs de processeur. Sans RSS, tout le traitement est effectué par un processeur unique, d’où une utilisation moins efficace de la mémoire cache du système. RSS peut être activé pour un LAN ou pour FCoE. Dans le premier cas, l’on parle de LAN RSS. Dans le second, de FCoE RSS. LAN RSS LAN RSS s’applique à une connexion TCP particulière. REMARQUE : ce paramètre est sans effet si le système ne comporte d’un processeur. Configuration de LAN RSS RSS est activé dans l’onglet Advanced (Avancé) de la page de propriétés de la carte. Si votre carte ne prend pas en charge RSS, ou si SNP ou SP2 n’est pas installé, le paramètre RSS n’est pas affiché. Si RSS est pris en charge dans votre environnement système, les informations suivantes s’afficheront : l Nœud du port NUMA. Il s’agit du numéro de nœud NUMA d’un périphérique. l CPU RSS de départ. Ce paramètre permet de déterminer le processeur RSS préférentiel de départ. Vous le modifierez si le processeur actuel est affecté à d’autres processus. La plage du paramètre va de 0 au nombre de processeurs logiques - 1. l Nombre max de processeurs RSS. Ce paramètre permet de fixer le nombre maximum de processeurs attribués à une carte et s’utilise principalement en environnement Hyper-V. En diminuant la valeur du paramètre dans cet environnement, le nombre total d’interruptions diminue, ce qui réduit à son tour le taux d’utilisation des processeurs. La valeur par défaut est 8 pour les cartes Gigabit et 16 pour les cartes 10 Gigabit. l Nœud NUMA préférentiel. Ce paramètre permet de choisir le nœud NUMA (Non-Uniform Memory Access) à utiliser pour les allocations mémoires effectué par la carte réseau. Pour RSS, le système tente par ailleurs d’utiliser d’abord les processeurs du nœud NUMA préférentiel. Sur les plates-formes NUMA, la latence des accès mémoire est fonction de l’emplacement correspondant. Le fait d’allouer la mémoire à partir du nœud le plus proche contribue à améliorer les performances. Le gestionnaire de tâches de Windows affiche l’identifiant de nœud NUM pour chaque processeur. REMARQUES : l Ces considération ne touchent que les systèmes NUMA ; Ils n’ont aucune incidence sur les systèmes non NUMA. l Le choix d'une valeur supérieure au nombre de nœud NUMA présents sur le système sélectionne le nœud NUMA le plus proche du périphérique. l Files d’attente Receive Side Scaling. Ce paramètre configure le nombre de files d’attente RSS qui détermine l’espace de mémoire tampon des transactions entre la carte réseau et le ou les processeurs. Valeur par défaut 2 files d’attente pour les cartes Intel® 10 Gigabit pour serveurs Valeurs possibles l l l l 1 file d’attente est utilisée en cas de faible utilisation du processeur. 2 files d’attente sont utilisées si un bon débit et une faible utilisation du processeur sont nécessaires. 4 files d’attente sont utilisées pour les applications qui exigent un débit maximum et de nombreuses transactions par seconde. 8 et 16 files d’attente sont prises en charge sur les cartes Intel® 82598 et 82599. REMARQUES : l Les 8 et 16 files d’attente sont disponibles uniquement lorsque PROSet pour le Gestionnaire de périphériques Windows est installé. Si PROSet n’est pas installé, seulement 4 files d’attente sont disponibles. l L’utilisation de 8 files d’attente ou plus nécessite le redémarrage du système. REMARQUE : certaines cartes ne prennent pas en charge tous les paramètres. LAN RSS et agrégation de cartes l l Si la fonctionnalité RSS n’est pas activée sur toutes les cartes d’une association, elle sera désactivée pour cette association. Si une carte ne prenant pas en charge la fonctionnalité RSS est ajoutée à l’association, la fonctionnalité RSS sera désactivée pour l’association. FCoE RSS Si FCoE est installé, FCoE RSS est activé et s’applique aux traitements des réceptions FCoE partagées entre les cœurs du processeur. Configuration de FCoE RSS Si votre carte réseau prend en charge FCoE RSS, les paramètres de configuration suivants peuvent être visualisés et modifiés dans l’onglet Performances avancées du pilote de base : l Nombre de nœuds NUMA FCoE. Ce paramètre spécifie le nombre de nœuds NUMA consécutifs où les files d'attente FCoE affectées seront uniformément distribuées. l Nœud NUMA de départ FCoE. Ce paramètre spécifie le nœud NUMA représentant le premier nœud du nombre de nœuds NUMA FCoE. l Décalage de cœur de départ FCoE. Ce paramètre spécifie le décalage du premier cœur de processeur du nœud NUMA qui sera affecté à la file d'attente FCoE. l Nœud NUMA de port FCoE. Ce paramètre de la plate-forme indique le nœud NUMA optimal le plus proche du port physique, le cas échéant. Ce paramètre est en lecture seule et ne peut pas être configuré. Optimisation des performances Le contrôleur réseau Intel fournit un nouvel ensemble d'options avancées permettant d'optimiser les performances FCoE. Ces options régissent comment les files d'attente de transmission/réception FCoE sont affectées sur les platesformes NUMA. Spécifiquement, elles régissent depuis quel ensemble cible d'UC de nœud NUMA les UC peuvent être sélectionnées pour affecter une affinité de file d'attente individuelle. La sélection d'une UC spécifique a deux effets principaux : l l Elle définit l'emplacement d'interruption souhaité pour traiter les indications de paquet de file d'attente. Elle définit l'emplacement relatif de la file d'attente dans la mémoire disponible. Comme indiqué, il s'agit d'options d'optimisation avancées destinées aux gestionnaires de plates-formes cherchant à optimiser les performances du système. Elles sont généralement utilisées pour optimiser les performances dans les configurations de plates-formes multiports. Comme tous les ports partagent les mêmes directives d'installation par défaut (le fichier .inf, etc.), les files d'attente FCoE de chaque port sont associées au même ensemble d'UC NUMA, ce qui peut entraîner un conflit d'UC. Le logiciel qui exporte ces options d'optimisation définit un nœud NUMA comme étant équivalent à un processeur individuel (socket). Les informations ACPI de la plate-forme présentées par le BIOS au système d'exploitation contribuent à définir la relation des périphériques PCI aux processeurs individuels. Cependant, ce détail n'est actuellement pas fourni de manière fiable sur toutes les plates-formes. En conséquence, l'utilisation des options d'optimisation peut produire des résultats inattendus. Nous ne pouvons pas garantir que les options de performance produiront des résultats cohérents et prévisibles. Les options d'optimisation des performances sont répertoriées dans la section Configuration de LAN RSS. Exemple 1 : une plate-forme possédant deux sockets physiques, chaque processeur de socket fournissant 8 cœurs de processeur (16 lorsque la technologie Hyper-Threading est activée), et une carte réseau Intel deux ports avec FCoE activé. Par défaut, 8 files d'attente FCoE sont affectées par port de carte réseau. De plus, par défaut, les premiers cœurs (non hyper thread) du premier processeur sont affectés d'une affinité avec ces files d'attente, ce qui entraîne le modèle d'affectation illustré ci-dessous. Dans ce scénario, les deux ports sont en concurrence pour les cycles d'UC du même ensemble d'UC du socket 0. Affectation des files d'attente de socket à l'UC Avec les options d'optimisation des performances, l'association des files d'attente FCoE du deuxième port peut être dirigée vers un autre ensemble de cœurs d'UC non concurrent. Les paramètres suivants indiquent au logiciel d'utiliser les UC de l'autre socket de processeur : l Nombre de nœuds NUMA FCoE = 1 : Affecter les files d'attente aux cœurs d'un nœud NUMA (ou socket de processeur) unique. l Nœud NUMA de départ FCoE = 1 : Utiliser les cœurs d'UC du deuxième nœud NUMA (ou socket de processeur) du système. l Décalage de cœur de départ FCoE = 0 : Le logiciel démarrera au premier cœur d'UC du nœud NUMA (ou socket de processeur). Les paramètres suivants indiquent au logiciel d'utiliser un ensemble d'UC différent sur le même socket de processeur : Cela prend pour hypothèse qu'un processeur prend en charge 16 cœurs (non hyper thread). l Nombre de nœuds NUMA FCoE = 1 l Nœud NUMA de départ FCoE = 0 l Décalage de cœur de départ FCoE = 8 Exemple 2 : Utilisation d'un ou de plusieurs ports avec des files d'attente affectées à plusieurs nœuds NUMA. Dans ce cas, pour chaque port de carte réseau, le Nombre de nœuds NUMA FCoE est défini sur ce nombre de nœuds NUMA. Par défaut, les files d'attente seront affectées de façon égale à chaque nœud NUMA : l Nombre de nœuds NUMA FCoE = 2 l Nœud NUMA de départ FCoE = 0 l Décalage de cœur de départ FCoE = 0 Exemple 3 : L'affichage montre que le paramètre Nœud de port NUMA FCoE est 2 pour un port de carte donné. Il s'agit d'une valeur en lecture seule fournie par le logiciel, indiquant que le nœud NUMA optimal le plus proche du périphérique PCI est le troisième nœud logique NUMA du système. Par défaut, le logiciel a affecté les files d'attente de ce port au nœud NUMA 0. Les paramètres suivants indiquent au logiciel d'utiliser les UC du socket de processeur optimal : l Nombre de nœuds NUMA FCoE = 1 l Nœud NUMA de départ FCoE = 2 l Décalage de cœur de départ FCoE = 0 Cet exemple met en évidence le fait que le nombre de bus PCI et leur emplacement peut varier en fonction des différentes architectures de plate-forme. Les figures ci-dessous montrent deux architectures de plate-forme simplifiées. La première est l'architecture ancienne commune à bus principal dans laquelle plusieurs UC partagent l'accès au contrôleur central mémoire et/ou contrôleur central des E/S qui fournit la connectivité du bus PCI et de la mémoire. La deuxième est une architecture plus récente, dans laquelle plusieurs processeurs d'UC sont interrompus par QPI et dans laquelle chaque processeur prend en charge directement la connectivité intégrée du contrôleur central mémoire et PCI. Il existe un avantage perçu à garder l'affectation des objets de ports, comme les files d'attente, aussi près que possible du nœud NUMA ou de la collection d'UC auxquels elles accèderont le plus probablement. Si les files d'attente des ports utilisent les UC et la mémoire d'un seul socket alors que le périphérique PCI est associé à un autre socket, la consommation QPI de bande passante du bus entre les processeurs risque d'être indésirable. Il est important de bien comprendre l'architecture de la plate-forme lors de l'utilisation de ces options d'optimisation des performances. Architecture PCI/mémoire partagée à racine unique Architecture PCI/mémoire distribuée à plusieurs racines Exemple 4 : Le nombre d'UC de nœuds NUMA disponibles n'est pas suffisant pour l'affectation des files d'attente. Si votre plate-forme possède un processeur qui ne prend pas en charge un carré d'UC pair (par exemple, il prend en charge 6 cœurs), lors de l'affectation des files d'attente, si le logiciel est à court d'UC sur un socket, il réduit par défaut le nombre de files d'attente à la puissance 2 jusqu'à ce que l'affectation soit terminée. Par exemple, si un processeur à 6 cœurs est utilisé, le logiciel affecte seulement 4 files d'attente FCoE s'il n'existe qu'un seul nœud NUMA. S'il y a plusieurs nœuds NUMA, le nombre de nœuds NUMA peut être défini à une valeur supérieure ou égale à 2 afin de pouvoir créer les 8 files d'attente. Détermination de l'emplacement de la file d'attente active L'utilisateur de ces options d'optimisation des performances cherchera à déterminer l'affinité des files d'attente FCoE avec les UC afin de vérifier leur effet réel sur l'affectation des files d'attente. Cela peut être réalisé facilement en utilisant une charge de travail comportant peu de paquets et une application d'E/S telle que IoMeter. IoMeter surveille l'utilisation de chaque UC en utilisant l'analyseur de performances intégré au système d'exploitation. Les UC soutenant l'activité des files d'attente doivent se distinguer. Elles doivent être les premières UC non hyper thread disponibles sur le processeur, sauf si l'affectation est spécifiquement modifiée par les options d'optimisation des performances décrites ci-dessus. Pour rendre l'emplacement des files d'attente FCoE encore plus évident, l'affinité de l'application peut être affectée à un ensemble d'UC isolé du même ou d'un autre socket de processeur. Par exemple, l'application IoMeter peut être configurée pour être exécutée uniquement sur un nombre fini d'UC hyper thread sur n'importe quel processeur. Si les options d'optimisation des performances ont été définies pour diriger l'affectation des files d'attente sur un nœud NUMA spécifique, l'affinité de l'application peut être définie sur un nœud NUMA différent. Les files d'attente FCoE ne doivent pas bouger et l'activité doit rester sur ces UC, bien que l'activité UC de l'application passe sur les autres UC de processeur sélectionnées. SR-IOV (Virtualisation des E/S root unique) SR-IOV permet à un même port réseau d’apparaître sous forme de plusieurs fonctions virtuelles différentes dans un environnement virtualisé. Si vous avez une carte d’interface réseau compatible SR-IOV, chacun des ports de cette carte peut affecter une fonction virtuelle à plusieurs partitions invitées. Les fonctions virtuelles contournent le gestionnaire VMM de machines virtuelles en permettant aux données de paquets d’aller directement dans la mémoire d’une partition invitée, ce qui se traduit par un débit plus élevé et une moindre utilisation du CPU. SR-IOV vous permet lui aussi de déplacer les données des paquets directement dans la mémoire d'une partition invitée.. Consultez la documentation de votre système d’exploitation pour connaître les conditions systèmes requises. Pour les périphériques qui le prennent en charge, SR-IOV est activé sur la partition hôte de la feuille des propriétés Gestionnaire de périphériques de la carte réseau (section Virtualisation de l’onglet Avancé). Certains appareils peuvent avoir besoin que SR-IOV soit activé dans un environnement de prédémarrage. REMARQUES : l Configuration de SR-IOV pour une sécurité réseau renforcée : dans un environnement virtualisé, la fonction virtuelle (VF) peut être sujette à un comportement malveillant sur les cartes Intel® pour serveurs prenant en charge SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes. l Vous devez activer VMQ pour que SR-IOV puisse fonctionner. l SR-IOV n’est pas pris en charge avec les associations ANS. l l l l l l VMWare ESXi ne prend pas en charge SR-IOV sur les ports 1 GbE. Certaines cartes multiports contiennent plus d'un contrôleur. L'activation de SR-IOV sur un port de ces cartes n'activera pas SR-IOV sur tous les ports. L'activation se fera uniquement sur les ports associés au même contrôleur. Si SR-IOV est désactivé sur le BIOS ou le gestionnaire de démarrage, l'activation de SR-IOV depuis Intel PROSet nécessitera un redémarrage du système. Lorsqu'une carte fonctionne en mode NPar, SR-IOV est limité à la partition racine de chaque port. Lorsqu'une carte fonctionne en mode NPar, les paramètres de virtualisation (SRIOV) s'appliquent à tous les ports de la carte. Les modifications apportées aux paramètres de virtualisation sur un port sont appliqués à tous les ports de la carte. En raison des limitations des chipsets, tous les systèmes ou connecteurs ne prennent pas en charge SR-IOV. Vous trouverez ci-dessous un tableau récapitulatif de la prise en charge de SR-IOV sur les plates-formes serveur Dell EMC. Prise en charge de SR-IOV sur les cartes réseau Carte fille réseau, LAN sur carte mère ou carte 40Gbe 25Gbe 10Gbe 1Gbe Carte réseau convergent Ethernet Intel® XL710-Q2 Oui Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Oui Carte mezzanine Ethernet Intel® 25G 2P XXV710 Oui Carte réseau Ethernet Intel® 25G 2P XXV710 Oui Carte réseau Ethernet Intel® 10G 4P X710-k bNDC Oui Carte réseau Ethernet Intel® 10G 2P X710-k bNDC Oui Carte réseau Ethernet Intel® 10G X710-k bNDC Oui Carte réseau convergent Ethernet Intel® X710 Oui Carte réseau convergent Ethernet Intel® X710-T Oui Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP Oui Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Oui Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Oui Carte réseau Ethernet Intel® 10G X710 rNDC Oui Carte réseau Ethernet Intel® 10G 4P X550 rNDC Oui Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Oui Carte réseau Ethernet Intel® 10G 2P X550-t Oui Carte réseau Ethernet Intel® 10G 2P X540-t Oui Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Oui Non Carte Ethernet Intel® 10G 4P X520/I350 rNDC Oui Non Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Oui Carte réseau Ethernet Intel® 10G 2P X520 Oui Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Oui Non Non Non Carte Intel® Gigabit 4P I350-t rNDC Oui Carte Intel® Gigabit 4P I350 bNDC Oui Carte fille réseau, LAN sur carte mère ou carte 40Gbe 25Gbe 10Gbe 1Gbe Carte mezzanine Intel® Gigabit 4P I350-t Oui Carte Intel® Gigabit 2P I350-t Oui Carte réseau Intel® Gigabit 4P I350-t Oui PowerEdge C4130 LOM Non PowerEdge C6320 LOM Oui PowerEdge C6420 LOM Non PowerEdge T620 LOM Non PowerEdge T630 LOM Non PowerEdge FC430 LOM Non Oui PowerEdge R530XD LOM Plate-forme Dell EMC Non Carte mez- Carte Connecteur PCI Express zanine fille pour OCP réseau 1 2 3 4 5 pour rack C4130 C4140 non C6320 oui oui oui non oui oui C6420 oui oui R230 non non R320 non oui R330 non non R420 1x UC non oui 2x UC oui oui R430 oui oui R440 oui oui oui 1x UC non oui oui oui 2x UC oui oui oui oui R530 oui oui oui non non R540 oui oui oui oui R530XD oui oui non R620 oui oui oui R630 oui oui oui R520 6 oui non 7 8 9 10 11 12 13 Plate-forme Dell EMC Carte mez- Carte Connecteur PCI Express zanine fille pour OCP réseau 1 2 3 4 5 pour rack 6 7 R640 oui oui oui oui R720XD oui oui oui oui oui oui oui R720 oui oui oui oui oui oui oui oui R730 oui oui oui oui oui oui oui R730XD oui oui oui oui oui oui 8 R740 oui oui oui oui oui oui oui oui oui R820 oui oui oui oui oui oui oui oui oui oui oui oui oui oui R830 9 10 11 12 13 R840 oui oui oui oui oui oui oui oui oui oui oui R920 oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui R930 R940 oui T130 non non non non T320 non non oui T330 non non non non T420 non non oui oui oui oui T430 non non oui oui oui oui T440 non oui oui oui oui T620 oui oui non oui oui oui oui T630 oui non oui oui oui oui oui oui oui oui oui oui oui oui T640 oui oui oui oui Plate-forme Dell EMC Carte fille réseau lame Connecteur mezzanine B C FC430 oui oui oui FC630 oui oui oui FC830 oui oui oui M420 oui oui oui M520 non oui oui M620 oui oui oui M630 oui oui oui M630 pour VRTX oui Plate-forme Dell EMC Carte fille réseau lame Connecteur mezzanine B C oui oui M640 oui M640 pour VRTX oui M820 oui oui oui M830 oui oui oui M830 pour VRTX oui MX740c oui oui oui MX840c oui oui oui Les plates-formes ou connecteurs pris en charge sont indiqués par un "oui". Mention « non » : non pris en charge. Cellule vide : non applicable. Délester somme de contrôle TCP (IPv4 et IPv6) Permet à la carte de vérifier la somme de contrôle TCP des paquets entrants et de calculer la somme de contrôle TCP des paquets sortants. Cette fonctionnalité améliore les performances d’émission et de réception, et réduit le taux d’utilisation du processeur. Lorsque le délestage est désactivé, le système d’exploitation vérifie le total de contrôle TCP. Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation. Valeur par défaut Valeurs possibles RX et TX activées l l l l Désactivé RX activée TX activée RX et TX activées Options de délestage TCP/IP Surveillance thermique Les cartes et les contrôleurs réseaux basés sur le contrôleur Ethernet Intel® I350 (et versions ultérieures) peuvent afficher les données de température et réduire automatiquement la vitesse de la liaison si la température du contrôleur est trop élevée. REMARQUE : cette fonction est activée et configurée par le fabricant de matériel. Elle n’est pas disponible sur toutes les cartes et contrôleurs réseaux. Il n’existe aucun paramètre utilisateur configurable. Surveillance et production de rapports L'information concernant la température est affichée sur l'onglet Vitesse de liaison dans Intel® PROSet pour le Gestionnaire de périphériques Windows*. Il existe trois conditions possibles : l Température : Normale Indique le fonctionnement normal. l Température : Surchauffe, liaison réduite Indique que le périphérique a une vitesse de liaison réduite pour abaisser la température et la consommation de courant. l Température : Surchauffe ; arrêt de la carte Indique que le périphérique est trop chaud et a arrêté le trafic de passage pour éviter les dommages. Si un des événements de surchauffe se produit, le pilote du périphérique écrit un message sur le journal des événements du système. Tampons d’émission Définit le nombre de descripteurs de transmission. Les descripteurs de transmission sont des segments de données qui permettent à la carte de suivre les paquets de transmission dans la mémoire système. En fonction de sa taille, chaque paquet de transmission requiert un ou plusieurs descripteurs de transmission. Vous pouvez augmenter le nombre de descripteurs de transmission si vous rencontrez un problème relatif aux performances de transmission. Bien qu’une augmentation du nombre de descripteurs puisse améliorer les performances de transmission, les descripteurs de transmission consomment également de la mémoire système. Si vous n’avez pas de problème relatif aux performances de transmission, utilisez la valeur par défaut. Ce paramètre par défaut varie en fonction du type de carte. Consultez la rubrique Spécifications des cartes pour obtenir de l’aide quant à l’identification de votre carte. Valeur par défaut 512, en fonction des exigences de la carte Valeurs possibles 128 à 16384, par intervalles de 64, pour les cartes réseau 10 Gigabit pour serveurs. 80 à 2048, par intervalles de 8, pour toutes les autres cartes. Délester somme de contrôle UDP (IPv4 et IPv6) Permet à la carte de vérifier la somme de contrôle UDP des paquets entrants et de calculer la somme de contrôle UDP des paquets sortants. Cette fonctionnalité améliore les performances d’émission et de réception, et réduit le taux d’utilisation du processeur. Lorsque le délestage est désactivé, le système d’exploitation vérifie la somme de contrôle UDP. Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation. Valeur par défaut RX et TX activées Valeurs possibles l l l l Désactivé RX activée TX activée RX et TX activées Attendre la liaison Détermine si le pilote doit attendre la négociation automatique avant de signaler l’état de la liaison. Si cette fonctionnalité est désactivée, le pilote n’attend pas la négociation automatique. Si elle est activée, le pilote attend la négociation automatique. Si cette fonctionnalité est activée alors que la vitesse n'est pas définie sur Négociation automatique, le pilote attend quelques instants que la liaison soit établie avant de signaler l'état de la liaison. Si la fonctionnalité est configurée pour une détection automatique, elle est automatiquement définie sur Activé ou Désactivé en fonction de la vitesse et du type de carte lors de l’installation du pilote. Le paramètre est l Désactivé pour les cartes réseau Intel Gigabit cuivre avec une vitesse "Auto". l Activé pour les cartes réseau Intel Gigabit cuivre avec une vitesse et un mode duplex forcés. l Désactivé pour les cartes réseau Intel Gigabit à fibre optique avec une vitesse "Auto". Valeur par défaut Valeurs possibles Détection automatique l l l Activé Désactivé Détection automatique Onglet VLAN L’onglet VLAN permet de créer, modifier et supprimer des réseaux locaux virtuels. Pour que cet onglet soit disponible et pour pouvoir utiliser la fonctionnalité, vous devez installer Advanced Network Services. Réseaux locaux virtuels Présentation REMARQUES : l Les utilisateurs Windows* doivent installer Intel® PROSet pour le Gestionnaire de périphériques Windows et Services réseau avancés Intel® (ANS) pour pouvoir utiliser les réseaux VLAN. l Vous devez installer les dernières mises à jour de Microsoft Windows* 10 pour pouvoir créer des associations ou des VLAN Intel® ANS sur des systèmes Windows 10. Les associations ou les VLAN Intel® ANS créés avec une version précédente du logiciel/pilote sur un système Windows 10 seront corrompus et ne peuvent pas être mis à niveau. Le package d'installation supprimera ces associations et VLAN existants. l Microsoft Windows Server 2012 R2 est la dernière version du système d'exploitation Windows Server prenant en charge Services réseau avancés Intel®. Services réseau avancés Intel® n'est pas pris en charge sur Microsoft Windows Server 2016 et les versions ultérieures. l Les VLAN Intel ANS ne sont pas compatibles avec les associations Load Balancing and Failover (LBFO) de Microsoft. Intel® PROSet bloquera l’ajout d’un membre de LBFO à un VLAN Intel ANS. Vous ne devez pas ajouter à une association LBFO un port qui fait déjà partie d’un VLAN Intel ANS, sous peine de déstabiliser le système. Le terme VLAN (Virtual Local Area Network, ou Réseau local virtuel) désigne un ensemble de périphériques qui communiquent comme s’ils se trouvaient sur le même réseau local physique. Tout groupe de ports (y compris l’ensemble des ports d’un commutateur) peut être considéré comme étant un réseau local virtuel. Les segments de réseaux locaux ne sont pas restreints par le matériel qui les connecte physiquement. Les réseaux locaux virtuels permettent de regrouper des ordinateurs dans des groupes de travail logiques. Cette configuration simplifie la gestion du réseau lorsque les clients se connectent à des serveurs répartis dans un bâtiment, un campus ou une entreprise. Les réseaux locaux virtuels sont généralement constitués de collègues appartenant à un même service, mais situés dans des emplacements différents, de groupes d’utilisateurs utilisant le même protocole de communication ou d’une équipe travaillant sur un même projet. En utilisant des réseaux VLAN, vous pouvez : l améliorer les performances du réseau ; l limiter les diffusions massives ; l faciliter les mises à jours de la configuration du réseau local (ajouts, déplacements et modifications) ; l limiter les problèmes de sécurité ; l faciliter votre tâche de gestion. Autres considérations l l Configuration de SR-IOV pour une sécurité réseau renforcée : dans un environnement virtualisé, la fonction virtuelle (VF) peut être sujette à un comportement malveillant sur les cartes Intel® pour serveurs prenant en charge SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes. Pour appartenir à des réseaux locaux virtuels IEEE, la carte doit être connectée à un commutateur prenant en charge la norme de réseau virtuel IEEE 802.1Q. l l Les réseaux locaux virtuels peuvent coexister avec les associations (si la carte les prend tous les deux en charge). Dans ce cas, définissez d’abord l’association, puis les réseaux locaux virtuels. Un seul VLAN non étiqueté peut être configuré par carte ou association. Vous devez disposer d’au moins un VLAN étiqueté avant de pouvoir installer un VLAN non étiqueté. IMPORTANT : si vous utilisez des réseaux locaux virtuels IEEE 802.1Q, l’ID des réseaux doit être la même sur le commutateur et les cartes des réseaux locaux virtuels. Configuration des réseaux locaux virtuels dans Microsoft* Windows* Sous Microsoft* Windows*, vous devez utiliser Intel® PROSet pour installer et configurer les réseaux locaux virtuels. Pour plus d'informations, sélectionnez Intel® PROSet dans la Table des matières (volet de gauche) de cette fenêtre. ATTENTION : l Les réseaux locaux virtuels ne peuvent être utilisés pour des associations contenant des cartes réseau non Intel. l Utilisez Intel® PROSet pour ajouter ou supprimer un réseau local virtuel. N’utilisez pas la boîte de dialogue Connexions réseau et accès à distance pour activer ou désactiver des réseaux locaux virtuels. Dans ce cas, le pilote de réseau VLAN ne sera pas correctement activé ou désactivé. REMARQUES : l L'ID du réseau local virtuel est pris en charge. L'ID doit correspondre à l'ID du VLAN configuré sur le commutateur. Les cartes dotées de VLAN doivent être connectées à des périphériques réseau prenant en charge la spécification IEEE 802.1Q. l Si vous modifiez un paramètre sur l’onglet Avancé de l’un des VLAN, les paramètres de tous les VLAN qui utilisent ce port sont également modifiés. l Dans la plupart des environnements, Intel® PROSet prend en charge un maximum de 64 réseaux locaux virtuels par port réseau ou association. l Les réseaux VLAN ANS ne sont pas pris en charge sur les cartes et associations sur lesquelles les files d'attente d'ordinateurs virtuels sont activées. Cependant, le filtrage de VLAN avec files d'attente d'ordinateurs virtuels est pris en charge par l'interface de VLAN Microsoft Hyper-V. Pour en savoir plus, consultez Utilisation des cartes réseau Intel® dans un environnement Microsoft* Hyper-V*. l Vous pouvez avoir plusieurs balises de VLAN sur une partition enfant et son parent. Ces paramètres sont indépendants les uns des autres et peuvent être différents ou identiques. Le seul cas où la balise VLAN du parent et de l'enfant DOIT être identique est si vous voulez que les partitions parent et enfant soient capables de communiquer l'une avec l'autre par ce VLAN. Pour en savoir plus, consultez Utilisation des cartes réseau Intel® dans un environnement Microsoft* Hyper-V*. Configuration d’un réseau VLAN étiqueté IEEE 1. Dans la fenêtre des propriétés de carte, cliquez sur l’onglet VLAN. 2. Cliquez sur Nouveau. 3. Tapez le nom et numéro d’ID du réseau VLAN que vous créez. L’ID du réseau local virtuel doit correspondre à l’ID du réseau local virtuel du commutateur. La valeur peut être comprise entre 1 et 4 094, bien que le commutateur puisse ne pas prendre autant de valeurs. Le nom est purement informatif et ne doit donc pas nécessairement correspondre à celui du commutateur. Le nom peut contenir jusqu’à 256 caractères. REMARQUE : les ID de VLAN 0 et 1 sont souvent réservés pour d’autres utilisations. 4. Cliquez sur OK. Le réseau VLAN apparaîtra sous Cartes réseau dans la fenêtre Gestion de l’ordinateur. Effectuez ces opérations pour chacune des cartes que vous voulez ajouter à un réseau VLAN. REMARQUE : si vous configurez des réseaux VLAN dans une association, l’icône de l’objet de l’association du Panneau de configuration Réseau indiquera que l’association est déconnectée. Vous ne serez pas en mesure de modifier les paramètres TCP/IP comme l’adresse IP ou le masque de sous-réseau. Vous pourrez toutefois configurer l’association (ajouter ou supprimer des cartes membres, modifier le type d’association, etc.) via le Gestionnaire de périphériques. Configuration d’un VLAN non étiqueté Un seul VLAN non étiqueté peut être configuré par carte ou association. REMARQUE : il n’est possible de créer un VLAN non étiqueté que s’il existe déjà au moins un VLAN étiqueté. 1. 2. 3. 4. Dans la fenêtre des propriétés de carte, cliquez sur l’onglet VLAN. Cliquez sur Nouveau. Cochez la case Untagged VLAN (Réseau VLAN non étiqueté). Tapez le nom du réseau VLAN que vous créez. Le nom est purement informatif et ne doit donc pas nécessairement correspondre à celui du commutateur. Il est limité à 256 caractères. 5. Cliquez sur OK. Suppression d’un VLAN 1. Cliquez sur l’onglet VLAN et sélectionnez le réseau que vous voulez supprimer. 2. Cliquez sur Remove (Supprimer). 3. Cliquez sur Yes (Oui) pour confirmer. Suppression des associations fantômes et des VLAN fantômes Si vous enlevez physiquement toutes les cartes faisant partie d’une association ou d’un VLAN du système sans les supprimer d’abord dans le Gestionnaire de périphériques, une association fantôme ou un VLAN fantôme s’affichent dans le Gestionnaire de périphériques. Il existe deux méthodes permettant de supprimer une association fantôme ou un VLAN fantôme. Suppression de l’association fantôme ou du VLAN fantôme à l’aide du Gestionnaire de périphériques Suivez ces instructions pour supprimer une association fantôme ou un VLAN fantôme à l’aide du Gestionnaire de périphériques : 1. Dans le Gestionnaire de périphériques, double-cliquez sur l’association fantôme ou le VLAN fantôme. 2. Cliquez sur l’onglet Paramètres. 3. Sélectionnez Supprimer l’association ou Supprimer le VLAN. Suppression de l’association fantôme ou du VLAN fantôme à l’aide du script savresdx.vbs Pour Windows Server, le script savresdx.vbs se trouve dans le package de mise à jour du pilote, dans le répertoire WMI du dossier Windows approprié. Dans le cadre d'invite de commande DOS, saisissez : "cscript savresdx.vbs removephantoms". Prévention de la création de périphériques fantômes Pour empêcher la création de périphériques fantômes, veillez à exécuter ces étapes avant de retirer physiquement la carte du système : 1. Retirez l’adaptateur de toutes les associations à partir de l’onglet Paramètres de la boîte de dialogue des propriétés de l’association. 2. Supprimez tous les VLAN de la carte à partir de l’onglet VLAN de la boîte de dialogue des propriétés de la carte. 3. Désinstallez la carte dans le Gestionnaire de périphériques. Il n’est pas nécessaire de respecter ces étapes dans les scénarios de remplacement à chaud. Onglet Agrégation de cartes L’onglet Agrégation de cartes permet de créer, modifier et supprimer des associations de cartes. Pour que cet onglet soit disponible et pour pouvoir utiliser la fonctionnalité, vous devez installer Advanced Network Services. Agrégation de cartes La fonction d'association Services réseau avancés Intel® (Intel® ANS) vous permet de tirer parti de plusieurs cartes d'un système en les regroupant. Les associations ANS peuvent utiliser des fonctionnalités telles que l’équilibrage de la charge et la tolérance aux pannes pour optimiser le débit et la fiabilité. Avant de créer une association ou d'ajouter des membres à une association, assurez-vous que chaque membre a été configuré de manière identique. Parmi les paramètres à vérifier se trouvent les réseaux VLAN, le balisage des paquets QS, les paquets étendus et les différents délestages. Faites particulièrement attention avec les cartes de modèles et de versions différents, car leurs capacités varient. Notes de configuration l l l l l l l l l l l Vous devez installer les dernières mises à jour de Microsoft Windows* 10 avant de pouvoir créer des associations ou des VLAN Intel® ANS sur des systèmes Windows 10. Les associations ou les VLAN Intel® ANS créés avec une version précédente du logiciel/pilote sur un système Windows 10 seront corrompus et ne peuvent pas être mis à niveau. Le package d'installation supprimera ces associations et VLAN existants. Microsoft* Windows Server* 2012 R2 est la dernière version du système d'exploitation Windows Server à prendre en charge les Services réseau avancés Intel® (ANS). Intel® ANS ne prend pas en charge Microsoft Windows Server 2016 et les versions ultérieures. pour configurer des associations sous Linux, utilisez le module Channel Bonding disponible dans les noyaux Linux pris en charge. Pour davantage d'informations, consultez la documentation sur le Channel Bonding disponible dans la source de noyau. Tous les types d’association ne sont pas disponibles sur tous les systèmes d’exploitation. Veillez à utiliser les derniers pilotes disponibles sur toutes les cartes. Il n'est pas possible de créer une association incluant à la fois des appareils reposant sur les contrôleurs Intel X710/XL710 et des appareils reposant sur la carte Intel I350. Ces appareils ne peuvent pas faire partie d'une même association et seront bloqués lors de la configuration de l'association. Les associations précédemment créées qui comprennent un ensemble d'appareils seront supprimées lors de leur mise à niveau. NDIS 6.2 introduit de nouvelles structures de données RSS et interfaces C'est pourquoi il n'est pas possible d'activer le RSS sur les associations composées d'un mélange de cartes prenant en charge le RSS NDIS 6.2 et de cartes qui ne le prennent pas en charge. Si une association est liée à une carte réseau virtuelle Hyper-V, vous ne pouvez pas changer la carte principale ou la carte secondaire. Pour assurer un ensemble commun de fonctions, certaines fonctions avancées, comme le délestage matériel, sont automatiquement désactivées lorsqu'une carte ne prenant pas en charge Intel® PROSet est ajoutée à une association. STP (Spanning tree protocol) doit être désactivé sur les ports de commutateur connectés à des cartes associées afin d'éviter toute perte de données lorsque la carte principale est remise en service (basculement). Autrement, un délai d’activation peut être configuré sur les cartes pour éviter toute perte de données lorsque le protocole STP est utilisé. Définissez le délai d’activation dans l’onglet Avancé des propriétés de l’association. Les protocoles Fibre Channel over Ethernet/Data Center Bridging sont automatiquement désactivés quand une carte est ajoutée à une association comportant des cartes non compatibles FCoE/DCB. Configuration des associations ANS La fonctionnalité Associations ANS du composant Intel Advanced Network Services (iANS) vous permet de tirer parti de plusieurs cartes d’un système en les regroupant. Les associations ANS peuvent utiliser des fonctionnalités telles que l’équilibrage de la charge et la tolérance aux pannes pour optimiser le débit et la fiabilité. REMARQUES : l NLB ne fonctionnera pas si l’équilibrage de la charge de réception (RLB) est activé. En effet, NLB et iANS tentent tous les deux de configurer l’adresse MC multicast du serveur et il en résulte une discordance au niveau de la table ARP. l L’association de la carte réseau Intel® 10 Gigabit AF DA Dual Port pour serveurs est prise en charge uniquement avec des cartes de types et de modèles similaires ou avec des commutateurs utilisant une connexion Direct Attach. Création d’une association 1. Ouvrez le Gestionnaire de périphériques Windows. 2. Développez Network Adapters (Cartes réseau). 3. Double-cliquez sur l’une des cartes qui fera partie de l’association. La boîte de dialogue Propriétés de la carte s’affiche. 4. Cliquez sur l’onglet Agrégation de cartes. 5. Cliquez sur Team with other adapters (Associer avec d’autres cartes). 6. Cliquez sur New Team (Nouvelle association). 7. Tapez le nom de l’association et cliquez sur Next (Suivant). 8. Sélectionnez les cases à cocher des cartes que vous voulez inclure à l’association et cliquez sur Next (Suivant). 9. Sélectionnez un mode d’association et cliquez sur Next (Suivant). 10. Cliquez sur Finish (Terminer). La fenêtre Propriétés de l’association contenant les propriétés et les paramètres de l’association apparaît. Lorsque l’association est créée, elle apparaît sous la forme d’une carte virtuelle dans la catégorie Cartes réseau de la fenêtre Gestion de l’ordinateur. Le nom de l’association précède le nom de toutes les cartes qui font partie de l’association. REMARQUE : pour configurer des réseaux locaux virtuels dans une association, vous devez tout d’abord créer l’association. Ajout/suppression d’une carte d’une association existante REMARQUE : un membre doit être supprimé à l’association lorsque la liaison est désactivée. 1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre Gestion de l’ordinateur. 2. Cliquez sur l’onglet Paramètres. 3. Cliquez sur l’onglet Modify Team (Modifier l’association), puis sur l’onglet Adapters (Cartes). 4. Sélectionnez les cartes qui feront partie de l’association. l Sélectionnez la case à cocher des cartes que vous voulez ajouter à l’association. l Désélectionnez la case à cocher des cartes que vous voulez supprimer de l’association. 5. Cliquez sur OK. Renommer une association 1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre Gestion de l’ordinateur. 2. Cliquez sur l’onglet Paramètres. 3. Cliquez sur l’onglet Modify Team (Modifier l’association), puis sur l’onglet Name (Nom). 4. Tapez le nouveau nom de l’association et cliquez sur OK. Suppression d’une association 1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre Gestion de l’ordinateur. 2. Cliquez sur l’onglet Paramètres. 3. Sélectionnez l’association que vous voulez supprimer, puis cliquez sur Remove Team (Supprimer l’association). 4. Cliquez sur Yes (Oui) lorsque vous y êtes invité.(AFT ou Adapter Fault Tolerance) REMARQUE : si vous avez défini un réseau local virtuel ou des priorités QS sur une carte membre d’une association, il se peut que vous deviez redéfinir ces fonctionnalités une fois que le mode autonome est rétabli sur la carte. Considérations sur les associations et les réseaux locaux virtuels à prendre en compte lors du remplacement des cartes Après installation d’une carte sur un connecteur spécifique, Windows traite toute autre carte du même type comme étant une nouvelle carte. De même, si vous supprimez la carte installée et l’insérez dans un connecteur différent, Windows la détecte comme étant une nouvelle carte. Veillez à suivre attentivement les instructions ci-dessous. 1. 2. 3. 4. 5. 6. Ouvrez Intel® PROSet. Si la carte fait partie d’une association, supprimez la carte de l’association. Mettez le serveur hors tension et débranchez le cordon d’alimentation. Déconnectez le câble réseau de la carte. Ouvrez le capot et retirez la carte. Introduisez la carte de remplacement. (Utilisez le même emplacement pour éviter que Windows considère qu’il s’agit d’une nouvelle carte.) 7. Reconnectez le câble réseau. 8. Fermez le capot, rebranchez le cordon d’alimentation et remettez le serveur sous tension. 9. Ouvrez Intel® PROSet et vérifiez que la carte est disponible. Associations LBFO (Load Balancing and Failover) Microsoft* Les associations Intel ANS et les VLAN ne sont pas compatibles avec les associations LBFO (Load Balancing and Failover) de Microsoft. Intel® PROSet bloquera l’ajout d’un membre d'une association LBFO à une association Intel ANS ou à un VLAN. Vous ne devez pas ajouter à une association LBFO un port qui fait déjà partie d'une association Intel ANS ou d’un VLAN, car cela pourrait déstabiliser le système. Si vous utilisez le membre d'une association ANS ou un VLAN dans une association LBFO, réalisez la procédure suivante pour restaurer votre configuration : 1. Redémarrez le système. 2. Supprimez l'association LBFO. Bien que la création de l'association LBFO ait échoué, après un redémarrage, le Gestionnaire de serveur indique que LBFO est activé et l'interface LBFO est présente dans la GUI 'NIC Teaming'. 3. Supprimez les associations ANS et les VLAN se trouvant dans l'association LBFO et recréez-les. Il s'agit d'une étape facultative (toutes les liaisons sont restaurées lorsque l'association LBFO est supprimée), mais fortement recommandée. REMARQUES : l Si vous ajoutez un port sur lequel la technologie d'administration active Intel est activée à une association LBFO, ne configurez pas le port en mode de veille dans l'association LBFO. Si vous configurez le port en mode de veille, il est possible que vous perdiez la fonctionnalité d'administration active. l DCB (Pontage de centre de données) n'est pas compatible avec les associations LBFO de Microsoft Server. Ne créez pas d'association LBFO à l'aide de ports Intel 10G lorsque le protocole DCB est installé. N'installez pas le protocole DCB si des ports Intel 10G font partie d'une association LBFO. L'installation peut échouer et des pertes de liaison persistantes peuvent se produire si DCB et LBFO sont utilisés sur le même port. Utilisation des associations des services réseau avancés Intel® et des VLAN dans une machine virtuelle invitée Les associations des services réseau avancés Intel® (Intel® ANS) et les VLAN sont pris en charge par les machines virtuelles invitées suivantes uniquement : Machine virtuelle hôte/invitée Microsoft Windows Server 2012 R2 VM Microsoft Windows Hyper-V LBFO Hyperviseurs Linux (Xen ou KVM) LBFO ANS, VLAN VMware ESXi LBFO ANS, VLAN Cartes prises en charge Les options d’association sont prises en charge sur les cartes réseau Intel pour serveurs. Certaines cartes d’autres fabricants sont également prises en charge. Si vous utilisez un ordinateur Windows, les cartes affichées dans Intel® PROSet peuvent faire partie d’une association. REMARQUE : pour pouvoir utiliser l'association de cartes, votre système doit être doté d'au moins une carte réseau Intel® pour serveurs. De plus, toutes les cartes de l’association doivent être liées au même commutateur ou concentrateur. Conditions pouvant empêcher l'agrégation d'un périphérique Lors de la création ou de la modification d'une association, il est possible que la liste des types d'association disponibles ou la liste des périphériques disponibles ne comprenne pas tous les types d'association ou périphériques. Cela peut être dû à une ou plusieurs conditions, comprenant : l Le périphérique ne prend pas en charge le type d'association souhaité ou ne prend pas du tout en charge l'agrégation de cartes. l Le système d’exploitation ne prend pas en charge le type d'association souhaité. l Les périphériques que vous voulez agréger utilisent des versions de pilote différentes. l Vous tentez d'agréger un périphérique Intel PRO/100 avec un périphérique Intel 10GbE. l Les périphériques sur lesquels le moteur de délestage TCP (TOE) est activé ne peuvent être ajoutés à une association ANS et ne seront pas répertoriés dans la liste des cartes disponibles. l Vous pouvez ajouter des périphériques compatibles avec la technologie d'administration active Intel® à des associations AFT (Tolérance aux pannes de la carte), SFT (Tolérance aux pannes du commutateur) et ALB (Équilibrage de la charge). Tous les autres types d’association ne sont pas pris en charge. Le périphérique compatible avec la technologie d’administration active Intel doit être désigné comme carte principale de l’association. l L'adresse MAC du périphérique a été remplacée par le paramètre avancé de l'Adresse administrée localement. l La fonctionnalité Fibre Channel over Ethernet (FCoE) Boot a été activée sur le périphérique. l Le paramètre "Contrôlé par le SE" est activé sous l'onglet Centre de données de ce périphérique. l Le périphérique est associé à une carte réseau virtuelle. l Le périphérique fait partie d'une association LBFO (Load Balancing and Failover, équilibrage de la charge et reprise) Microsoft*. Modes d’agrégation l l l l l Tolérance aux pannes de la carte (AFT) - rend la carte automatiquement redondante pour une connexion réseau du serveur. Si la carte principale devient défaillante, la carte secondaire est utilisée en remplacement. Le dispositif de tolérance aux pannes de la carte peut prendre en charge de deux à huit cartes par association. Ce type d'association fonctionne avec n'importe quel commutateur ou concentrateur. Tous les membres de l'association doivent être connectés au même sous-réseau. Tolérance aux pannes du commutateur (SFT) - fournit un basculement entre deux cartes connectées à des commutateurs différents. La fonctionnalité SFT prend en charge deux cartes par association. La fonctionnalité Spanning Tree Protocol (STP) doit être activée sur le commutateur lorsque vous créez une association SFT. Lorsque des associations SFT sont créées, le délai d’activation est automatiquement défini sur 60 secondes. Ce type d'association fonctionne avec n'importe quel commutateur ou concentrateur. Tous les membres de l'association doivent être connectés au même sous-réseau. Équilibrage de la charge (ALB) - fournit l'équilibrage de la charge de transmission et la tolérance aux pannes de la carte Sur les systèmes d'exploitation Microsoft* Windows*, vous pouvez activer ou désactiver l'équilibrage de la charge de réception (RLB) dans les associations ALB (par défaut, la fonctionnalité RLB est activée). Équilibrage de charge sur machines virtuelles (Virtual Machine Load Balancing, VMLB) - assure l'équilibrage des charges de trafic de transmission et de réception sur l'ensemble des machines virtuelles liées à l'interface d'association, ainsi que la tolérance aux pannes du port commutateur, du câble ou de la carte. Ce type d'association fonctionne avec n'importe quel commutateur. Agrégation de liens statiques (SLA) - fournit un débit de transmission et de réception supérieur dans une association de deux à huit cartes. Ce type d'association remplace les types d'association des versions logicielles précédentes : Fast EtherChannel*/Agrégation des liens (FEC) et Gigabit EtherChannel*/Agrégation des liens (GEC). Ce type inclut également la tolérance aux pannes de la carte et l'équilibrage de charge (protocoles routés uniquement). Ce type d'association nécessite un commutateur prenant en charge l'agrégation de liens Intel, Cisco* FEC ou GEC, ou l'agrégation de liens IEEE 802.3ad statique. Toutes les cartes d'une association de type Agrégation de liens opérant en mode statique doivent opérer à la même vitesse et être connectées à un commutateur compatible avec le mode Agrégation de liens statiques. Si les capacités de vitesse des cartes d'une association de type Agrégation de liens statiques diffèrent, la vitesse de l'association est dépendante du plus petit dénominateur commun. Agrégation de liens IEEE 802.3ad dynamique - crée une ou plusieurs associations utilisant l'agrégation de liens dynamique avec des cartes de vitesses différentes. Comme avec les associations utilisant le type d'agrégation de liens statiques, les associations utilisant le type 802.3ad dynamique fournissent un débit de transmission et de réception supérieur et une tolérance aux pannes. Ce type d'association nécessite un commutateur prenant intégralement en charge la norme IEEE 802.3ad. IMPORTANT : l Veillez à utiliser les derniers pilotes disponibles sur toutes les cartes. l Avant de créer une association, d’ajouter ou de supprimer des membres d’une association ou de modifier les paramètres avancés d’un membre d’une association, veillez à ce que tous les membres de l’association aient été configurés de façon similaire. Les paramètres à vérifier incluent le balisage des paquets réseaux VLAN et QoS, les trames Jumbo et les différents délestages. Ces paramètres sont disponibles sous l'onglet Avancé d'Intel® PROSet. Faites particulièrement attention avec les cartes de modèles et de versions différents, car leurs capacités varient. l Si des membres d'une association implémentent des fonctionnalités avancées de façon différente, les fonctionnalités de basculement et d'association en seront affectées. Pour éviter les problèmes d’implémentation des associations : l Créez des associations utilisant des cartes de types et de modèles similaires. l Rechargez l’association après l’ajout d’une carte ou la modification de toute fonctionnalité avancée. Pour recharger une association, vous pouvez par exemple sélectionner une nouvelle carte principale. Bien qu’une perte temporaire de connectivité réseau ait lieu lors de la reconfiguration de l’association, l’association conserve son schéma d’adressage réseau. Carte principale et carte secondaire Les modes d’agrégation de cartes (AFT, SFT, ALB (avec RLB)) ne requérant pas de commutateur disposant de capacités similaires utilisent une carte principale. Pour l’ensemble de ces modes, à l’exception du mode RLB, la carte principale est la seule carte qui reçoit le trafic. Le mode RLB est activé par défaut sur une association ALB. En cas d’interruption de la carte principale, une autre carte prend le relais. Si vous utilisez plus de deux cartes et que vous souhaitez que la prise de relais soit effectuée par une carte spécifique en cas de panne de la carte principale, vous devez spécifier une carte secondaire. Si un périphérique avec la technologie d’administration active Intel activée fait partie d’une association, il doit être désigné comme la carte principale de l’association. Il existe deux types de cartes principales et secondaires : l Carte principale par défaut : si vous ne spécifiez pas de carte principale, le logiciel choisit la carte ayant les capacités (modèle et vitesse) les plus élevées comme carte principale par défaut. En cas de basculement sur indisponibilité, une autre carte devient la carte principale. Dans la plupart des modes, lorsque le problème relatif à la carte originale est résolu, le trafic n’est pas transféré automatiquement vers la carte (originale) principale par défaut. Cependant, la carte rejoint l’association mais n’est plus la carte principale. l Carte principale/secondaire désignée : vous pouvez spécifier une carte désignée dans Intel® PROSet. Dans une situation normale, la carte principale gère l’ensemble du trafic. La carte secondaire reçoit le trafic de secours en cas de panne de la carte principale. Si la carte principale désignée tombe en panne et que celle-ci redevient active ultérieurement, elle reprend automatiquement le contrôle. La spécification des cartes principale et secondaire n’apporte aucun avantage aux associations dynamiques SLA et IEEE 802.3ad, mais impose à l’association d’utiliser l’adresse MAC de la carte principale. Pour spécifier une carte principale ou une carte secondaire sous Windows 1. Dans la boîte de dialogue Propriétés de l’association, cliquez sur l’onglet Settings (Paramètres), puis sur Modify Team (Modifier l’association). 2. Cliquez sur l’onglet Adapters (Cartes réseau), et sélectionnez une carte. 3. Cliquez sur Set Primary (Désigner comme carte principale) ou sur Set Secondary (Désigner comme carte secondaire). REMARQUE : vous devez spécifier une carte principale avant de pouvoir spécifier une carte secondaire. 4. Cliquez sur OK. Le paramètre "Désignée" de la carte apparaît dans la colonne Priorité de l’onglet Team Configuration (Configuration de l’association) d’Intel® PROSet. Un "1" indique une carte principale désignée, un "2" indique une carte secondaire désignée. Basculement et restauration automatique Lorsqu’une liaison est coupée, en raison d’une panne de port ou de câble, les types d’association qui fournissent une tolérance aux pannes continuent d’envoyer et de recevoir le trafic. Le basculement est le transfert initial du trafic de la liaison coupée à la liaison opérationnelle. La restauration automatique se produit lorsque la carte initiale reprend la liaison. Vous pouvez utiliser le paramètre Délai d’activation (situé dans l’onglet Avancé des propriétés de l’association dans le Gestionnaire de périphériques) pour spécifier combien de temps la carte de basculement attend avant de devenir active. Si vous ne voulez pas que l’association effectue une restauration automatique lorsque la carte initiale retrouve la liaison, vous pouvez désactiver le paramètre Autoriser la restauration automatique (situé dans l’onglet Avancé des propriétés de l’association dans le Gestionnaire de périphériques). Dispositif de tolérance aux pannes de la carte (AFT ou Adapter Fault Tolerance) Le Dispositif de tolérance aux pannes de la carte (AFT) fournit la reprise automatique dans le cas d’un échec de liaison dû à une défaillance de la carte réseau, du câble, du commutateur ou du port, en redistribuant la charge du trafic sur une carte de secours. Les défaillances sont détectées automatiquement et le trafic est redistribué dès qu’une défaillance est détectée. L’objectif de la fonctionnalité AFT est d’assurer une redistribution rapide de la charge pour éviter des déconnexions pendant les sessions de l’utilisateur. Le dispositif de tolérance aux pannes AFT prend en charge de deux à huit cartes par association. Seul un membre actif de l’association transmet et reçoit le trafic. En cas de défaillance de la connexion principale (câble, carte ou port), une carte secondaire (de secours) prend automatiquement le relais. Si la connexion de la carte principale désignée par l’utilisateur est rétablie après un basculement, la carte principale reprend automatiquement le contrôle. Pour de plus amples informations, reportez-vous à la rubrique Cartes principales et secondaires. Le mode AFT est configuré par défaut lors de la création d’une association. Ce mode n’offre pas l’équilibrage de la charge. REMARQUES : l Les associations AFT nécessitent que le commutateur ne soit pas configuré pour l’agrégation et que le protocole "Spanning Tree" soit désactivé pour le port de commutateur connecté à la carte réseau ou au contrôleur réseau intégré sur le serveur. l Tous les membres d’une association AFT doivent être connectés au même sous-réseau. Tolérance aux pannes du commutateur (SFT : Switch Fault Tolerance) Le mode Tolérance aux pannes du commutateur (SFT) ne prend en charge que deux cartes d’interface réseau connectées à deux commutateurs différents dans une association. En mode SFT, une carte est la carte principale et une autre la carte secondaire. Lors d’un fonctionnement normal, la carte secondaire est en mode de veille. En mode de veille, la carte est inactive et attend de prendre le relais. Elle ne transmet et ne reçoit aucun trafic réseau. En cas d’interruption de la connectivité de la carte principale, la carte secondaire prend automatiquement le relais. Lorsque des associations SFT sont créées, le délai d’activation est automatiquement défini sur 60 secondes. En mode SFT, les deux cartes constituant l’association peuvent posséder des vitesses différentes. REMARQUE : la prise en charge de l’agrégation de cartes SFT ne requiert aucune configuration du commutateur, mais le protocole "Spanning Tree" doit être activé. Surveillance de la configuration Permet de définir la surveillance entre l’association SFT et jusqu’à cinq adresses IP. Il est ainsi possible de détecter l’échec de liaison au delà du commutateur. Vous pouvez vérifier la disponibilité de la connexion pour plusieurs clients considérés comme problématiques. Si la connexion entre la carte principale et toutes les adresses IP surveillées est perdue, l’association bascule sur la carte secondaire. Technologie d’équilibrage de la charge adaptative/charge de réception (ALB/RLB) La technologie ALB d’équilibrage de la charge est une méthode de distribution dynamique de la charge du trafic des données sur plusieurs canaux physiques. L’objectif de la technologie ALB est d’améliorer la bande passante globale et les performances des stations finales. En mode ALB, plusieurs liaisons sont fournies entre le serveur et le commutateur, et le pilote intermédiaire exécuté sur le serveur est responsable de la fonction d’équilibrage de la charge. L’architecture ALB utilise la connaissance des informations de couche 3 pour assurer une distribution optimale de la charge de transmission du serveur. L’architecture ALB est mise en œuvre en désignant l’un des canaux physiques comme étant le canal principal et les autres des canaux secondaires. Les paquets quittant le serveur peuvent utiliser n’importe quel canal physique, mais les paquets entrant ne peuvent utiliser que le canal principal. Lorsque la fonctionnalité d’équilibrage de la charge de réception (RLB) est activée, elle équilibre le trafic de réception IP. Le pilote intermédiaire analyse les charges de transmission des deux cartes et équilibre le taux entre les deux cartes en fonction des adresses de destination. Les associations de cartes configurées pour ALB et RLB offrent aussi les avantages de la tolérance aux pannes. REMARQUES : l Les associations ALB nécessitent que le commutateur ne soit pas configuré pour l’agrégation et que le protocole "Spanning Tree" soit désactivé pour le port de commutateur connecté à la carte réseau sur le serveur. l La technologie ALB n’équilibre pas le trafic si des protocoles tels que NetBEUI et IPX* sont utilisés. l Les associations ALB peuvent comporter des cartes de vitesses différentes. La charge est équilibrée en fonction des capacités de la carte et de la bande passante du canal. l Tous les membres des associations ALB et RLB doivent être connectés au même sous-réseau. l Les cartes réseau virtuelles ne peuvent pas être créées sur une association sur laquelle l’équilibrage de la charge de réception est activé. L’équilibrage de la charge de réception est automatiquement désactivé si vous créez une carte réseau virtuelle sur l’association. Équilibrage de charge sur machines virtuelles L’équilibrage de charge sur machines virtuelles (Virtual Machine Load Balancing, VMLB) assure l’équilibrage des charges de trafic de transmission et de réception sur l’ensemble des VM liées à l’association de cartes ainsi que la tolérance aux pannes du port commutateur, du câble ou de la carte. Le pilote analyse la charge de transmission et de réception sur chaque carte membre et équilibre le trafic entre les différentes cartes de l’association. Pour une association VMLB, chaque machine virtuelle est associée à un membre de l’association pour son trafic TX et RX. Si une seule NIC virtuelle est associée ou bien si Hyper-V est retiré, l’association VLMB se comportera comme une association AFT. REMARQUES : l La technologie VMLB n’équilibre pas les charges liées aux protocoles non acheminés tels que NetBEUI et à certains trafics IPX*. l La technologie WMLB prend en charge de deux à huit ports de carte par association. l Les associations VLMB peuvent comporter des cartes de vitesses différentes. La charge est équilibrée en fonction du plus petit dénominateur commun des capacités des cartes et de la bande passante du canal. l Vous ne pouvez pas utiliser une carte sur laquelle la technologie d'administration active Intel® (AMT) est activée avec une association VLMB. Agrégation de liens statiques Le mode Agrégation de liens statique (SLA) ressemble énormément au mode ALB. Ce mode combine plusieurs canaux physiques en un seul canal logique. Ce mode fonctionne avec les commutateurs suivants : l Commutateurs compatibles avec Cisco EtherChannel avec le mode de mise en canal défini sur "marche" l Les commutateurs Intel capables d’agrégation de liens l Les autres commutateurs compatibles avec la norme 802.3ad statique REMARQUES : l Toutes les cartes d’une association Agrégation de liens statiques doivent opérer à la même vitesse et être connectées à un commutateur compatible avec le mode Agrégation de liens statiques. Si les capacités de vitesse des cartes d’une association de type Agrégation de liens statiques diffèrent, la vitesse de l’association est dépendante du commutateur. l L’Agrégation de liens statiques nécessite que le commutateur soit configuré pour l’Agrégation de liens statiques et que le protocole "Spanning Tree" soit désactivé. l Il n’est pas possible d’utiliser dans une association SLA une carte réseau où la technologie d’administration active Intel est activée. IEEE 802.3ad : Agrégation de liens dynamique La norme IEEE 802.3ad est la norme IEEE. Les associations peuvent comporter de deux à huit cartes. Vous devez utiliser des commutateurs compatibles 802.3ad (en mode dynamique, l’agrégation peut comprendre plusieurs commutateurs). Les associations de cartes configurées pour IEEE 802.3ad offrent également les avantages de la tolérance aux pannes et de l’équilibrage de charge. En mode 802.3ad, l’équilibrage de la charge peut s’appliquer à tous les protocoles. Le mode dynamique prend en charge plusieurs agrégateurs. Les agrégateurs sont formés en fonction de la vitesse des ports connectés à un commutateur. Par exemple, une association peut contenir des cartes fonctionnant à 1 Gbit/s et à 10 Gbit/s, mais deux agrégateurs seront formés, un pour chaque vitesse. De plus, si une association contient des ports de 1 Gbit/s connectés à un même commutateur et une combinaison de ports de 1 Gbit/s et de 10 Gbit/s connectés à un deuxième commutateur, trois agrégateurs seront formés : un contenant tous les ports connectés au premier commutateur, un contenant les ports de 1 Gbit/s connectés au deuxième commutateur et le troisième contenant les ports de 10 Gbit/s connectés au deuxième commutateur. REMARQUES : l La prise en charge de l’agrégation de cartes IEEE 802.3ad requiert une configuration du commutateur (agrégation de liens) et le protocole "Spanning Tree" doit être désactivé. l Une fois que vous choisissez un critère d’agrégation, il reste effectif jusqu’à ce que toutes les cartes de l’association agrégée perdent leur liaison. l Sur certains commutateurs, les cartes cuivre et fibre ne peuvent appartenir à la même agrégation dans une configuration IEEE 802.3ad. Si des cartes cuivre et fibre sont installées sur un système, le commutateur peut configurer les cartes cuivre dans une agrégation et les cartes fibre dans une autre. Si vous remarquez ce comportement, utilisez uniquement des cartes cuivre ou uniquement des cartes à fibre optique dans un même système pour obtenir des performances optimales. l Il n’est pas possible d’utiliser dans une association DLA une carte réseau où la technologie d’administration active Intel est activée. Avant de commencer l l l l Vérifiez que le commutateur prend intégralement en charge la norme IEEE 802.3ad. Vérifiez la dépendance des ports du commutateur dans la documentation. Certains commutateurs nécessitent un pairage pour démarrer sur un port principal. Vérifiez le paramétrage de vitesse et de mode duplex pour vous assurer que la carte et le commutateur fonctionnent en Full duplex, qu’il soit forcé ou négocié automatiquement. La carte et le commutateur doivent posséder tous les deux la même configuration de vitesse et de mode duplex. L’exigence de Full duplex fait partie des spécifications de la norme IEEE 802.3ad : http://standards.ieee.org/. Si nécessaire, modifiez le paramètre de vitesse et de duplex avant de lier la carte au commutateur. Bien que vous puissiez changer les paramètres de vitesse et de mode duplex après la création de l’association, Intel vous recommande de déconnecter les câbles jusqu’à ce que les paramètres soient appliqués. Dans certains cas, il se peut que les commutateurs ou les serveurs ne reconnaissent pas correctement les nouveaux paramètres de vitesse et de mode duplex s’ils ont été modifiés alors que la liaison était active sur le réseau. Si vous configurez un réseau local virtuel, consultez les remarques de compatibilité concernant les réseaux locaux virtuels dans votre documentation. Les commutateurs ne prennent pas tous en charge simultanément les associations 802.3ad dynamiques et les réseaux locaux virtuels. Si vous décidez de configurer des réseaux locaux virtuels, configurez les paramètres des associations et des réseaux locaux virtuels sur les cartes avant de les relier au commutateur. La fonctionnalité des réseaux locaux virtuels peut être affectée si leur configuration a lieu après que le commutateur a créé une agrégation active. Suppression des associations fantômes et des VLAN fantômes Si vous enlevez physiquement toutes les cartes faisant partie d’une association ou d’un VLAN du système sans les supprimer d’abord dans le Gestionnaire de périphériques, une association fantôme ou un VLAN fantôme s’affichent dans le Gestionnaire de périphériques. Il existe deux méthodes permettant de supprimer une association fantôme ou un VLAN fantôme. Suppression de l’association fantôme ou du VLAN fantôme à l’aide du Gestionnaire de périphériques Suivez ces instructions pour supprimer une association fantôme ou un VLAN fantôme à l’aide du Gestionnaire de périphériques : 1. Dans le Gestionnaire de périphériques, double-cliquez sur l’association fantôme ou le VLAN fantôme. 2. Cliquez sur l’onglet Paramètres. 3. Sélectionnez Supprimer l’association ou Supprimer le VLAN. Prévention de la création de périphériques fantômes Pour empêcher la création de périphériques fantômes, veillez à exécuter ces étapes avant de retirer physiquement la carte du système : 1. Retirez l’adaptateur de toutes les associations à partir de l’onglet Paramètres de la boîte de dialogue des propriétés de l’association. 2. Supprimez tous les VLAN de la carte à partir de l’onglet VLAN de la boîte de dialogue des propriétés de la carte. 3. Désinstallez la carte dans le Gestionnaire de périphériques. Il n’est pas nécessaire de respecter ces étapes dans les scénarios de remplacement à chaud. Onglet Gestion de l'alimentation L’onglet Gestion de l'alimentation d’Intel PROSet remplace l’onglet Gestion de l’alimentation du Gestionnaire de périphériques de Microsoft Windows*. La fonctionnalité de gestion de l'alimentation standard de Windows est incorporée dans cet onglet Intel PROSet. REMARQUES : l Les options disponibles dans l'onglet Gestion de l'alimentation dépendent de la carte réseau et du système. Toutes les options ne sont pas affichées pour toutes les cartes réseau. Il est possible que certains paramètres du BIOS ou du système d’exploitation doivent être activés pour que le système se réveille. Cela est particulièrement vrai avec le réveil depuis un état S5 (appelé également réveil depuis un état d’arrêt). l Les cartes réseau Intel® 10 Gigabit ne prennent pas en charge la gestion de l’alimentation. l Si votre système a un moteur de gestion de réseau, le voyant de liaison peut rester allumé même si la fonctionnalité WoL est désactivée. l Quand une carte réseau fonctionne en mode NPar, la gestion de l'alimentation est limitée à la partition racine de chaque port. Options d'alimentation L’onglet Gestion de l'alimentation d’Intel® PROSet comprend plusieurs paramètres, permettant de contrôler la consommation électrique de la carte. Par exemple, vous pouvez configurer la carte pour qu’elle réduise sa consommation électrique si le câble est déconnecté. Réduire la consommation électrique si le câble est déconnecté et la vitesse de liaison en mode de veille Permet à la carte de réduire la consommation d’énergie lorsque le câble du réseau local est déconnecté de la carte et que la liaison est inactive. Lorsque la liaison de la carte est rétablie, la consommation de la carte retourne à son état normal. L’option Matériel par défaut est disponible sur certaines cartes. Si cette option est sélectionnée, la fonctionnalité est activée ou désactivée en fonction du matériel du système. Valeur par défaut La valeur par défaut varie en fonction du système d’exploitation et du type de carte. Valeurs possibles La plage varie en fonction du système d’exploitation et du type de carte. Ethernet économe en énergie La fonction EEE (Ethernet économe en énergie) permet à un périphérique compatible d’entrer en mode basse consommation entre les paquets du trafic de réseau. La fonctionnalité EEE doit être activée sur les deux partenaires de liaison pour économiser de l’énergie. Les deux partenaires de liaison repassent en mode d’alimentation maximale quand les données doivent être transmises. Cette transition peut introduire une légère latence du réseau. REMARQUES : l Les deux partenaires de liaison EEE doivent automatiquement négocier la vitesse de liaison. l EEE n'est pas pris en charge à 10 Mbit/s. Options Wake on LAN La capacité de réveiller les ordinateurs à distance constitue un développement important de la gestion des ordinateurs. Cette fonctionnalité a évolué ces dernières années d’une simple capacité de mise sous tension à distance à un système complexe d’interaction avec les différents états d’alimentation de périphériques et de systèmes d’exploitation. Microsoft Windows Server prend en charge l’interface ACPI. Windows ne prend pas en charge le réveil depuis un état d’arrêt (S5), mais seulement depuis les modes de veille (S3) ou de veille prolongée (S4). Lors de la fermeture du système, ces états arrêtent les périphériques ACPI, y compris les cartes réseau Intel. Cela désarme la fonctionnalité de réveil à distance des cartes. Cependant, sur certains ordinateurs compatibles ACPI, le BIOS peut comporter un paramètre vous permettant de contourner le système d’exploitation et de réveiller les cartes d’un état S5. Si le réveil d’un état S5 n’est pas pris en charge dans la configuration de votre BIOS, seul un réveil du mode de veille est possible en utilisant ces systèmes d’exploitation sur des ordinateurs ACPI. L'onglet Gestion de l'alimentation d'Intel PROSet comprend les paramètres Wake on Magic Packet et Wake on Directed Packet. Ces paramètres permettent de contrôler le type de paquets utilisés pour réveiller le système à partir du mode de veille. Sur certaines cartes, l’onglet Gestion de l'alimentation d’Intel PROSet comprend un paramètre appelé Wake on Magic Packet d’un état hors tension. Activez ce paramètre pour autoriser explicitement le réveil depuis la fermeture avec un paquet magique en mode APM. REMARQUES : l Pour utiliser la fonctionnalité Wake on Directed Packet, WoL doit d'abord être activé dans l'EEPROM à l'aide des utilitaires BootUtil. l Si l'option Reduce speed during standby (Réduire la vitesse en mode Veille) est activée, alors l'option Wake on Magic Packet et/ou Wake on Directed Packet doit(doivent) être activée(s). Si ces deux options sont désactivées, l'alimentation est coupée de la carte en mode Veille. l La fonctionnalité de réveil Wake on Magic Packet à partir d'un état hors tension n'a aucun effet sur cette option. Appareils prenant en charge WoL Tous les appareils prennent en charge Wake on LAN sur tous les ports, à l'exception des : Appareil Port(s) de carte prenant en charge WoL Carte Intel® Gigabit 2P I350-t port 1 uniquement Carte réseau Intel® Gigabit 4P I350-t Carte réseau convergent Ethernet Intel® X710-4 Carte réseau convergent Ethernet Intel® X710-2 port 1 uniquement Appareil Port(s) de carte prenant en charge WoL Carte réseau convergent Ethernet Intel® X710 Carte mezzanine Ethernet Intel® 25G 2P XXV710 Aucune prise en charge Carte réseau Ethernet Intel® 25G 2P XXV710 Carte réseau convergent Ethernet Intel® X710-T Aucune prise en charge Carte réseau convergent Ethernet Intel® XL710-Q2 Carte réseau Ethernet Intel® 10G 2P X520 Aucune prise en charge Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 10G 2P X540-t Aucune prise en charge Carte réseau Ethernet Intel® 10G 2P X550-t Aucune prise en charge Paramètres Wake on Link Permet un réveil de l’ordinateur lorsque la connexion réseau établit une liaison lorsqu’il est en mode de veille. Vous pouvez activer ou désactiver cette fonctionnalité, ou conserver les paramètres par défaut du système d’exploitation. REMARQUES : l Si une carte réseau Intel sur cuivre affiche une vitesse de un gigabit seulement, cette fonctionnalité ne fonctionne pas car la carte ne peut identifier une liaison un gigabit avec un état D3. l Le câble réseau doit être déconnecté lors de l’entrée en S3/S4 afin de réveiller le système par un événement d’activation de la liaison. Valeur par défaut Désactivé Valeurs possibles Désactivé Contrôlé par le système d'exploitation Forcé(e) Réveil à distance La fonction de réveil à distance permet de sortir votre serveur de l'état de veille ou hors tension. Si la fonction Wake On LAN est activée, lorsque votre système est mis hors tension, l'interface réseau utilise l'énergie de la mise en veille et surveille les paquets spécialement conçus. Si elle reçoit un tel paquet, elle réveille le serveur. Advanced Configuration and Power Interface (ACPI) L’interface ACPI prend en charge de nombreux états d’alimentation. Chaque état représente un niveau d’alimentation différent, de l’alimentation intégrale jusqu’à la désactivation complète de l’alimentation, chaque état intermédiaire comportant différents niveaux d’alimentation partielle. États de l’alimentation ACPI État de Description l’alimentation S0 Sous tension et entièrement fonctionnel S1 Le système est en mode d’économie d’énergie (mode de veille). L’horloge de l’unité centrale est arrêtée, mais la mémoire vive est alimentée et actualisée. S2 Similaire à l’état S1, mais l’alimentation de l’unité centrale est coupée. S3 Mode d’attente (suspend to RAM). La plupart des composants sont arrêtés. La mémoire vive reste fonctionnelle. État de Description l’alimentation S4 Mode de veille prolongée (suspend to disk). Le contenu de la mémoire est transféré sur le disque dur puis rechargé en mémoire vive lorsque le système est réveillé. S5 Hors tension Activation de la fonction Wake From Power Off Si vous souhaitez réveiller votre système à l'état hors tension, vous devez activer la fonction Wake From Power Off dans les paramètres de configuration du système. 1. Allez à Configuration du système. 2. Choisissez un port et passez à la configuration. 3. Spécifiez Wake on LAN. Modèles d’adresse de sortie de veille Le réveil à distance peut être déclenché par différents types de paquets pouvant être sélectionnés par l’utilisateur, et n’est pas limité au format du paquet magique. Pour de plus amples informations sur les types de paquets pris en charge, reportez-vous à la section Paramètres du système d’exploitation. La capacité de sortie de veille des cartes Intel est basée sur des modèles envoyés par le système d’exploitation. Vous pouvez configurer le pilote avec les paramètres suivants en utilisant Intel® PROSet pour Windows. Pour les systèmes Linux*, la fonctionnalité WOL est possible via l’utilitaire ethtool*. Pour de plus amples informations sur ethtool, veuillez consulter le site Web suivant : http://sourceforge.net/projects/gkernel. l Wake on Directed Packet : accepte seulement les modèles contenant l’adresse Ethernet de la carte dans l’entête Ethernet, ou contenant l’adresse IP affectée à la carte dans l’en-tête IP. l Wake on Magic Packet : accepte seulement les modèles contenant 16 répétitions consécutives de l’adresse MAC de la carte. l Wake on Directed Packet et Wake on Magic Packet : acceptent les modèles Wake on Directed Packet et Wake on Magic Packet. Le paramètre "Wake on Directed Packet" permet également à la carte d’accepter des modèles du protocole de résolution d’adresse ARP (Address Resolution Protocol) interrogeant l’adresse IP affectée à la carte. Si plusieurs adresses IP sont affectées à une carte, le système d’exploitation peut demander un réveil sur modèles ARP interrogeant l’une des adresses affectées. Cependant, le réveil de la carte ne se produira qu’en réponse à des paquets ARP interrogeant la première adresse IP de la liste, généralement la première adresse affectée à la carte. Problèmes d’installation physique Connecteur Certaines cartes mères prennent uniquement en charge le réveil à distance (ou le réveil à distance depuis l’état S5) à partir d’un connecteur particulier. Consultez la documentation fournie avec votre système pour obtenir des détails sur la prise en charge du réveil à distance. Alimentation Les cartes réseau Intel PRO les plus récentes utilisent une tension de 3,3 volts et certaines une tension de 12 volts. Elles sont indexées pour s’adapter dans ces deux types de connecteurs. Le bloc d’alimentation d’attente de 3,3 volts doit être en mesure de fournir au moins 0,2 A à chaque carte Intel PRO installée. Vous pouvez désactiver la fonctionnalité de réveil à distance des cartes à l’aide de l’utilitaire BootUtil afin de réduire la consommation à 50 milliampères (0,05 A) par carte. Paramètres du système d’exploitation Produits Microsoft Windows Windows Server prend en charge l’interface ACPI. Ces systèmes d’exploitation ne prennent pas en charge le réveil à distance d’un état hors tension (S5). Seul le réveil du mode de veille est pris en charge. Lors de la fermeture du système, les périphériques ACPI sont arrêtés, y compris les cartes réseau Intel PRO. Cela désarme la fonctionnalité de réveil à distance des cartes. Cependant, sur certains ordinateurs compatibles ACPI, le BIOS peut comporter un paramètre vous permettant de contourner le système d’exploitation et de réveiller les cartes d’un état S5. Si le réveil d’un état S5 n’est pas pris en charge dans la configuration de votre BIOS, seul un réveil du mode de veille est possible en utilisant ces systèmes d’exploitation sur des ordinateurs ACPI. L’onglet Gestion de l'alimentation d’Intel PROSet comprend, pour certaines cartes, un paramètre appelé Wake on Magic Packet d’un état hors tension. Pour autoriser explicitement le réveil depuis la fermeture avec un paquet magique en mode APM, cochez cette case pour activer ce paramètre. Consultez l’aide d’Intel® PROSet pour de plus amples informations. Dans les versions de Windows compatibles ACPI, les paramètres avancés d’Intel® PROSet comprennent un paramètre appelé Wake on Settings. Ce paramètre permet de contrôler le type de paquets utilisés pour réveiller le système à partir du mode de veille. Consultez l’aide d’Intel® PROSet pour de plus amples informations. Si Intel® PROSet n'est pas installé, vous devez procéder comme suit : 1. Ouvrez le Gestionnaire de périphériques. Cliquez sur l'onglet Gestion de l'alimentation, cochez "Autoriser ce périphérique à sortir l'ordinateur du mode Veille." 2. Sur l'onglet Avancé, activez la fonction "Wake on Magic Packet". Pour le réveil d'un état S5 sans Intel® PROSET, sur l'onglet Avancé, activez la fonction "PME". Autres systèmes d’exploitation Le réveil à distance est aussi pris en charge par Linux. Configuration avec le module IntelNetCmdlets pour Windows PowerShell* Le module IntelNetCmdlets pour Windows PowerShell contient plusieurs cmdlets qui vous permettent de configurer et de gérer les cartes Intel® Ethernet et les périphériques de votre système. Pour consulter la liste complète de ces cmdlets et leur description, saisissez get-help IntelNetCmdlets dans l'invite de commande Windows PowerShell. Pour obtenir des informations détaillées sur l'utilisation de chaque cmdlet, saisissez get-help <cmdlet_name> dans l'invite de commande Windows PowerShell. REMARQUE : l'aide en ligne (get-help -online) n'est pas prise en charge. Installez le module IntelNetCmdlets en cochant la case du module Windows PowerShell pendant le processus d'installation du pilote et de PROSet. Utilisez ensuite le module d'importation cmdlet pour importer les nouvelles cmdlets. Il vous faudra peut-être redémarrer Windows PowerShell pour accéder aux cmdlets nouvellement importées. Pour utiliser le module d'importation cmdlet, vous devez en spécifier le chemin d’accès. Par exemple : PS c:\> Import-Module -Name "C:\Program Files\Intel\Wired Networking\IntelNetCmdlets" REMARQUE : si vous utilisez une barre oblique inverse (« \ ») à la fin de la commande du module d'importation, l'opération d'importation échouera. Sous Microsoft Windows* 10 et Windows Server* 2016, la fonction de saisie semi-automatique ajoute une barre oblique inverse. Si vous utilisez la fonction de saisie semi-automatique lors de la saisie de la commande du module d'importation, supprimez la barre oblique inverse du chemin d’accès avant d'appuyer sur Retour pour exécuter la commande. Voir Microsoft TechNet pour plus d'informations sur le module d'importation cmdlet. Configuration requise pour utiliser IntelNetCmdlets : l l Microsoft* Windows PowerShell* version 2.0 .NET version 2.0 Configuration de SR-IOV pour une sécurité réseau renforcée Dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes Intel® pour serveurs prenant en charge SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes. Modification des paramètres d'Intel PROSet par l'intermédiaire de Microsoft* Windows PowerShell* Vous pouvez utiliser le module IntelNetCmdlets pour Windows PowerShell pour modifier la plupart des paramètres Intel PROSet. REMARQUES : l Si une carte réseau est liée à une association ANS, ne modifiez pas les paramètres à l'aide de la cmdlet Set–NetAdapterAdvanceProperty depuis Windows PowerShell* ni à l'aide d'aucune autre cmdlet non fournie par Intel. Cette action est susceptible d'empêcher l'association d'utiliser cette carte réseau pour faire passer le trafic. Cela peut entraîner une réduction des performances ou la désactivation de la carte réseau de l'association ANS. Il est possible de résoudre ce problème en restaurant les paramètres à leur état précédent ou en retirant la carte réseau de l'association ANS et en la remettant en place. l La cmdlet Get-IntelNetAdapterStatus -Status General peut signaler l'état "Liaison active - Ce périphérique n'est pas lié à sa capacité de vitesse maximale". Dans ce cas, si le périphérique est configuré pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du partenaire de liaison du périphérique à la vitesse maximale du périphérique. Si le périphérique n’est pas configuré pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du périphérique manuellement en vous assurant que le partenaire de liaison est réglé sur la même vitesse. Enregistrement et restauration des paramètres de configuration d’une carte L’outil de ligne de commande Enregistrer et restaurer (Save and Restore) vous permet de copier les paramètres actuels des cartes et des associations dans un fichier externe (par exemple, sur un lecteur USB) pour les sauvegarder. En cas de défaillance du disque dur, vous pouvez restaurer la plupart des anciens paramètres. Le système sur lequel vous restaurez les paramètres de configuration réseau doit avoir une configuration identique à celui sur lequel la sauvegarde a été effectuée. REMARQUES : l Seuls les paramètres des cartes (y compris ceux concernant les associations ANS et les réseaux locaux virtuels) sont enregistrés. Les pilotes des cartes ne sont pas enregistrés. l Effectuez une seule restauration à l’aide du script. La configuration pourrait être instable en cas de restauration répétée. l L’opération de restauration nécessite le même système d’exploitation que lorsque la configuration a été enregistrée. l Intel® PROSet pour le gestionnaire de périphériques Windows* doit être installé pour que le script SaveRestore.ps1 fonctionne. l Pour les systèmes fonctionnant avec un SE en 64 bits, s'assurer d'exécuter la version 64 bits de Windows PowerShell, et non la version 32 bits (x86), lors de l'exécution du script SaveRestore.ps1. Syntaxe de ligne de commande SaveRestore.ps1 –Action save|restore [-ConfigPath] [-BDF] SaveRestore.ps1 prend en charge les options de ligne de commande suivantes : Option Description -Action Requis. Valeurs valides : save | restore. L'option save enregistre les paramètres des cartes et des associations si ceux-ci sont différents des paramètres par défaut. Lorsque vous restaurez le fichier de sauvegarde, tous les paramètres qui ne sont pas contenus dans le fichier prennent leur valeur par défaut. L'option restore restaure les paramètres. -ConfigPath Facultatif. Spécifie le chemin et le nom de fichier du fichier principal d'enregistrement de la configuration. S'ils ne sont pas spécifiés, il s'agit du chemin et du nom de fichier par défaut du script (saved_config.txt). -BDF Facultatif. Les noms par défaut des fichiers de configuration sont saved_config.txt et Saved_StaticIP.txt. Si vous spécifiez -BDF lors d'une restauration, le script tente de restaurer la configuration en fonction des valeurs de PCI Bus:Device:Function:Segment de la configuration enregistrée. Si vous avez supprimé, ajouté ou déplacé une carte réseau vers un autre connecteur, il est possible que le script applique les paramètres enregistrés à un périphérique différent. REMARQUES : l Si le système restauré n'est pas identique au système enregistré, il est possible que le script ne restaure aucun paramètre lorsque l'option -BDF est spécifiée. l Les périphériques de fonction virtuelle ne prennent pas en charge l'option -BDF. l Si vous utilisez Windows pour définir les pourcentages NPar minimum et maximum de bande passante, vous devez spécifier /bdf au cours d'un enregistrement et restaurer pour conserver ces paramètres. Exemples Exemple d’enregistrement Pour enregistrer les paramètres des cartes sur un périphérique à support amovible, procédez comme suit : 1. Ouvrez une invite de commande Windows PowerShell. 2. Recherchez le répertoire dans lequel se trouve le fichier SaveRestore.ps1 (habituellement c:\Program Files\Intel\Wired Networking\DMIX). 3. Entrez la commande suivante : SaveRestore.ps1 –Action Save –ConfigPath e:\settings.txt Exemple de restauration Pour restaurer les paramètres des cartes à partir d’un fichier se trouvant sur un périphérique à support amovible, procédez comme suit : 1. Ouvrez une invite de commande Windows PowerShell. 2. Recherchez le répertoire dans lequel se trouve le fichier SaveRestore.ps1 (habituellement c:\Program Files\Intel\Wired Networking\DMIX). 3. Entrez la commande suivante : SaveRestore.ps1 –Action Restore –ConfigPath e:\settings.txt Installation et configuration des pilotes Linux* Présentation Cette version inclut des pilotes Linux de base pour les cartes Connexions réseau Intel®. Des informations spécifiques sur la compilation et l’installation, la configuration et les paramètres de ligne de commande pour ces pilotes se trouvent dans les sections suivantes : l Pilote Linux* igb pour les cartes réseau Gigabit Ethernet Intel® basées sur les contrôleurs 82575, 82576, I350 et I354 l Pilote Linux* ixgbe pour les cartes réseau 10 Gigabit Ethernet Intel® reposant sur les contrôleurs 82599, X540 et X550 l Pilote Linux* i40e pour les cartes réseau 10 Gigabit Ethernet Intel® basées sur les contrôleurs X710 et XL710 Consultez la section Cartes réseau prises en charge ci-dessous pour déterminer quel pilote utiliser. Ces pilotes sont pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à la source du noyau pour permettre la liaison statique du pilote. Cette version comprend également la pris en charge des pilotes SR-IOV (Single Root I/O Virtualization). Vous trouverez ici des explications plus détaillées sur SR-IOV. Les pilotes suivants prennent en charge les périphériques de fonction virtuelle de la liste qui ne peuvent être activés que sur les noyaux qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée et la prise en charge du système d’exploitation. l Pilote Linux igbvf pour famille de cartes réseau Intel® Gigabit pour les familles de cartes réseau Gigabit avec contrôleurs 82575, 82576, I350 et I354 l Pilotes Linux ixgbevf pour famille de cartes 10 Gigabit Intel® pour famille de cartes 10 Gigabit 82599, X540 et X550 l Pilote Linux i40e pour famille de cartes réseau Intel® 10 Gigabit pour la famille de cartes réseau 10 Gigabit avec chipset X710 et de cartes réseau 40 Gigabit avec chipset XL710. REMARQUES : l Sur les systèmes fonctionnant sous Linux ou ESXi, le pilote de base doit être chargé pour que le microprogamme (FW) DUP Dell EMC fonctionne correctement. l Ce pilote i40e ne prend pas en charge SR-IOV sur ESXi 5.1. l Si vous prévoyez d'affecter directement des périphériques à une machine virtuelle sous Linux*, vous devez activer la prise en charge de l'unité de gestion de mémoire d'E/S (I/O Memory Management Unit, IOMMU) afin de garantir le bon fonctionnement de SR-IOV. Utilisez les paramètres d'amorçage du noyau "intel_iommu=on" et "iommu=pt" pour activer la prise en charge d'IOMMU. Pour optimiser la protection de la mémoire, utilisez "intel_iommu=on". Pour optimiser les performances, utilisez les deux paramètres ("intel_iommu=on iommu=p"). Ces paramètres peuvent être ajoutés à l'entrée CMDLINE__GRUB LINUX du fichier de configuration /etc/default/grub. Pour les systèmes utilisant le mode d'amorçage UEFI, exécutez grub2-mkconfig -o /etc/grub2-efi.cfg. Pour les systèmes amorcés en mode BIOS existant, exécutez grub2-mkconfig -o /boot/grub2/grub.cfg. Cartes prises en charge Les cartes réseau Intel suivantes sont compatibles avec les pilotes de cette version : Appareils pris en charge par le pilote de base igb pour Linux l l l l l l l l l l Carte Intel® Gigabit 4P X550/I350 rNDC Carte Intel® Gigabit 4P I350-t rNDC Carte Intel® Gigabit 4P X540/I350 rNDC Carte Intel® Gigabit 4P X520/I350 rNDC Carte mezzanine Intel® Gigabit 4P I350-t Carte Intel® Gigabit 4P X710/l350 rNDC Carte Intel® Gigabit 4P I350 bNDC Carte Intel® Gigabit 2P I350-t Carte réseau Intel® Gigabit 4P I350-t Fond de panier Connexion Ethernet Intel® I354 1.0 GbE l l l Carte Intel® Gigabit 2P I350-t LOM Carte Intel® Gigabit I350-t LOM Carte Intel® Gigabit 2P I350 LOM Appareils pris en charge par le pilote de base ixgbe pour Linux l l l l l l l l l l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 2P X550-t Carte réseau Ethernet Intel® 10G 4P X550 rNDC Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte Ethernet Intel® 10G 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Carte réseau Ethernet Intel® 10G 2P X520 Carte réseau Ethernet Intel® 10G X520 LOM Appareils pris en charge par le pilote de base i40e pour Linux l l l l l l l l l l l l l Carte réseau Ethernet Intel® 10G 4P X710-k bNDC Carte réseau Ethernet Intel® 10G 2P X710-k bNDC Carte réseau Ethernet Intel® 10G X710-k bNDC Carte réseau convergent Ethernet Intel® X710 Carte réseau convergent Ethernet Intel® X710-T Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Carte réseau Ethernet Intel® 10G X710 rNDC Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Carte réseau convergent Ethernet Intel® XL710-Q2 Carte réseau Ethernet Intel® 25G 2P XXV710 Carte mezzanine Ethernet Intel® 25G 2P XXV710 Pour vérifier si votre carte est prise en charge, recherchez son ID sur la carte. Recherchez une étiquette comportant un code à barres et un numéro au format 123456-001 (six chiffres, tiret, trois chiffres). Comparez le numéro à la liste cidessus. Pour obtenir de plus amples informations sur l’identification de votre carte ou pour obtenir les derniers pilotes réseau pour Linux, consultez l’Assistance à la clientèle. Versions Linux prises en charge Les pilotes pour Linux sont fournis pour les distributions suivantes (seules les versions Intel® 64 sont prises en charge) : Red Hat Enterprise Linux (RHEL) : l Red Hat* Enterprise Linux* (RHEL) 6.9 SLES Linux Enterprise Server (SUSE) : l Novell* SUSE* Linux Enterprise Server (SLES) 12 SP3 REMARQUE : les périphériques suivants prennent également en charge RHEL 7.3 x64 et SLES 12 SP2 x64. l Carte Intel® Gigabit 4P I350-t rNDC l Carte Intel® Gigabit 4P X550/I350 rNDC l Carte Intel® Gigabit 4P X710/I350 rNDC l Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC l Carte Ethernet Intel® 10G 4P X710/I350 rNDC Partitionnement NIC Sur les cartes réseau Intel® série 710 qui le prennent en charge, vous pouvez configurer plusieurs fonctions sur chaque port physique. Ces fonctions sont configurées au moyen de la Configuration système/BIOS. Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra allouer, en pourcentage de la vitesse totale de liaison du port physique. La bande passante allouée n'est jamais inférieure au niveau spécifié ici. La plage des valeurs de bande passante minimale 1 à ((100 moins le nombre de partitions sur le port physique) plus 1). Par exemple, si un port physique comporte 4 partitions, la plage serait 1 à ((100 - 4) + 1 = 97) La bande passante maximum représente la bande passante de transmission maximum de la partition sous la forme d'un pourcentage de la vitesse de liaison du port physique complet. La plage de valeurs acceptable va de 1 à 100. La valeur peut être utilisée comme limiteur si vous décidez qu'une fonction donnée ne pourra pas consommer la totalité (100 %) de la bande passante d'un port (en cas de disponibilité). La somme de toutes les valeurs de bande passante maximale n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port. REMARQUE : l Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres seront automatiquement ajustés de sorte qu'elle soit égale à 100. l Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale. l Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule tâche et assurez-vous que la somme des valeurs est égale à 100. Une fois la configuration initiale terminée, vous pouvez définir différentes allocations de bande passante pour chaque fonction de la manière suivante : 1. Créez un nouveau répertoire nommé /config 2. Modifiez etc/fstab pour inclure : configfs /config configfs defaults 3. Chargez (ou rechargez) le pilote i40e 4. Montez /config 5. Créez sous config un nouveau répertoire pour chaque partition pour laquelle vous souhaitez configurer la bande passante. Trois fichiers apparaissent dans le répertoire config/partition : - max_bw - min_bw - commit Lisez à partir de max_bw pour afficher le paramètre actuel de bande passante maximale. Écrivez dans max_bw pour fixer la bande passante maximale pour cette fonction. Lisez à partir de min_bw pour afficher le paramètre actuel de bande passante minimale. Écrivez dans min_bw pour fixer la bande passante minimale pour cette fonction. Écrivez un '1' pour confirmer l'enregistrement (commit) des modifications. REMARQUES : l Commit est en écriture seule. Toute tentative de lecture provoquera une erreur. l l l L'écriture dans commit n'est prise en charge que pour la première fonction d'un port donné. L'écriture pour une des fonctions suivantes provoquera une erreur. La réécriture de la bande passante minimale n'est pas prise en charge. Le NVM du périphérique sousjacent règle la bande passante maximale sur les valeurs prises en charge de manière indéterminée. Supprimez tous les répertoires sous config et rechargez-les pour voir quelles sont les valeurs réelles. Pour décharger le pilote, vous devez tout d'abord supprimer les répertoires créés à l'étape 5 ci-dessus. Exemple de réglage de la bande passante maximale et minimale (en supposant quatre fonctions sur le port eth6-eth9, et que eth6 soit la première fonction du port) : # mkdir /config/eth6 # mkdir /config/eth7 # mkdir /config/eth8 # mkdir /config/eth9 # echo 50 > /config/eth6/min_bw # echo 100 > /config/eth6/max_bw # echo 20 > /config/eth7/min_bw # echo 100 > /config/eth7/max_bw # echo 20 > /config/eth8/min_bw # echo 100 > /config/eth8/max_bw # echo 10 > /config/eth9/min_bw # echo 25 > /config/eth9/max_bw # echo 1 > /config/eth6/commit Pilote Linux* igb pour cartes réseau Intel® Gigabit Présentation des pilotes igb REMARQUE : dans un environnement virtualisé, la fonction virtuelle (VF) peut être sujette à un comportement malveillant sur les cartes réseau Intel® pour serveurs prenant en charge SR-IOV. Les deux trames de couche générées par le logiciel, comme IEEE 802.3x (contrôle de flux de liaison), IEEE 802.1Qbb (contrôle de flux basé sur des priorités) et les autres trames de ce type, ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes. REMARQUE : pour configurer l'étiquetage VLAN pour les ports d'une carte réseau activée pour SR-IOV, utilisez la commande suivante. La configuration de VLAN doit être effectuée avant le chargement du pilote VF ou l'amorçage de la machine virtuelle (VM). $ ip link set dev <id netdev PF> vf <id> vlan <id vlan> Par exemple, les instructions suivantes permettront de configurer PF eth0 et la première VF sur VLAN 10. $ ip link set dev eth0 vf 0 vlan 10. Ce fichier décrit le pilote de base Linux* pour Connexions réseau Intel® Gigabit reposant sur le contrôleur Intel® 82575EB, Intel® 82576, Intel® I350 et Intel® I354. Ce pilote prend en charge les versions de noyau 2.6.30 et ultérieures Ce pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à la source du noyau pour permettre la liaison statique du pilote. Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge : l Réseaux VLAN natifs l Channel Bonding (agrégation) L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité Channel Bonding est disponible dans la source du noyau Linux : /documentation/networking/bonding.txt Le pilote igb prend en charge l’horodatage IEEE sur les noyaux 2.6.30 et supérieurs. Le pilote igb prend en charge une vitesse de fonctionnement de 2,5 Gbit/s sur 2500BASE-KX pour les connexions réseau i354 uniquement. Utilisez ethtool, lspci ou ifconfig pour obtenir des informations sur le pilote. Les instructions de mise à jour d’ethtool se trouvent dans la section Configurations supplémentaires plus loin sur cette page. Appareils pris en charge par le pilote de base igb pour Linux Les cartes réseau Intel suivantes sont compatibles avec le pilote igb de cette version : l Carte Intel® Gigabit 4P X550/I350 rNDC l Carte Intel® Gigabit 4P I350-t rNDC l Carte Intel® Gigabit 4P X540/I350 rNDC l Carte Intel® Gigabit 4P X520/I350 rNDC l Carte mezzanine Intel® Gigabit 4P I350-t l Carte Intel® Gigabit 4P X710/l350 rNDC l Carte Intel® Gigabit 4P I350 bNDC l Carte Intel® Gigabit 2P I350-t l Carte réseau Intel® Gigabit 4P I350-t l Fond de panier Connexion Ethernet Intel® I354 1.0 GbE l Carte Intel® Gigabit 2P I350-t LOM l Carte Intel® Gigabit I350-t LOM l Carte Intel® Gigabit 2P I350 LOM Compilation et installation Il existe trois méthodes d’installation du pilote igb : l Installation à partir du code source l Installer à l’aide de RPM KMP l Installation à partir d’un fichier RPM KMOD Installation à partir du code source Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez <nomdefichier.tar.gz> par le nom de fichier spécifique du pilote. REMARQUE : l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de recompiler le noyau, redémarrez l’ordinateur maintenant. l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat. 1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/igb’ ou ’/usr/local/src/igb’. 2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version du paquetage du pilote : tar zxf igb-<x.x.x>.tar.gz 3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier du pilote : cd igb-<x.x.x>/src/ 4. Compilez le module du pilote : # make install Les instructions binaires sont installées comme suit : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/igb/igb.ko Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le fichier tar du pilote. 5. Installez le module à l’aide de la commande modprobe : modprobe igb Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes IGB sont supprimés du noyau, avant de charger le nouveau module : rmmod igb.ko; modprobe igb 6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au numéro d’interface : ifconfig eth<x> <adresse_IP> up 7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du même sous-réseau que l’interface soumis au test : ping <adresse_IP> REMARQUE : certains systèmes éprouvent des difficultés à traiter les interruptions MSI et/ou MSI-X. Si votre système doit désactiver ce type d’interruption, le pilote peut être compilé et installé avec la commande suivante : #make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install En temps normal, le pilote envoie une interruption toutes les deux secondes. Si les interruptions ne sont pas reçues dans cat /proc/interrupts pour le périphérique ethX e1000e, ce contournement peut s’avérer nécessaire. Pour créer un pilote igb avec DCA Si votre noyau prend en charge DCA, DCA est activé par défaut lorsque le pilote est compilé. Installer à l’aide de RPM KMP REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures. Les RPM KMP mettent à jour les RPM igb actuellement installés sur le système. Ces mises à jour sont fournies par SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas. Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : intel-<nom du composant>-<version du composant>.<type d’arch>.rpm Par exemple, intel-igb-1.3.8.6-1.x86_64.rpm : igb est le nom du composant ; 1.3.8.6-1 est la version du composant ; et x86_64 est le type d'architecture. Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM KMP inclus est : intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type d’arch>.rpm Par exemple, intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : igb est le nom du composant ; default est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est le numéro de version ; et x86_64 et le type d'architecture. Pour installer le RPM KMP, tapez les deux commandes suivantes : rpm -i <nom de fichier rpm> rpm -i <nom de fichier kmp rpm> Par exemple, pour installer le paquetage RPM KMP igb, tapez ce qui suit : rpm -i intel-igb-1.3.8.6-1.x86_64.rpm rpm -i intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm Installation à partir d’un fichier RPM KMOD Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm Par exemple, kmod-igb-2.3.4-1.x86_64.rpm : l igb est le nom du pilote l 2.3.4 est la version l x86_64 est le type d'architecture Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante : rpm -i <nom de fichier rpm> Par exemple, pour installer le package RPM KMOD igb depuis RHEL 6.4, tapez ce qui suit : rpm -i kmod-igb-2.3.4-1.x86_64.rpm Paramètres de ligne de commande Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de commande avec la commande modprobe et en utilisant la syntaxe suivante : modprobe igb [<option>=<VAL1>,<VAL2>,...] Une valeur (<VAL#>) doit être attribuée à chaque port réseau du système pris en charge par ce pilote. Les valeurs sont appliquées à chaque instance, en fonction de l'ordre. Par exemple : modprobe igb InterruptThrottleRate=16000,16000 Dans ce cas, deux ports réseau sont pris en charge par igb sur le système. La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire. Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe : Nom du paramètre Plages/valeurs valides InterruptThrottleRate 0, 1, 3, 100100000 (0=ddésactivé, 1=ddynamique, 3=dynamique conservatif) Valeur par défaut Description 3 Interrupt Throttle Rate (ITR) contrôle le nombre d'interruptions que chaque vecteur d'interruption peut générer par seconde. L’accroissement de la valeur ITR diminue la latence au dépend de l’utilisation du processeur, bien que cela puisse accélérer le débit dans certaines circonstances. 0 = Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des interruptions est désactivée, ce qui peut améliorer la latence des petits paquets. Cependant, cette valeur n'est généralement pas adaptée à un trafic important, en raison de l'utilisation plus importante du processeur lorsque le nombre des interruptions est plus élevé. REMARQUES : pour les cartes réseau reposant sur les contrôleurs 82599, X540 et X550, la désactivation d'InterruptThrottleRate entraînera également la désactivation de HW RSC par le pilote. - Pour les cartes réseau reposant sur le contrôleur 82598, la désactivation d'InterruptThrottleRate entraînera également la désactivation du délestage des grandes réceptions (Large Receive Offloads, LRO). 1 = En affectant au paramètre InterruptThrottleRate la valeur Mode dynamique, la carte réseau tente de modérer les interruptions par vecteur tout en maintenant une très faible latence. Cela peut parfois entraîner une utilisation de l'UC plus élevée. Si vous envisagez de déployer le pilote igb dans un environnement sensible à la latence, ce paramètre doit être pris en considération. <min_ITR>-<max_ITR> = 100-100000 En affectant au paramètre InterruptThrottleRate une valeur supérieure ou égale à <min_ITR>, la carte réseau est programmée pour envoyer ce nombre maximum d'interruptions par seconde, même s'il y a plus de paquets entrants. Cela réduit la charge d'interruptions sur le système et peut diminuer l'utilisation de l'unité centrale en cas de surcharge, mais augmente la latence car les paquets ne sont pas traités aussi rapidement. REMARQUE : cartes réseau non prises en charge : le paramètre InterruptThrottleRate N'EST PAS pris en charge par les cartes réseau reposant sur le contrôleur 82542, 82543 ou 82544. Nom du paramètre Plages/valeurs valides Valeur par défaut Description LLIPort 0-65535 0 (désactivé) LLIPort configure le port pour des interruptions à faible latence (LLI). Les interruptions à faible latence permettent la création immédiate d’une interruption lors du traitement de paquets de réception correspondant à certains critères définis par les paramètres ci-dessous. Les paramètres LLI ne sont pas activés lorsque les interruptions héritées sont utilisées. MSI ou MSI-X doivent être utilisés (voir cat /proc/interrupts) pour utiliser les LLI avec succès. Par exemple, l’utilisation de LLIPort-80 provoquerait l’envoi par la carte d’une interruption immédiate dès réception d’un paquet envoyé au port TCP 80 de la machine locale. ATTENTION : l’activation de LLI peut provoquer un nombre excessif d’interruptions/seconde avec pour conséquence des problèmes au niveau du système et, dans certains cas, une panique du noyau. LLIPush 0-1 0 (désactivé) LLIPush peut être paramétré sur activé ou désactivé (par défaut). Cette option est très efficace dans un environnement comportant de nombreuses petites transactions. REMARQUE : l’activation de LLIPush peut permettre une attaque par déni de service. LLISize 0-1500 0 (désactivé) LLISize provoque une interruption immédiate si la carte reçoit un paquet plus petit que la taille spécifiée. IntMode 0-2 2 Cela permet de contrôler le temps de chargement par rapport au type d’interruption enregistré par le pilote. MSI-X est requis pour la prise en charge de plusieurs files d’attente. Certains noyaux et certaines combinaisons d’options de configurations de noyau forceront un niveau de prise en charge inférieur des interruptions. ’cat/proc/interrupts’ affichera des valeurs différentes pour chaque type d’interruption. 0 = interruptions héritées 1 = interruptions MSI 2 = interruptions MSI-X (par défaut). RSS 0-8 1 0 = Attribue le plus petit des deux nombres entre celui des processeurs et celui des files. X = Attribue X file(s), où X est inférieur ou égal au nombre maximal de files d’attente. Le pilote autorise une valeur maximale de files d’attente prises en charge. Par exemple, les cartes réseau I350 autorisent RSS=8, 8 étant le nombre maximum de files autorisées. REMARQUE : le nombre maximal de files d'attente est 4 pour les cartes réseau reposant sur le contrôleur 82575, 8 pour les cartes réseau reposant sur le contrôleur 82576 et les cartes plus récentes, 4 pour les cartes réseau reposant sur le contrôleur i210 et 2 pour les cartes réseau reposant sur le contrôleur I211. Nom du paramètre Plages/valeurs valides Valeur par défaut Description Ce paramètre est également affecté par le paramètre VMDq car il limite davantage les files d'attente. VMDQ VMDQ 0-8 0 Modèle 0 1 2 3+ 82575 4 4 3 1 82576 8 2 2 2 82580 8 1 1 1 Cela permet l’activation de pools VMDq, ce qui est nécessaire pour la prise en charge de SR-IOV. Ce paramètre est forcé sur 1 ou plus si le paramètre de module max_vfs est utilisé. En outre, le nombre de files disponibles pour RSS est limité s’il est paramétré sur 1 ou plus. 0 = Désactivé 1 = Définit le netdev comme pool 0 2 ou plus = Ajouter des files d’attente supplémentaires. Néanmoins, celles-ci ne sont pas utilisées. REMARQUE : lorsque les modes SR-IOV ou VMDq sont activés, le filtrage de VLAN matériel et la suppression/insertion de balises VLAN restent activés. max_vfs 0-7 0 Ce paramètre assure la prise en charge SR-IOV. Il fait générer au pilote jusqu’à max_vfs de fonction virtuelle. Si la valeur est supérieure à 0, il force la valeur du paramètre VMDQ sur 1 ou plus. REMARQUE : lorsque les modes SR-IOV ou VMDq sont activés, le filtrage de VLAN matériel et la suppression/insertion de balises VLAN restent activés. Supprimez l'ancien filtre de VLAN avant d'ajouter le nouveau filtre de VLAN. Par exemple, ip link set eth0 vf 0 vlan 100 // définir vlan 100 pour VF 0 ip link set eth0 vf 0 vlan 0 // supprimer vlan 100 ip link set eth0 vf 0 vlan 200 // définir un nouveau vlan 200 pour VF 0 QueuePairs 0-1 1 Cette option peut être forcée en 1 si les interruptions disponibles ne sont pas suffisantes. Cela peut se produit si une combinaison de RSS, VMDQ et max_vfs résulte en l’utilisation de plus de 4 files. 0 = Si MSI-X est activé, les TX et RX tentent d’occuper des vecteurs distincts. 1 = TX et RX sont appariés sur un vecteur d’interruption (par défaut). Nom du paramètre Plages/valeurs valides Valeur par défaut Description Node (nœud) 0-n, ou n est le nombre de nœuds NUMA devant être utilisés pour allouer une mémoire à ce port d’adaptation. -1 (désactivé) Les paramètres du nœud vous permettent de choisir à partir de quel nœud NUMA vous désirez que l’adaptateur alloue la mémoire. Toutes les structures des pilotes, les files d’attentes mémorisées et mémoires tampons seront alloués au nœud spécifié. Ce paramètre n’est utile que lorsque l’affinité d’interruption est spécifiée, au cas contraire, l’interruption pourrait être exécutée pendant un moment sur une machine autre que celle sur laquelle la mémoire est allouée, ralentissant ainsi l’accès à la mémoire et ayant un impact sur le CPU ou les deux. 1 (activé) Cette option permet l’intégration d’IEEE802.3az, Energy Efficient Ethernet (EEE), devant être annoncés sur le site partenaire sur les équipements prenant en charge EEE. -1, utilise le pilote par défaut d’allocation de la mémoire sur n’importe quel processeur exécutant modprobe. EEE 0-1 Une liaison entre les deux périphériques compatibles EEE entraîne des paquets de données périodiques suivis de période en mode veille. Ce mode basse consommation (LPI) est pris en charge pour les vitesses de liaison 1 Gbit/s et 100 Mbit/s. REMARQUES : l La prise en charge EEE nécessite une négociation automatique. l la fonctionnalité EEE est désactivée par défaut sur les cartes I350. DMAC 0, 250, 500, 1000, 2000, 3000, 4000, 5000, 6000, 7000, 8000, 9000, 10000 0 (désactivé) Active ou désactive la fonction de coalition DMA. Les valeurs sont en microsecondes et augmentent le compteur interne de la fonction de coalition DMA. Le DMA (Direct Memory Access) permet au périphérique de réseau de déplacer directement les données de paquet vers la mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles aléatoires d’arrivée de paquets ne permettent pas au système d’entrer en mode faible consommation. La coalition DMA permet à la carte réseau de collecter des paquets avant de démarrer un événement DMA. La latence de réseau peut augmenter, ainsi que les chances que le système entre en mode faible consommation. L’activation de la coalition DMA peut permettre d’économiser de l’énergie avec le noyau 2.6.32 et version ultérieure. Votre système consommera ainsi moins d’énergie. La coalition DMA permet d’économiser potentiellement l’énergie de la plate-forme uniquement si elle est activée sur tous les ports actifs. La fonction InterruptThrottleRate (ITR) doit être définie en mode dynamique. Quand ITR=0, la coalition DMA est automatiquement désactivée. La meilleure configuration de votre plate-forme est expliquée dans un document disponible sur le site Web Intel. Nom du paramètre Plages/valeurs valides Valeur par défaut Description MDD 0-1 1 (activé) Le paramètre MDD (Malicious Driver Detection) n’est approprié que pour les périphériques I350 fonctionnant en mode SR-IOV. Quand ce paramètre est sélectionné, le pilote détecte un pilote VF malveillant et désactive ses files d’attente TX/RX jusqu’à ce qu’une réinitialisation du pilote VF se produise. Configurations supplémentaires Configuration du pilote sur des distributions différentes La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la distribution. Habituellement, le processus de configuration entraîne l'ajout d'une ligne d'alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, vous êtes invité à fournir le nom du pilote ou du module, le nom du pilote de base Red Hat Linux pour la famille de cartes Intel Gigabit est igb. Par exemple, si vous installez le pilote igb pour deux cartes Intel Gigabit (eth0 et eth1) et que vous définissez une vitesse et un duplex de 10 Full et 100 Half, ajoutez ce qui suit à modules.conf : alias eth0 igb alias eth1 igb options igb IntMode=2,1 Affichage des messages de liaison Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce qui suit : dmesg -n 8 REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Trames Jumbo La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut de 1500 octets. Utilisez la commande ifconfig pour augmenter la valeur MTU. Par exemple : ifconfig eth<x> mtu 9000 up Ce paramètre n’est pas sauvegardé lors des redémarrages. Ce paramètre peut être rendu permanent en ajoutant MTU = 9000 MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x>, dans les distributions Red Hat. Les autres distributions peuvent stocker ce paramètre à un autre emplacement. REMARQUES : l L’utilisation de trames Jumbo à des vitesses de 10 ou 100 Mbit/s pourrait résulter en une baisse des performances ou une perte de liaison. l Pour activer les trames Jumbo, définissez une taille MTU supérieure à 1 500 dans l’interface. l La taille maximale des trames Jumbo est 9234 octets, avec une taille MTU correspondante de 9216 octets. ethtool Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des informations statistiques. La version 3 de ethtool ou une version ultérieure est requise pour cette fonctionnalité, mais nous vous recommandons fortement de télécharger la dernière version à l'adresse : http://www.kernel.org/pub/software/network/ethtool/. Configuration de la vitesse et du mode duplex En mode par défaut, une carte réseau Intel® utilisant des connexions en cuivre tente de négocier automatiquement avec son partenaire de liaison afin de déterminer la meilleure configuration. Si la carte réseau ne parvient pas à établir de liaison avec son partenaire de liaison en utilisant la négociation automatique, vous devrez sans doute configurer manuellement la carte et le partenaire de liaison de manière identique afin d’établir la liaison et transmettre des paquets. Cette opération ne doit être exécutée que pour établir une liaison avec un commutateur ancien qui ne prend pas en charge la négociation automatique ou utilisant une vitesse ou un mode duplex particuliers. La configuration du partenaire de liaison doit correspondre à celle que vous avez choisie. Les cartes à fibres optiques fonctionnent uniquement en Full duplex et seulement à leur vitesse native. La vitesse et le duplex sont configurés à l'aide de l'utilitaire ethtool*. ethtool est inclus dans toutes les versions de Red Hat ultérieures à la version Red Hat 7.2. Pour les autres distributions Linux, téléchargez et installez ethtool depuis le site Web suivant : http://www.kernel.org/pub/software/network/ethtool/. ATTENTION : seul un administrateur réseau expérimenté devrait forcer manuellement la vitesse et le mode duplex. Les paramètres du commutateur doivent toujours concorder avec ceux de la carte. La carte sera sensiblement moins performante ou ne fonctionnera pas du tout si les paramètres de la carte diffèrent de ceux du commutateur. Activation de Wake on LAN* Wake on LAN (WoL) est configuré à l'aide de l'utilitaire ethtool*. ethtool est inclus dans toutes les distributions Red Hat ultérieures à la version Red Hat 7.2. Pour les autres distributions Linux, téléchargez et installez ethtool depuis le site Web suivant : http://www.kernel.org/pub/software/network/ethtool/. Pour obtenir des instructions sur l'activation de la fonctionnalité WoL avec ethtool, reportez-vous au site Web mentionné ci-dessus. WoL sera activé sur le système lors de sa prochaine fermeture ou de son prochain redémarrage. Pour cette version de pilote et pour activer la fonctionnalité WoL, le pilote igb doit être chargé avant l'arrêt ou la mise en veille du système. REMARQUES : l La fonctionnalité Wake on LAN est prise en charge uniquement sur le port A des périphériques dotés de plusieurs ports. l Wake On LAN n'est pas pris en charge sur la carte réseau pour serveur Intel® Gigabit VT Quad Port Server Adapter. Multiqueue Dans ce mode, un vecteur MSI-X distinct est attribué à chaque file d’attente, et un vecteur est attribué aux "autres" interruptions, telles qu’un changement d’état de la liaison et des erreurs. Toutes les interruptions sont limitées par la gestion des interruptions. La gestion des interruptions sert à éviter des perturbations d’interruptions lorsque le pilote traite une interruption. La valeur de gestion doit être au moins aussi importante que la durée prévue pour que le pilote traite une interruption. La fonction de file d’attente multiple est désactivée par défaut. La prise en charge de MSI-X est nécessaire pour la fonction de file d’attente multiple. Si MSI-X n'est pas détecté, le système se replie sur MSI ou sur les interruptions héritées. Ce pilote prend en charge les files d’attente multiples dans les versions de noyau 2.6.24 et supérieures et les files d’attente de réception multiples sur tous les noyaux prenant en charge MSI-X. REMARQUES : l N’utilisez pas MSI-X avec les noyaux 2.6.19 ou 2.6.20. Nous vous recommandons d’utiliser un noyau 2.6.21 ou ultérieur. l Certains noyaux nécessitent un redémarrage pour passer entre un mode de file d’attente unique et un mode à plusieurs files d’attente et vice versa. Large Receive Offload (LRO) Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit potentiellement l’utilisation du processeur pour les réceptions. REMARQUE : LRO nécessite un noyau 2.6.22 ou de version ultérieure. IGB_LRO est un indicateur de temps de compilation. Il peut être activé au moment de la compilation pour ajouter un soutien du pilote au LRO. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIGB_LRO" au fichier make lorsqu’il est compilé. Par exemple : # make CFLAGS_EXTRA="-DIGB_LRO" install Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool : l lro_aggregated - nombre total des paquets qui ont été combinés l lro_flushed - compte le nombre de paquets vidés du LRO l lro_no_desc - compte le nombre de fois où un descripteur LRO n’était pas disponible pour le paquet LRO REMARQUE : IPv6 et UDP ne sont pas pris en charge par LRO. IEEE 1588 Precision Time Protocol (PTP) Hardware Clock (PHC) Le protocole PTP (Precision Time Protocol) est une implémentation de la spécification IEEE 1588 permettant aux cartes réseau de synchroniser leurs horloges sur un réseau compatible PTP. Pour cela, une série de transactions de synchronisation et de notifications de délai est exécutée, permettant au daemon du logiciel d'implémenter un contrôleur PID pour synchroniser les horloges des cartes réseau. REMARQUE : PTP nécessite un noyau de version 3.0.0 ou ultérieure avec prise en charge PTP activée dans le noyau et un daemon de logiciel d'espace utilisateur. IGB_PTP est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation pour ajouter la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIGB_PTP" au fichier make lorsqu’il est compilé : make CFLAGS_EXTRA="-DIGB_PTP" install REMARQUE : le pilote ne peut pas être compilé si votre noyau ne prend pas en charge PTP. Vous pouvez vérifier que le pilote utilise PTP en consultant le journal système pour voir si l'enregistrement d'une horloge matérielle (PHC) a été tenté ou non. Si vous possédez un noyau et une version d'ethtool qui prennent en charge PTP, vous pouvez vérifier la prise en charge PTP dans le pilote en exécutant : ethtool -T ethX Fonction anti-arnaque MAC et VLAN Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis. Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande "dmesg") : Spoof event(s) detected on VF(n) Où n=VF ayant tenté l’intrusion malveillante. Configuration de l’adresse MAC, du VLAN et de la limite de taux utilisé par l’outil IProute2 Vous pouvez définir un adresse MAC pour la fonction virtuelle (VF), un VLAN par défaut et la limite du taux utilisant l’outil IProute2. Téléchargez la dernière version de l’outil iproute2 à partir de Sourceforge si votre version ne dispose pas des fonctions requises. Problèmes connus REMARQUE : si la connexion réseau Ethernet Intel® ne fonctionne pas après l'installation du pilote, vérifiez que vous avez installé le pilote correct. Les versions 2.0, 2.1 et 2.5 de la technologie d'administration active Intel® ne sont pas prises en charge pour une utilisation avec le pilote Linux. Changement inattendu de l'adresse MAC d'une fonction virtuelle Si l'adresse MAC d'une fonction virtuelle n'est pas assignée à l'hôte, le pilote de la fonction virtuelle (VF) utilisera une adresse MAC aléatoire. Cette adresse MAC aléatoire peut changer à chaque fois que le pilote VF est rechargé. Vous pouvez attribuer une adresse MAC statique dans la machine hôte. Cette adresse MAC statique sera conservée après le rechargement d'un pilote VF. Utilisation du pilote igb sur des noyaux 2.4 ou de version 2.6 plus anciens Compte tenu de la prise en charge limitée de PCI Express dans les noyaux de la version 2.4 et les noyaux plus anciens de la version 2.6, le pilote igb peut se heurter à des problèmes d'interruption sur certains systèmes, tels que des liaisons introuvables ou des blocages lors de l'invocation d'un périphérique. Nous vous recommandons d'utiliser les noyaux les plus récents de la version 2.6, car ils configurent correctement l'espace de configuration PCI Express de la carte et tous les ponts intervenants. Si vous devez utiliser un noyau 2.4, utilisez un noyau 2.4 plus récent que la version 2.4.30. Pour les noyaux 2.6, nous vous recommandons d'utiliser le noyau 2.6.21 ou une version plus récente. Autrement, sur les noyaux 2.6, vous pouvez désactiver la prise en charge MSI du noyau en démarrant avec l’option "pci=nomsi" ou en désactivant la prise en charge MSI du noyau de façon permanente en configurant le noyau avec la commande CONFIG_PCI_MSI unset. Une unité de transmission détectée se bloque sur les cartes réseau à quatre ports Dans certains cas, les ports 3 et 4 ne laissent pas passer le trafic et signalent des erreurs "Detected Tx Unit Hang" suivies des erreurs "NETDEV WATCHDOG: ethX: transmit timed out" (dépassement de délai d’ethX : dépassement de délai d’émission). Les ports 1 et 2 n’affichent aucune erreur et laissent passer le trafic. Le problème peut être résolu en effectuant une mise à jour vers les tous derniers noyaux et BIOS. Utilisez un SE qui prend totalement en charge les interruptions MSI (Message Signaled Interrupts) et assurez-vous que la fonctionnalité MSI est activée dans le BIOS de votre système. Compilation du pilote Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir : "Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h manquante) Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant : # make include/linux/version.h Dégradation des performances avec les trames Jumbo Une dégradation du débit peut être observée avec certaines trames Jumbo. Dans ce cas, il peut s’avérer utile d’augmenter la taille de socket de l’application et/ou les valeurs d’entrée de /proc/sys/net/ipv4/tcp_*mem. Reportez-vous au manuel de l'application en question et à /usr/src/linux*/Documentation/networking/ip-sysctl.txt pour de plus amples informations. Trames Jumbo sur un commutateur Foundry BigIron 8000 L’utilisation des trames Jumbo lorsqu’un commutateur Foundry BigIron 8000 est connecté pose un problème. Il s’agit d’une limitation d’une tierce partie. En cas de pertes de paquets, réduisez la taille de l’unité de transmission maximale (MTU). Plusieurs interfaces sur le même réseau de diffusion Ethernet En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non équilibré. Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant : echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter Ce processus fonctionne uniquement avec des noyaux de version supérieure à 2.4.5. REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Vous pouvez rendre la modification de configuration permanente en ajoutant la ligne suivante dans le fichier /etc/sysctl.conf : net.ipv4.conf.all.arp_filter = 1 Une autre solution consiste à installer les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné aux réseaux locaux virtuels). Désactiver le contrôle de flux de réception avec ethtool Pour désactiver le contrôle de flux de réception en utilisant ethtool, vous devez désactiver la négociation automatique sur la même ligne de commande : ethtool -A eth? autoneg off rx off Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution Sur les noyaux de versions 2.5.50 et plus récents, le clavier système ne répond plus (sauf à la commande Ctrl+Alt+Supp.) si le câble réseau est débranché alors que ethtool -p est en cours d'exécution. Le redémarrage du système semble être le seul recours. Problème de transmission du trafic sur les ports 1 et 2 en utilisant RHEL3 Il existe un problème de compatibilité matérielle connu sur certains systèmes avec les noyaux RHEL3. Le trafic sur les ports 1 et 2 peut être plus lent que prévu, et les délais ping, plus élevés que prévu. Le problème PEUT être résolu en effectuant une mise à jour vers les tout derniers noyaux et BIOS. Vous pouvez vérifier votre BIOS système en téléchargeant le Linux Firmware Developer Kit (kit de développement de microprogramme Linux) à l'adresse http://www.linuxfirmwarekit.org/. N'utilisez pas LRO lors de l'acheminement de paquets En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de l’acheminement de paquets. Erreur de création avec Asianux 3.0 - Redéfinition de typedef 'irq_handler_t' Certains systèmes peuvent éprouver des problèmes de création liés à la redéfinition de irq_handler_t. Pour résoudre ce problème, générez le pilote (étape 4 ci-dessus) en utilisant la commande : # make CFLAGS_EXTRA=-DAX_RELEASE_CODE=1 install Problèmes MSI-X avec les noyaux de versions 2.6.19 à 2.6.21 (comprise) Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre votre noyau à niveau. Erreurs d’allocation de la page de réception Des erreurs de type 'Échec d'allocation de page. ordre : 0' peuvent se produire en cas de montée en charge avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress. Sous RedHat 5.4-GA, le système peut se bloquer en cas de fermeture de la fenêtre de SE invité, après chargement/déchargement du pilote PF (Physical Function). Ne supprimez pas le pilote igb de Dom0 pendants que les VF (Virtual Function) sont attribuées aux invités. Les VF doivent utiliser la commande xm "pci-detach" pour le débranchement à chaud du périphérique VF de la VM à laquelle il est attribué ou alors fermer la VM. Le déchargement du pilote PF entraîne le redémarrage du système quand la machine virtuelle est en cours d’exécution et la VF est chargée sur la VM. Ne déchargez pas le pilote PF (igb) si les VF sont attribués aux hôtes. L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur l’invité Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives. Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système. Avant de décharger le pilote PF, vous devez d'abord vous assurer qu'aucune VF n'est encore active. Pour ce faire, arrêtez toutes les machines virtuelles et déchargez le pilote VF. Pilote Linux* igbvf pour cartes réseau Intel® Gigabit Présentation igbvf Ce pilote prend en charge les versions de noyau en amont 2.6.30 (ou supérieure) x86_64. Le pilote igbvf prend en charge les périphériques de fonction virtuelle basés sur les contrôleurs 82576 et I350 qui ne peuvent être activés que sur les noyaux qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée et la prise en charge du système d’exploitation. Le pilote igbvf a besoin du pilote igb, version 2.0 ou ultérieure. Le pilote igbvf prend en charge les fonctions virtuelles générées par le pilote igb avec une valeur max_vfs de 1 ou plus. Pour plus de détails sur le paramètre max_vfs, consultez la section traitant du pilote igb. Le système d’exploitation hôte chargeant le pilote igbvf doit prendre en charge les interruptions MSI-X. Actuellement, le pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions concernant la configuration matérielle, reportez-vous à la documentation accompagnant la carte Gigabit Intel. Toutes les configurations matérielles énumérées s’appliquent à une utilisation avec Linux. REMARQUE : pour les réseaux locaux virtuels, il existe une limite d'un total de 32 réseaux locaux virtuels partagés sur une VF ou plus. Appareils pris en charge par le pilote de base igbvf pour Linux Les cartes réseau Intel suivantes sont compatibles avec le pilote igbvf de cette version : l Carte Intel® Gigabit 4P X550/I350 rNDC l Carte Intel® Gigabit 4P I350-t rNDC l Carte Intel® Gigabit 4P X540/I350 rNDC l Carte Intel® Gigabit 4P X520/I350 rNDC l Carte mezzanine Intel® Gigabit 4P I350-t l Carte Intel® Gigabit 4P X710/l350 rNDC l Carte Intel® Gigabit 4P I350 bNDC l Carte Intel® Gigabit 2P I350-t l Carte réseau Intel® Gigabit 4P I350-t l Carte Intel® Gigabit 2P I350-t LOM l Carte Intel® Gigabit I350-t LOM l Carte Intel® Gigabit 2P I350 LOM Compilation et installation Il existe deux méthodes d’installation du pilote igbvf : l Installation à partir du code source l Installer à l’aide de RPM KMP Installation à partir du code source Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez <nomdefichier.tar.gz> par le nom de fichier spécifique du pilote. REMARQUE : pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de recompiler le noyau, redémarrez l’ordinateur maintenant. 1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/igbvf’ ou ’/usr/local/src/igbvf’. 2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version du paquetage du pilote : tar zxf igbvf-<x.x.x>.tar.gz 3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier du pilote : cd igbvf-<x.x.x>/src/ 4. Compilez le module du pilote : # make install Les instructions binaires sont installées comme suit : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/igbvf/igbvf.ko Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le fichier tar du pilote. 5. Installez le module à l’aide de la commande modprobe : modprobe igbvf Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes igbvf sont supprimés du noyau, avant de charger le nouveau module : rmmod igbvf.ko; modprobe igbvf 6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au numéro d’interface : ifconfig eth<x> <adresse_IP> up 7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du même sous-réseau que l’interface soumis au test : ping <adresse_IP> REMARQUE : certains systèmes éprouvent des difficultés à traiter les interruptions MSI et/ou MSI-X. Si votre système doit désactiver ce type d’interruption, le pilote peut être compilé et installé avec la commande suivante : #make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install En temps normal, le pilote envoie une interruption toutes les deux secondes. Si les interruptions ne sont pas reçues dans cat /proc/interrupts pour le périphérique ethX e1000e, ce contournement peut s’avérer nécessaire. Pour créer un pilote igbvf avec DCA Si votre noyau prend en charge DCA, DCA est activé par défaut lorsque le pilote est compilé. Installer à l’aide de RPM KMP REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures. Les RPM KMP mettent à jour les RPM igbvf actuellement installés sur le système. Ces mises à jour sont fournies par SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas. Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : intel-<nom du composant>-<version du composant>.<type d’arch>.rpm Par exemple, intel-igbvf-1.3.8.6-1.x86_64.rpm: igbvf est le nom du composant ; 1.3.8.6-1 est la version du composant ; et x86_64 est le type d'architecture. Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM KMP inclus est : intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type d’arch>.rpm Par exemple, intel-igbvf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: igbvf est le nom du composant ; default est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type d'architecture. Pour installer le RPM KMP, tapez les deux commandes suivantes : rpm -i <nom de fichier rpm> rpm -i <nom de fichier kmp rpm> Par exemple, pour installer le package RPM KMP igbvf, tapez ce qui suit : rpm -i intel-igbvf-1.3.8.6-1.x86_64.rpm rpm -i intel-igbvf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm Paramètres de ligne de commande Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de commande avec la commande modprobe et en utilisant la syntaxe suivante : modprobe igbvf [<option>=<VAL1>,<VAL2>,...] Une valeur (<VAL#>) doit être attribuée à chaque port réseau du système pris en charge par ce pilote. Les valeurs sont appliquées à chaque instance, en fonction de l'ordre. Par exemple : modprobe igbvf InterruptThrottleRate=16000,16000 Dans ce cas, deux ports réseau sont pris en charge par igb sur le système. La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire. Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe : Nom du paramètre Plages/valeurs valides InterruptThrottleRate 0, 1, 3, 100100000 (0=ddésactivé, 1=ddynamique, 3=dynamique conservatif) Valeur par défaut Description 3 Le pilote peut limiter le nombre d’interruptions par seconde générées par la carte pour les paquets entrants. Pour ce faire, il écrit une valeur sur la carte, basée sur le nombre maximum d’interruptions que la carte générera par seconde. En affectant au paramètre InterruptThrottleRate une valeur supérieure ou égale à 100, la carte est programmée pour envoyer ce nombre maximum d'interruptions par seconde, même s'il y a plus de paquets entrants. Cela réduit la charge d'interruptions sur le système et peut diminuer l'utilisation de l'unité centrale en cas de surcharge, mais augmente la latence car les paquets ne sont pas traités aussi rapidement. Le comportement par défaut du pilote prenait pour hypothèse que le paramètre InterruptThrottleRate possédait une valeur statique de 8000, ce qui fournissait une bonne valeur de secours pour tous les types de trafic, mais des performances médiocres concernant le traitement des paquets et la latence. Cependant, le matériel peut traiter beaucoup plus de paquets par seconde et c’est pourquoi un algorithme de gestion adaptative des interruptions a été implémenté. Le pilote possède deux modes adaptatifs (valeur 1 ou 3) avec lesquels il ajuste de façon dynamique la valeur InterruptThrottleRate en fonction du trafic qu’il reçoit. Après avoir déterminé le type de trafic entrant de la dernière tranche de temps, il ajuste la valeur InterruptThrottleRate à une valeur appropriée en fonction de ce trafic. Nom du paramètre Plages/valeurs valides Valeur par défaut Description L’algorithme trie le trafic entrant à chaque intervalle dans des classes. Une fois que la classe est déterminée, la valeur InterruptThrottleRate est ajustée afin de correspondre au mieux au type de trafic. Trois classes sont définies : "Bulk traffic" (Trafic en vrac), pour les grandes quantités de paquets de taille normale ; "Low latency" (Faible latence), pour les trafics de petite quantité et/ou un pourcentage important de petits paquets ; et "Lowest latency" (Plus faible latence), pour les trafics composés presque exclusivement de petits paquets et les très faibles trafics. En mode dynamique conservatif, la valeur InterruptThrottleRate est définie sur 4000 pour un trafic tombant dans la classe "Bulk traffic" (Trafic en vrac). Si le trafic appartient à la classe « Low latency » (Faible latence) ou « Lowest latency » (Plus faible latence), la valeur InterruptThrottleRate est augmentée progressivement jusqu'à 20 000. Ce mode par défaut est adapté à la plupart des applications. Dans les cas où une faible latence est essentielle, par exemple dans le cas de grappes ou de grilles d'ordinateurs, l'algorithme peut réduire encore la latence lorsque le paramètre InterruptThrottleRate est réglé sur le mode 1. Dans ce mode, qui fonctionne comme le mode 3, InterruptThrottleRate est augmenté progressivement jusqu'à 70 000 pour le trafic de la classe à plus faible latence. Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des interruptions est désactivée, ce qui peut améliorer la latence des petits paquets, mais n’est généralement pas adapté à un trafic important. REMARQUES : l Si le pilote ixgbevf est chargé avec les paramètres par défaut et que des cartes multiples sont utilisées. La limitation de requêtes d’interruption dynamique ne s’applique qu’aux cartes fonctionnant en mode MSI ou hérité, en utilisant une file d’attente de réception unique. l Si le pilote igbvf est chargé avec les paramètres par défaut et que des cartes multiples sont utilisées simultanément, le taux d’utilisation du processeur peut augmenter de façon non linéaire. Pour limiter le taux d’utilisation du processeur sans affecter la performance globale, chargez le pilote de la manière suivante : modprobe igbvf InterruptThrottleRate=3000,3000,3000 Cela définit le paramètre InterruptThrottleRate sur 3000 interruptions/s pour la première, deuxième et troisième instance du pilote. La plage comprise entre 2000 à 3000 interruptions par seconde fonctionne sur la plupart des systèmes et est un bon point de départ, mais la valeur optimale dépend toutefois de la plate-forme. Si le taux d’utilisation du processeur n’est pas un problème, utilisez les paramètres par défaut du pilote. Configurations supplémentaires Configuration du pilote sur des distributions différentes La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, vous êtes invité à fournir le nom du pilote ou du module, le nom du pilote de base Linux pour la famille de cartes Intel Gigabit est igbvf. Par exemple, si vous installez le pilote igbvf pour deux cartes Intel Gigabit (eth0 et eth1) et que vous définissez le mode d’interruption sur MSI-X et MSI, ajoutez ce qui suit à modules.conf ou /etc/modprobe.conf : alias eth0 igbvf alias eth1 igbvf options igbvf InterruptThrottleRate=3,1 Affichage des messages de liaison Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce qui suit : dmesg -n 8 REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Trames Jumbo La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut de 1500 octets. Utilisez la commande ifconfig pour augmenter la valeur MTU. Par exemple : ifconfig eth<x> mtu 9000 up Ce paramètre n’est pas sauvegardé lors des redémarrages. Ce paramètre peut être rendu permanent en ajoutant MTU = 9000 MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x>, dans les distributions Red Hat. Les autres distributions peuvent stocker ce paramètre à un autre emplacement. REMARQUES : l L’utilisation de trames Jumbo à des vitesses de 10 ou 100 Mbit/s pourrait résulter en une baisse des performances ou une perte de liaison. l Pour activer les trames Jumbo, définissez une taille MTU supérieure à 1 500 dans l’interface. l La taille maximale des trames Jumbo est 9234 octets, avec une taille MTU correspondante de 9216 octets. ethtool Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des informations statistiques. La version 3 de ethtool ou une version ultérieure est requise pour cette fonctionnalité, mais nous vous recommandons fortement de télécharger la dernière version à l'adresse : http://www.kernel.org/pub/software/network/ethtool/. Problèmes connus Compilation du pilote Lorsque vous essayez de compiler le pilote en exécutant la commande ’make install’, l’erreur suivante peut se produire : "Linux kernel source not configured - missing version.h" (source de noyau Linux non configurée - fichier version.h manquant) Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source du noyau Linux et en entrant : # make include/linux/version.h Plusieurs interfaces sur le même réseau de diffusion Ethernet En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non équilibré. Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant : echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter (fonctionne uniquement avec des noyaux de version supérieure à 2.4.5). REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Toutefois, pour rendre la modification de configuration permanente, utilisez l’une des méthodes suivantes : l Ajoutez la ligne suivante à /etc/sysctl.conf: net.ipv4.conf.all.arp_filter = 1 l Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné en réseaux VLAN). N’utilisez pas LRO lors de l’acheminement de paquets En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de l’acheminement de paquets. Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris) Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre votre noyau à niveau. Erreurs d’allocation de la page de réception Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress. Le déchargement du pilote PF entraîne le redémarrage du système quand VM est en cours d’exécution et VF est chargé sur le VM Ne déchargez pas le pilote PF (igb) si les VF sont attribués aux hôtes. L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur l’invité Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives. Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système. Pilote Linux* ixgbe pour cartes réseau Intel® 10 Gigabit pour serveurs Présentation des pilotes ixgbe ATTENTION : par défaut, le pilote ixgbe est conforme à la fonctionnalité Large Receive Offload (LRO) (Important délestage reçu) lorsqu’elle est activée. Cette option permet l’utilisation la plus réduite du processeur pour la réception mais est incompatible avec le transfert et le pontage de l’acheminement/ip. Si l’activation du transfert et du pontage ip est requise, il est nécessaire de désactiver LRO en utilisant les options de temps de compilation comme indiqué dans la section LRO plus bas dans cette section. La non désactivation de LRO alors que le transfert et le pontage ip sont activés peut entraîner un faible débit ou même une panique du noyau. REMARQUE : ne déchargez pas le pilote d'un port si une fonction virtuelle (VF) avec une machine virtuelle (VM) lui est associée. Autrement, le port semblerait se bloquer. L'exécution de la commande est terminée lorsque la machine virtuelle s'arrête, ou libère la VF. REMARQUE : dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes réseau Intel® pour serveurs prenant en charge SR-IOV. Les deux trames de couche générées par le logiciel, comme IEEE 802.3x (contrôle de flux de liaison), IEEE 802.1Qbb (contrôle de flux basé sur des priorités) et les autres trames de ce type, ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes. Ce fichier décrit le pilote de base Linux* pour cartes réseau 10 Gigabit des Connexions réseau Intel®. Ce pilote prend en charge les noyaux 2.6.x et versions ultérieures, ainsi que tous les systèmes pris en charge par Linux, y compris X86_64, i686 et PPC. Ce pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à la source du noyau pour permettre la liaison statique du pilote. Une version du pilote peut être déjà incluse dans votre distribution ou noyau. Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge : l Réseaux VLAN natifs l Channel Bonding (agrégation) l Délestage de réception générique l Pontage de centre de données L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité Channel Bonding est disponible dans la source du noyau Linux : /documentation/networking/bonding.txt Utilisez ethtool, lspci ou ifconfig pour obtenir des informations sur le pilote. Les instructions de mise à jour d’ethtool se trouvent dans la section Configurations supplémentaires plus loin sur cette page. Appareils pris en charge par le pilote de base ixgbe pour Linux Les cartes réseau Intel suivantes sont compatibles avec le pilote Linux de cette version : l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR l Carte réseau Ethernet Intel® 10G 2P X540-t l Carte réseau Ethernet Intel® 10G 2P X550-t l Carte réseau Ethernet Intel® 10G 4P X550 rNDC l Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC l Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC l Carte Ethernet Intel® 10G 4P X520/I350 rNDC l Carte réseau Ethernet Intel® 10G 2P X520-k bNDC l Carte réseau Ethernet Intel® 10G 2P X520 l Carte réseau Ethernet Intel® 10G X520 LOM Périphériques SFP+ avec câble optique enfichable REMARQUE : Pour les cartes à fibre optique SFP+ avec chipset 92500, l’utilisation de "ifconfig down" désactive le laser. "ifconfig up" active le laser. Voir Appareils SFP+ et QSFP+ pour plus d'informations. Compilation et installation Il existe trois méthodes d’installation du pilote Linux : l Installation à partir du code source l Installer à l’aide de RPM KMP l Installation à partir d’un fichier RPM KMOD Installation à partir du code source Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez <nomdefichier.tar.gz> par le nom de fichier spécifique du pilote. REMARQUES : l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de recompiler le noyau, redémarrez l’ordinateur maintenant. l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat. 1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/ixgbe’ ou ’/usr/local/src/ixgbe’. 2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version du paquetage du pilote : tar zxf ixgbe-<x.x.x>.tar.gz 3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier du pilote : cd ixgbe-<x.x.x>/src/ 4. Compilez le module du pilote : make install Les instructions binaires sont installées comme suit : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/ixgbe/ixgbe.ko Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le fichier tar du pilote. REMARQUE : IXGBE_NO_LRO est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation pour supprimer la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA=-"DIXGBE_NO_LRO" au fichier make lorsqu’il est compilé. Par exemple : make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install 5. Installez le module à l’aide de la commande modprobe pour le noyau 2.6.x : modprobe ixgbe <paramètre>=<valeur> Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes IGB sont supprimés du noyau, avant de charger le nouveau module : rmmod ixgbe; modprobe ixgbe 6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au numéro d’interface : ifconfig eth<x> <adresse_IP> netmask <masque réseau> 7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du même sous-réseau que l’interface soumis au test : ping <adresse_IP> Installer à l’aide de RPM KMP REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures. Les RPM KMP mettent à jour les RPM ixgbe actuellement installés sur le système. Ces mises à jour sont fournies par SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas. Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : intel-<nom du composant>-<version du composant>.<type d’arch>.rpm Par exemple, intel-ixgbe-1.3.8.6-1.x86_64.rpm : ixgbe est le nom du composant ; 1.3.8.6-1 est la version du composant ; et x86_64 est le type d'architecture. Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM KMP inclus est : intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type d’arch>.rpm Par exemple, intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : ixgbe est le nom du composant ; default est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type d'architecture. Pour installer le RPM KMP, tapez les deux commandes suivantes : rpm -i <nom de fichier rpm> rpm -i <nom de fichier kmp rpm> Par exemple, pour installer le package RPM KMP ixgbe, tapez ce qui suit : rpm -i intel-ixgbe-1.3.8.6-1.x86_64,rpm rpm -i intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm Installation à partir d’un fichier RPM KMOD Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm Par exemple, kmod-ixgbe-2.3.4-1.x86_64.rpm : l ixgbe est le nom du pilote l 2.3.4 est la version l x86_64 est le type d'architecture Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante : rpm -i <nom de fichier rpm> Par exemple, pour installer le package RPM KMOD ixgbe depuis RHEL 6.4, tapez ce qui suit : rpm -i kmod-ixgbe-2.3.4-1.x86_64.rpm Paramètres de ligne de commande Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de commande avec la commande modprobe et en utilisant la syntaxe suivante : modprobe ixgbe [<option>=<VAL1>,<VAL2>,...] Par exemple : modprobe ixgbe InterruptThrottleRate=16000,16000 La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire. Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe : Nom du paramètre Plages/valeurs Valeur par valides défaut Description RSS 0 - 16 La mise à l’échelle côté réception (Receive Side Scaling) permet l’existence de plusieurs files d’attente pour la réception des données. 1 0 = le nombre de files de descripteurs prend la valeur la plus basse entre 16 ou le nombre de CPU. 1 - 16 = le nombre de files de descripteurs prend la valeur indiquée entre 1 et 16. RSS affecte également le nombre des files d’attente de transmission affectées sur les noyaux 2.6.23 et plus récents en définissant la valeur CONFIG_NET_MULTIQUEUE dans le fichier .config du noyau. CONFIG_NETDEVICES_MULTIQUEUE est pris en charge uniquement sur les noyaux 2.6.23 à 2.6.26. Pour les noyaux 2.6.27 ou ultérieurs, d'autres options permettent d'activer les files d'attente multiples. REMARQUE : le paramètre RSS n’a aucune incidence sur les cartes avec chipset 82599 à moins que le paramètre FdirMode ne soit utilisé en même temps pour désactiver le Flow Director. Reportez-vous à la section Intel® Ethernet Flow Director pour plus de détails. Multiqueue 0, 1 1 Prise en charge de plusieurs files d’attente. 0 = Désactive la prise en charge de plusieurs files d’attente. 1 = Active la prise en charge de plusieurs files d’attente (condition préalable pour RSS). Direct Cache Access (DCA) 0, 1 0 = Désactive la prise en charge DCA dans le pilote 1 = Active la prise en charge DCA dans le pilote Si le pilote est activé pour le DCA, ce paramètre permet de contrôler le temps de chargement de la fonction. REMARQUE : DCA n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. IntMode 0-2 2 Le mode d’interruption contrôle le contrôle du temps de chargement autorisé sur le type d’interruption pour lequel le pilote est enregistré. MSI-X est exigé pour la prise en charge de plusieurs files d’attente et certains noyaux et combinaisons d’options de configurations de noyau forceront un niveau de prise en charge inférieur des interruptions. ’cat /proc/interrupts’ affiche différentes valeurs pour chaque type d’interruption. 0 = interruption héritée Nom du paramètre Plages/valeurs Valeur par valides défaut Description 1 = MSI 2 = MSIX InterruptThrottleRate 956 - 488, 281 (0=désactivé, 1=dynamique) 1 L'ITR (Interrupt Throttle Rate) contrôle le nombre d'interruptions que chaque vecteur d'interruption peut générer par seconde. L’accroissement de la valeur ITR diminue la latence au dépend de l’utilisation du processeur, bien que cela puisse accélérer le débit dans certaines circonstances. 0 = Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des interruptions est désactivée, ce qui peut améliorer la latence des petits paquets. Cependant, cette valeur n'est généralement pas adaptée à un trafic important, en raison de l'utilisation plus importante du processeur lorsque le nombre des interruptions est plus élevé. REMARQUES : pour les cartes réseau reposant sur les contrôleurs 82599, X540 et X550, la désactivation d'InterruptThrottleRate entraînera également la désactivation de HW RSC par le pilote. - Pour les cartes réseau reposant sur le contrôleur 82598, la désactivation d'InterruptThrottleRate entraînera également la désactivation du délestage des grandes réceptions (Large Receive Offloads, LRO). 1 = En affectant au paramètre InterruptThrottleRate la valeur Mode dynamique, la carte réseau tente de modérer les interruptions par vecteur tout en maintenant une très faible latence. Cela peut parfois entraîner une utilisation de l'UC plus élevée. Si vous envisagez de déployer le pilote igb dans un environnement sensible à la latence, ce paramètre doit être pris en considération. <min_ITR>-<max_ITR> = 100-100000 En affectant au paramètre InterruptThrottleRate une valeur supérieure ou égale à <min_ITR>, la carte réseau est programmée pour envoyer ce nombre maximum d'interruptions par seconde, même s'il y a plus de paquets entrants. Cela réduit la charge d'interruptions sur le système et peut diminuer l'utilisation de l'unité centrale en cas de surcharge, mais augmente la latence car les paquets ne sont pas traités aussi rapidement. LLI Les interruptions à faible latence permettent la création immédiate d’une interruption lors du traitement de paquets de réception correspondant à certains critères définis par les paramètres ci-dessous. Les paramètres LLI ne sont pas activés lorsque les interruptions héritées sont utilisées. MSI ou MSI-X doivent être utilisés (voir cat /proc/interrupts) pour utiliser les LLI avec succès. REMARQUE : LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. LLIPort 0 - 65535 0 (désactivé) LLI est configuré avec le paramètre de ligne de commande LLIPort, qui spécifie quel TCP doit générer les interruptions de faible latence. Par exemple, l’utilisation de LLIPort-80 provoquerait l’envoi par la carte d’une interruption immédiate dès réception d’un paquet envoyé au port TCP 80 de la machine locale. Nom du paramètre Plages/valeurs Valeur par valides défaut Description ATTENTION : l’activation de LLI peut provoquer un nombre excessif d’interruptions/seconde avec pour conséquence des problèmes au niveau du système et, dans certains cas, une panique du noyau. LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. LLIPush 0-1 0 (désactivé) LLIPush peut être paramétré sur activé ou désactivé (par défaut). Cette option est très efficace dans un environnement comportant de nombreuses petites transactions. REMARQUES : l l’activation de LLIPush peut permettre une attaque par déni de service. l LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. LLISize 0 - 1500 0 (désactivé) LLISize provoque une interruption immédiate si la carte reçoit un paquet plus petit que la taille spécifiée. REMARQUE : LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. LLIEType LLIVLANP Contrôle de flux 0 - x8FFF 0-7 0 (désactivé) Type de protocole Ethernet à interruption de faible latence. 0 (désactivé) Interruption à faible latence sur seuil de priorité de VLAN. REMARQUE : LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. REMARQUE : LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550. Le contrôle du flux est activé par défaut. Pour désactiver un partenaire de liaison capable de contrôle de flux, utilisez ethtool : ethtool -A eth? autoneg off rx off tx off REMARQUE : pour les cartes de fond de panier 82598 entrant en mode 1 Gbit/s, le comportement par défaut du contrôle de flux passe à désactivé. Sur ces périphériques, le contrôle de flux en mode 1 Gbit/s peut provoquer des problèmes de transmission. Intel® Ethernet Flow Director REMARQUE : les paramètres de Flow Director ne sont pris en charge que sur les noyaux de version 2.6.30 ou plus récente. Sur ces périphériques, le contrôle de flux en mode 1 Gbit/s peut provoquer des problèmes de transmission. Le Flow Director exécute les tâches suivantes : l Dirige les paquets reçus vers différentes files d'attente en fonction de leur flux. l Permet d'exercer un contrôle précis sur l'acheminement d'un flux dans la plate-forme. l Associe les flux et les cœurs de processeur pour l'affinité de flux. l Prend en charge plusieurs paramètres pour la clas- Nom du paramètre Plages/valeurs Valeur par valides défaut Description sification des flux flexibles et l'équilibrage de charge (en mode SFP uniquement). Un script inclus (set_irq_affinity) automatise la détermination des affinités des interruptions en fonction de l'UC. Le masque de Flow Director a le fonctionnement inverse du masque de sous-réseau. Dans la commande suivante : #ethtool -N eth11 flow-type ip4 src-ip 172.4.1.2 m 255.0.0.0 dst-ip 172.21.1.1 m 255.128.0.0 action 31 La valeur src-ip écrite dans le filtre sera 0.4.1.2, et non 172.0.0.0 comme on pouvait s'y attendre. De même, la valeur dst-ip écrite dans le filtre sera 0.21.1.1, et non 172.0.0.0. Autres commandes ethtool : Pour activer Flow Director ethtool -K ethX ntuple on Pour ajouter un filtre, utilisez le commutateur -U ethtool -U ethX flow-type tcp4 src-ip 192.168.0.100 action 1 Pour afficher la liste des filtres existants ethtool -u ethX Perfect Filter : Perfect filter est une interface permettant de charger la table de filtres qui dirige l’ensemble du flux dans la file d’attente queue_ 0, à moins qu’une autre file d’attente ne soit spécifiée à l’aide de la commande "action". Dans ce cas, le flux correspondant aux critères de filtrage sera dirigé vers la file d’attente appropriée. Virtual Function (VF) est prise en charge via le champ de données utilisateur. Vous devez mettre à jour la version d’ethtool conçue pour le noyau 2.6.40. Perfect Filter est pris en charge par tous les noyaux 2.6.30 et de version ultérieure. Les règles peuvent être effacées à partir du tableau. Sélectionnez "ethtool -U ethX delete N" (ethtool -U ethX efface N), N étant le numéro de règle à effacer. REMARQUE : les filtres Flow Director Perfect fonctionnent en mode file d’attente unique, quand SR-IOV est activé, ou quand DCB est activé. Si la file d’attente est définie sur -1, le filtre abandonnera les paquets correspondants. Pour prendre en compte les correspondances et manquements du filtre, deux statistiques existent dans ethtool : fdir_ match and fdir_miss. De plus, rx_queue_N_packets affiche le nombre de paquets traités par la file d’attente Nth. REMARQUES : l Receive Packet Steering (RPS) et Receive Flow Steering (RFS) ne sont pas compatibles avec Flow Director. Si Flow Director est activé, ils Nom du paramètre Plages/valeurs Valeur par valides défaut Description l l seront désactivés. Pour les masques de réseau local virtuel, seuls 4 masques sont pris en charge. Après avoir défini une règle, les champs et les masques doivent être identiques (si les masques sont spécifiés). Prise en charge d’UDP RSS Cette fonction ajoute un commutateur ON/OFF pour le hachage sur certains types de débit. Vous ne pouvez activer qu’UDP. Le paramètre par défaut est désélectionné. Le hachage d’activation/désactivation n’est pris en charge que sur les ports pour UDP over IPv4 (udp4) ou IPv6 (udp6). REMARQUE : les paquets fragmentés peuvent arriver déclassés quand la prise en charge RSS UDP est configurée. Commandes et options ethtool prises en charge -n --show-nfc Récupère les configurations de classification de débit de réseau reçues. rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 Récupère les options de hachage pour le type de trafic de réseau spécifié. -N --config-nfc Configure la classification du débit de réseau reçu. rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r... Configure les options de hachage pour le type de trafic de réseau spécifié. udp4 UDP sur IPv4 udp6 UDP sur IPv6 f hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx. n hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx. Ce qui suit est un exemple utilisant udp4 (UDP over IPv4) : Pour inclure les numéros de port UDP dans un hachage RSS, exécutez : ethtool -N eth1 rx-flow-hash udp4 sdfn Pour exclure les numéros de port UDP d’un hachage RSS, exécutez : ethtool -N eth1 rx-flow-hash udp4 sd Nom du paramètre Plages/valeurs Valeur par valides défaut Description Pour afficher la configuration actuelle du hachage UDP, exécutez : ethtool -n eth1 rx-flow-hash udp4 Les résultats de cet appel, si le hachage UDP est activé, sont les suivants : Les débits UDP over IPv4 utilisent ces champs pour calculer le débit de hachage : IP SA IP DA L4 bytes 0 & 1 [TCP/UDP src port] L4 bytes 2 & 3 [TCP/UDP dst port] Les résultats avec un hachage UDP désactivé : Les débits UDP over IPv4 utilisent ces champs pour calculer le débit de hachage : IP SA IP DA Les deux paramètres suivants affectent Flow Director : FdirPballoc et AtrSampleRate. FdirPballoc 0-2 0 (64k) Taille de tampon de paquet allouée par le flux. 0 = 64k 1 = 128k 2 = 256k AtrSampleRate 1 - 100 20 Taux d’échantillonnage logiciel des paquets de transmission ATR. Par exemple, lorsque ce paramètre est défini sur 20, un échantillon est pris tous les 20 paquets pour déterminer si le paquet va créer un nouveau flux. Nom du paramètre Plages/valeurs Valeur par valides défaut Description max_vfs 1 - 63 Ce paramètre assure la prise en charge SR-IOV. Il fait générer au pilote jusqu’à max_vfs de fonction virtuelle. 0 Si la valeur est supérieure à 0, il force la valeur du paramètre VMDq sur 1 ou plus. REMARQUE : lorsque les modes SR-IOV ou VMDq sont activés, le filtrage de VLAN matériel et la suppression/insertion de balises VLAN restent activés. Supprimez l'ancien filtre de VLAN avant d'ajouter le nouveau filtre de VLAN. Par exemple : ip link set eth0 vf 0 vlan 100 // définir vlan 100 pour VF 0 ip link set eth0 vf 0 vlan 0 // supprimer vlan 100 ip link set eth0 vf 0 vlan 200 // définir un nouveau vlan 200 pour VF 0 Ce paramètre est utilisé uniquement sur un noyau 3.7.x et inférieur. Sur un noyau 3.8.x et supérieur, utilisez sysfs pour activer les VF. Par ailleurs, ce paramètre est uniquement utilisé sur la version 6.6 et supérieure pour les distributions Red Hat. Pour la version 6.7 et supérieure, utilisez sysfs. Par exemple : #echo $num_vf_enabled > /sys/class/net/$dev/device/sriov_numvfs //enable VFs #echo 0 > /sys/class/net/$dev/device/sriov_ numvfs //disable VFs Les paramètres du pilote sont référencés par position. En conséquence, si vous avez une carte 2 ports basée sur le chipset 82599 et que vous voulez N fonctions virtuelles par port, vous devez spécifier un nombre pour chaque port, chaque paramètre étant séparé par une virgule. Par exemple : modprobe ixgbe max_vfs=63,63 REMARQUE : si des cartes 82598 et 82599 sont installées sur le même ordinateur, vous devez faire attention lorsque vous chargez le pilote avec les paramètres. En fonction de la configuration du système, du nombre de connecteurs, etc., il est impossible de prédire dans tous les cas où se trouveront les positions sur la ligne de commande et l’utilisateur devra spécifier zéro aux positions occupées par un port 82598. Avec le noyau 3.6, le pilote prend en charge l’utilisation simultanée de max_vfs et des fonctions DCB, dans les limites des contraintes détaillées ci-dessous. Avant le noyau 3.6, le pilote ne prenait pas en charge l’exploitation simultanée de max_vfs > 0 et des fonctions DCB (multiplicité des classes de trafic utilisant Priority Flow Control et Extended Transmission Selection). Nom du paramètre Plages/valeurs Valeur par valides défaut Description Lorsque DCB est activé, le trafic réseau est envoyé et reçu par l’intermédiaire de plusieurs classes de trafic (tampons de paquets dans la carte d’interface réseau). Le trafic est associé à une classe spécifique en fonction de sa priorité, laquelle a une valeur comprise entre 0 et 7 qui est utilisée dans la balise VLAN. Lorsque SR-IOV n’est pas activé, chaque classe de trafic est associée à un ensemble de paires de files de descripteurs RX/TX. Le nombre de paires de files d’attente pour une classe de trafic donnée dépend de la configuration du matériel. Lorsque SR-IOV est activé, les paires de files de descripteurs sont regroupées en pools. À la fonction physique (PF) et à chaque fonction virtuelle (VF) est alloué un pool de paires de files de descripteurs RX/TX. Lorsque plusieurs classes de trafic sont configurées (cas, par exemple, lorsque DCB est activé), chaque pool contient une paire de files provenant de chaque classe de trafic. Lorsqu’une seule classe de trafic est configurée sur le matériel, les pools contiennent plusieurs paires de files provenant de cette classe unique. Le nombre de VF pouvant être allouées dépend du nombre de classes de trafic pouvant être activées. Le nombre configurable de classes de trafic pour chaque VF activée est le suivant : 0 - 15 VF = jusqu’à 8 classes de trafic, selon ce que permet le périphérique 16 - 31 VF = jusqu’à 4 classes de trafic 32 - 63 = 1 classe de trafic Lorsque des VF sont configurées, un seul pool est alloué à la PF. Le PF prend en charge les fonctionnalités DCB avec cette contrainte que chaque classe de trafic n’utilisera qu’une seule paire de files. Lorsque zéro VF est configurée, le PF peut prendre en charge plusieurs paires de files par classe de trafic. L2LBen 0-1 LRO 0-1 1 (activé) Ce paramètre contrôle le commutateur interne (bouclage L2 entre pf et vf). Le commutateur est activé par défaut. 0=désactivé, 1=activé Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit potentiellement l’utilisation du processeur pour les réceptions. Cette technique est également appelée coalition matérielle des paquets entrants (HW RSC). Les cartes réseau reposant sur les contrôleurs 82599, X540 et X550 prennent en charge HW RSC. Le paramètre LRO contrôle l'activation de HW RSC. Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool : l hw_rsc_aggregated - compte le nombre total des paquets combinés l hw_rsc_flushed - compte le nombre de paquets vidés Nom du paramètre Plages/valeurs Valeur par valides défaut Description du LRO REMARQUE : IPv6 et UDP ne sont pas pris en charge par LRO. EEE 0-1 0 = Désactive la fonctionnalité EEE 1 = Active la fonctionnalité EEE Une liaison entre les deux périphériques compatibles EEE entraîne des paquets de données périodiques suivis de période en mode veille. Ce mode basse consommation inactif (Low Power Idle, LPI) est pris en charge pour les vitesses de liaison de 1 Gbit/s et 10 Gbit/s. REMARQUES : l La prise en charge EEE nécessite une négociation automatique. Les deux partenaires de liaison doivent prendre en charge la technologie EEE. l La technologie EEE n'est pas pris en charge sur tous les périphériques réseau Ethernet Intel® ni à toutes les vitesses de connexion. DMAC 0, 41-10000 Ce paramètre active ou désactive la fonction de coalition DMA. Les valeurs sont en microsecondes et définissent le compteur interne de la fonction de coalition DMA. DMAC est disponible sur les cartes réseau reposant sur le contrôleur Intel® X550 (et version ultérieure). Le DMA (Direct Memory Access) permet au périphérique de réseau de déplacer directement les données de paquet vers la mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles aléatoires d’arrivée de paquets ne permettent pas au système d’entrer en mode faible consommation. La coalition DMA permet à la carte réseau de collecter des paquets avant de démarrer un événement DMA. La latence de réseau peut augmenter, ainsi que les chances que le système entre en mode faible consommation. L'activation de la coalition DMA peut permettre d'économiser de l'énergie avec le noyau 2.6.32 et version ultérieure. La coalition DMA doit être activée sur tous les ports actifs afin d'économiser la puissance de la plate-forme. La fonction InterruptThrottleRate (ITR) doit être définie en mode dynamique. Quand ITR=0, la coalition DMA est automatiquement désactivée. La meilleure configuration de votre plateforme est expliquée dans un document disponible sur le site Web Intel. MDD 0-1 1 (activé) Le paramètre MDD (Malicious Driver Detection) n'est approprié que pour les périphériques fonctionnant en mode SR-IOV. Quand ce paramètre est sélectionné, le pilote détecte un pilote VF malveillant et désactive ses files d’attente TX/RX jusqu’à ce qu’une réinitialisation du pilote VF se produise. Configurations supplémentaires Configuration du pilote sur des distributions différentes La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est demandé, le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est ixgbe. Affichage des messages de liaison Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce qui suit : dmesg -n 8 REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Trames Jumbo La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut de 1500 octets. La valeur MTU maximale est 9 710. Utilisez la commande ifconfig pour augmenter la valeur MTU. Entrez, par exemple, la commande suivante, où <x> est le numéro d’interface : ifconfig ethx mtu 9000 up Ce paramètre n’est pas sauvegardé lors des redémarrages. La modification du paramètre peut être permanente en ajoutant MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x> pour RHEL ou au fichier /etc/sysconfig/network/<config_file> pour SLES. Le paramètre MTU maximal pour les trames Jumbo est 9 710. Cette valeur correspond à la taille maximale des trames Jumbo, qui est de 9 728. Ce pilote tentera d'utiliser des tampons de tailles différentes pour recevoir chaque paquet Jumbo. Cela aide à éviter les problèmes de famine de tampon lors de l’allocation des paquets de réception. Pour les connexions réseau 82599, si vous activez les trames Jumbo dans une fonction virtuelle (VF), les trames Jumbo doivent d'abord être activées dans la fonction physique (PF). Le paramètre MTU VF ne peut pas être supérieur au paramètre MTU PF. ethtool Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité. La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel. NAPI Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote ixgbe. Consultez la page https://wiki.linuxfoundation.org/networking/napi pour en savoir plus sur le NAPI. Large Receive Offload (LRO) Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit potentiellement l’utilisation du processeur pour les réceptions. IXGBE_NO_LRO est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation pour supprimer la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIXGBE_NO_ LRO" au fichier make lorsqu’il est compilé. make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool : l lro_flushed - le nombre total de réceptions utilisant LRO. l lro_coal - compte le nombre total de paquets Ethernet ayant été combinés. HW RSC (Coalition matérielle des paquets entrants) Les cartes basées sur le chipset 82599 prennent en charge la coalition matérielle des paquets entrants (RSC) qui peut fusionner plusieurs trames du même flux IPv4 TCP/IP en une structure unique pouvant s’étendre sur plusieurs descripteurs. Cette fonctionnalité fonctionne de manière similaire à la technique LRO logicielle. Par défaut, HW RSC est activé et la technique SW LRO ne peut pas être utilisée sur les cartes 82599 à moins que HW RSC soit désactivé. IXGBE_NO_HW_RSC est un indicateur de temps de compilation pouvant être activé au moment de la compilation pour supprimer la prise en charge HW RSC du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIXGBE_ NO_HW_RSC" au fichier make lorsqu’il est compilé. make CFLAGS_EXTRA="-DIXGBE_NO_HW_RSC" install Vous pouvez vérifier que le pilote utilise HW RSC en consultant les compteurs dans ethtool : hw_rsc_count - compte le nombre total de paquets Ethernet ayant été combinés. rx_dropped_backlog En mode non Napi (ou Interruption), ce compteur indique que la pile ignore des paquets. Il existe un paramètre réglable dans la pile permettant de régler la taille de la file d’attente. Nous vous recommandons d’augmenter le paramètre netdev_max_backlog si la valeur du compteur s’élève. # sysctl -a |grep netdev_max_backlog net.core.netdev_max_backlog = 1000 # sysctl -e net.core.netdev_max_backlog=10000 net.core.netdev_max_backlog = 10000 Contrôle de flux Le contrôle de flux est désactivé par défaut. Pour l’activer, utilisez ethtool : ethtool -A eth? autoneg off rx on tx on REMARQUE : vous devez disposer d’un partenaire de liaison capable de contrôle de flux. Fonction anti-arnaque MAC et VLAN Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis. Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande "dmesg") : ixgbe ethx: ixgbe_spoof_check: n spoofed packets detected Quand x=PF interface# et n=VF ayant tenté l’intrusion malveillante. REMARQUE : cette fonctionnalité peut être désactivée pour une fonction virtuelle (VF) spécifique. Prise en charge d’UDP RSS Cette fonction ajoute un commutateur ON/OFF pour le hachage sur certains types de débit. Le paramètre par défaut est désélectionné. REMARQUE : les paquets fragmentés peuvent arriver déclassés quand la prise en charge RSS UDP est configurée. Commandes et options ethtool prises en charge -n --show-nfc Récupère les configurations de classification de débit de réseau reçues. rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 Récupère les options de hachage pour le type de trafic de réseau spécifié. -N --config-nfc Configure la classification du débit de réseau reçu. rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r... Configure les options de hachage pour le type de trafic de réseau spécifié. udp4 UDP over IPv4 udp6 UDP over IPv6 f hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx. n hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx. Problèmes connus REMARQUE : si la connexion réseau Ethernet Intel® ne fonctionne pas après l'installation du pilote, vérifiez que vous avez installé le pilote correct. Les versions 2.0, 2.1 et 2.5 de la technologie d'administration active Intel® ne sont pas prises en charge pour une utilisation avec le pilote Linux. Changement inattendu de l'adresse MAC d'une fonction virtuelle Si l'adresse MAC d'une fonction virtuelle n'est pas assignée à l'hôte, le pilote de la fonction virtuelle (VF) utilisera une adresse MAC aléatoire. Cette adresse MAC aléatoire peut changer à chaque fois que le pilote VF est rechargé. Vous pouvez attribuer une adresse MAC statique dans la machine hôte. Cette adresse MAC statique sera conservée après le rechargement d'un pilote VF. Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (comprise) Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre à niveau votre noyau. Incompatibilité de LRO et de iSCSI LRO n’est pas comptatible avec la cible iSCSI ou le trafic de l’initiateur. Une situation de panique peut se produire en cas de réception du trafic iSCSI via le pilote ixgbe alors que le délestage LRO est activé. Pour contourner ce problème, le pilote doit être construit et installé avec : # make CFLAGS_EXTRA=-DIXGBE_NO_LRO install Plusieurs interfaces sur le même réseau de diffusion Ethernet En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non équilibré. Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant : echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter Ce processus fonctionne uniquement avec des noyaux de version supérieure à 2.4.5. REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Vous pouvez rendre la modification de configuration permanente en ajoutant la ligne suivante dans le fichier /etc/sysctl.conf : net.ipv4.conf.all.arp_filter = 1 Une autre solution consiste à installer les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné aux réseaux locaux virtuels). Problème de perte de paquet lors du test de montée en charge UDP Sous la montée en charge UDP de petits paquets avec le pilote ixgbe, le système peut abandonner des paquets UDP à la suite de la saturation des tampons de sockets. Vous pouvez résoudre le problème en réglant les variables Contrôle de flux du pilote sur la valeur minimale. Vous pouvez également essayer d'augmenter les tailles de tampon par défaut du noyau en modifiant les valeurs sous /proc/sys/net/core/rmem_default et rmem_max Les réinitialisations du port Cisco Catalyst 4948-10GE peuvent entraîner la fermeture des ports par le commutateur Le matériel basé sur le contrôleur 82598 peut rétablir rapidement la liaison et, lorsqu’il est connecté à certains commutateurs, les réinitialisations rapides dans le pilote peuvent entraîner l’isolation du port du commutateur en raison d’un "link flap". Cette condition est habituellement indiquée par un témoin de liaison de couleur jaune plutôt que verte. Plusieurs opérations peuvent causer ce problème, telles que l’exécution répétée de commandes ethtool entraînant une réinitialisation. Un contournement potentiel consiste à utiliser la commande Cisco IOS "no errdisable detect cause all" depuis l’invite de configuration globale, qui permet au commutateur de garder les interfaces en fonctionnement, sans tenir compte des erreurs. Erreurs d’allocation de la page de réception Des erreurs de type 'Échec d'allocation de page. ordre : 0' peuvent se produire en cas de montée en charge avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress. DCB : le délestage de segmentation générique cause des problèmes d’allocation de bande passante lorsqu’il est activé Pour que DCB fonctionne correctement, GSO (Generic Segmentation Offload, appelé également TSO logiciel) doit être désactivé à l'aide de ethtool. Comme le matériel prend en charge TSO (délestage matériel de la segmentation), GSO n'est pas exécuté par défaut. L’état de GSO peut être obtenu à l’aide d’ethtool avec ethtool -k ethX. Lorsque vous utilisez des connexions réseau basées sur le chipset 82598, le pilote ixgbe prend en charge seulement 16 files d'attente sur une plate-forme comportant plus de 16 cœurs. En raison de limitations matérielles connues, RSS peut filtrer au maximum 16 files d’attente de réception. Les connexions réseau reposant sur les contrôleurs 82599, X540 et X550, prennent en charge jusqu'à 64 files d'attente. Performances inférieures aux attentes Certains connecteurs PCIe x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une bande passante insuffisante pour les débits de ligne avec des périphériques à 2 et 4 ports. En outre, si vous placez une carte réseau compatible PCIe Generation 3 sur un connecteur PCIe Generation 2, vous n'obtiendrez pas la totalité de la bande passante. Le pilote détecte cette situation et écrit le message suivant dans le journal système : "PCI-Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8 PCI-Express slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir des performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé). Si cette erreur se produit, placez la carte dans un véritable connecteur PCIe Generation 3 x8 pour résoudre le problème. Il est possible qu'ethtool affiche incorrectement un module SFP+ Fiber comme un câble à fixation directe En raison de limitations du noyau, le type de port ne peut être affiché correctement que sur les noyaux 2.6.33 ou de versions supérieures. Sous Redhat 5.4, le système peut se bloquer en cas de fermeture de la fenêtre de SE invité, après le chargement/déchargement du pilote PF (Physical Function). Ne supprimez pas le pilote ixgbe de Dom0 pendant que les VF (fonctions virtuelles) sont attribuées aux invités. Les VF doivent utiliser la commande xm "pci-detach" pour le débranchement à chaud du périphérique VF de la VM à laquelle il est attribué ou alors fermer la VM. Le déchargement du pilote PF entraîne le redémarrage du système quand la machine virtuelle (VM) est en cours d’exécution et la VF est chargée sur la VM. Sur les noyaux antérieurs à la version 3.2, le déchargement du pilote PF entraîne le redémarrage du système lorsque la machine virtuelle est en cours d’exécution et la VF est chargée sur la VM. Ne déchargez pas le pilote PF (ixgbe) si les VF sont attribuées aux invités. L'exécution de la commande ethtool -t ethX cause des plantages entre la PF et le client de test Lorsqu’il y a des VF actifs, la commande "ethtool -t" n’exécutera qu’un test de lien. Le pilote enregistrera également dans le syslog que les VF devraient être arrêtées pour effectuer un test complet de diagnostic. Impossible d’obtenir le bail DHCP au démarrage avec Red Hat Dans les configurations où la négociation automatique prend plus de cinq secondes, le script de démarrage risque d'échouer avec le message suivant : "ethX: failed. No link present. Check cable?" Cette erreur peut se produire même si la présence de lien peut être confirmée en utilisant ethtool ethx. Dans ce cas, essayez de définir "LINKDELAY=30" dans /etc/sysconfig/network-scripts/ifdfg-ethx. Le même problème peut se produire pendant un démarrage réseau (via PXE) sur les distributions RedHat qui utilisent le script dracut : "Attention : aucune porteuse détectée sur l'interface <nom_interface>" Dans ce cas, ajoutez "rd.net.timeout.carrier=30" à la ligne de commande du noyau. REMARQUE : la durée du lien peut varier. Ajustez la valeur de LINKDELAY en conséquence. L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur l’invité Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives. Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système. Avant de décharger le pilote PF, vous devez d'abord vous assurer qu'aucune VF n'est encore active. Pour ce faire, arrêtez toutes les machines virtuelles et déchargez le pilote VF. Problèmes de mémoire insuffisante sur les systèmes IA32 Le pilote peut consommer beaucoup de mémoire en fonction du nombre de processeurs et d'interfaces réseau. Cela conduit à la segmentation de la mémoire. Le pilote ne peut donc pas toujours allouer suffisamment de mémoire. Pour résoudre ce problème, réduisez le nombre de descripteurs en utilisant ethtool -G ou le nombre de files d'attente via le paramètre RSS. Les balises VLAN sont supprimées sur les noyaux antérieurs à la version 2.6.36 Pour prendre en charge DCB, les noyaux antérieurs à la version 2.6.36 suppriment les balises VLAN pour VLAN0. Cette opération garantit la connectivité à l'aide de trames 802.1p entre les noyaux qui disposent d'une prise en charge intégrée et les noyaux qui n'en disposent pas. Si les balises VLAN sont nécessaires ET que DCB N'EST PAS utilisé, désactivez la suppression VLAN sur les anciens noyaux au moment de la création, en entrant la commande suivante : # make CFLAGS_EXTRA=-DIXGBE_DISABLE_8021P_SUPPORT Pilote Linux* ixgbevf pour cartes réseau Intel® 10 Gigabit pour serveurs Présentation ixgbevf SR-IOV est pris en charge par le pilote ixgbevf, qui doit être chargé aussi bien sur l’hôte que sur les VM. Ce pilote prend en charge les versions de noyau en amont 2.6.30 (ou supérieure) x86_64. Le pilote ixgbevf prend en charge les appareils de fonction virtuelle 82599, X540 et X550 qui ne peuvent être activés que sur les noyaux qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée et la prise en charge du système d’exploitation. Le pilote ixgbevf a besoin du pilote ixgbe, version 2.0 ou ultérieure. Le pilote ixgbevf prend en charge les fonctions virtuelles générées par le pilote ixgbe avec une valeur max_vfs de 1 ou plus. Pour plus de détails sur le paramètre max_ vfs, consultez la section traitant du pilote ixgbe. Le système d’exploitation hôte chargeant le pilote ixgbevf doit prendre en charge les interruptions MSI-X. Actuellement, le pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions concernant la configuration matérielle, reportez-vous à la documentation accompagnant la carte Intel 10GbE. Toutes les configurations matérielles énumérées s’appliquent à une utilisation avec Linux. Cartes prises en charge par le pilote de base ixgbevf pour Linux Les cartes réseau Intel suivantes sont compatibles dans cette version avec le pilote Linux ixgbevf et elles peuvent prendre en charge jusqu’à 63 fonctions virtuelles par port. l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR l Carte réseau Ethernet Intel® 10G 2P X540-t l Carte réseau Ethernet Intel® 10G 2P X550-t l Carte réseau Ethernet Intel® 10G 4P X550 rNDC l Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC l Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC l Carte Ethernet Intel® 10G 4P X520/I350 rNDC l Carte réseau Ethernet Intel® 10G 2P X520-k bNDC l Carte réseau Ethernet Intel® 10G 2P X520 l Carte réseau Ethernet Intel® 10G X520 LOM Systèmes d’exploitation compatibles SR-IOV l l l l Citrix XenServer 6.0 avec Red Hat Enterprise Linux VMWare* ESXi* 6.0 U3 Red Hat* Enterprise Linux* (RHEL) 6.9 Novell* SUSE* Linux Enterprise Server (SLES) 12 SP3 Compilation et installation Pour activer SR-IOV sur votre système : 1. La virtualisation et SR-IOV doivent être activés dans le BIOS. 2. Installez le système d’exploitation Linux. Pour vérifier que le pilote KVM est chargé, tapez : lsmod | grep -i kvm. 3. Chargez le pilote de base Linux à l’aide de la commande modprobe : modprobe ixgbe option max_ vfs=xx,yy xx et yy étant le nombre de fonctions virtuelles que vous voulez créer. Vous devez spécifier un numéro pour chaque port, chacun des paramètres étant séparé par une virgule. Par exemple, xx est le nombre des fonctions virtuelles du port 1 et yy, du port 2. Vous pouvez créer jusqu'à 63 fonctions par port. 4. Compilez et installez le pilote ixgbevf pour SR-IOV. Le pilote est chargé par rapport aux fonctions virtuelles qui ont été créées. REMARQUE : pour les réseaux locaux virtuels, il existe une limite d’un total de 32 VLAN partagés sur 1 ou plusieurs fonctions virtuelles. Il existe trois méthodes d’installation du pilote Linux : l Installation à partir du code source l Installer à l’aide de RPM KMP l Installation à partir d’un fichier RPM KMOD Installation à partir du code source Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez <nomdefichier.tar.gz> par le nom de fichier spécifique du pilote. REMARQUES : l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de recompiler le noyau, redémarrez l’ordinateur maintenant. l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat. 1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/ixgbevf’ ou ’/usr/local/src/ixgbevf’. 2. Déballez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version du tar du pilote : tar zxf ixgbevf-<x.x.x>.tar.gz 3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier du pilote : cd ixgbevf-<x.x.x>/src/ 4. Compilez le module du pilote : make install Les instructions binaires sont installées en tant que : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/ixgbevf/ixgbevf.ko Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le fichier tar du pilote. 5. Installez le module à l’aide de la commande modprobe pour le noyau 2.6.x : modprobe ixgbevf <paramètre>=<valeur> Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes ixgbevf sont supprimés du noyau, avant de charger le nouveau module : rmmod ixgbevf; modprobe ixgbevf 6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au numéro d’interface : ifconfig eth<x> <adresse_IP> netmask <masque réseau> 7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du même sous-réseau que l’interface soumis au test : ping <adresse_IP> Installer à l’aide de RPM KMP REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures. Les RPM KMP mettent à jour les RPM ixgbevf actuellement installés sur le système. Ces mises à jour sont fournies par SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas. Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : intel-<nom du composant>-<version du composant>.<type d’arch>.rpm Par exemple, intel-ixgbevf-1.3.8.6-1.x86_64.rpm : ixgbevf est le nom du composant ; 1.3.8.6-1 est la version du composant ; et x86_64 est le type d'architecture. Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM KMP inclus est : intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type d’arch>.rpm Par exemple, intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : ixgbevf est le nom du composant ; default est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type d'architecture. Pour installer le RPM KMP, tapez les deux commandes suivantes : rpm -i <nom de fichier rpm> rpm -i <nom de fichier kmp rpm> Par exemple, pour installer le package ixgbevf KMP RPM, tapez ce qui suit : rpm -i intel-ixgbevf-1.3.8.6-1.x86_64.rpm rpm -i intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm Installation à partir d’un fichier RPM KMOD Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm Par exemple, kmod-ixgbevf-2.3.4-1.x86_64.rpm : l ixgbevf est le nom du pilote. l 2.3.4 est la version l x86_64 est le type d'architecture Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante : rpm -i <nom de fichier rpm> Par exemple, pour installer le package RPM KMOD ixgbevf depuis RHEL 6.4, tapez ce qui suit : rpm -i kmod-ixgbevf-2.3.4-1.x86_64.rpm Paramètres de ligne de commande Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de commande avec la commande modprobe et en utilisant la syntaxe suivante : modprobe ixgbevf [<option>=<VAL1>,<VAL2>,...] Par exemple : modprobe ixgbevf InterruptThrottleRate=16000,16000 La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire. Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe : Nom du paramètre Plages/ valeurs valides Valeur par défaut InterruptThrottleRate 0, 1, 956 - 488, 8000 281 (0=ddésactivé, 1=ddynamique) Description Le pilote peut limiter le nombre d’interruptions par seconde générées par la carte pour les paquets entrants. Pour ce faire, il écrit une valeur sur la carte, basée sur le nombre maximum d’interruptions que la carte générera par seconde. En affectant au paramètre InterruptThrottleRate une valeur supérieure ou égale à 100, la carte est programmée pour envoyer ce nombre maximum d'interruptions par seconde, même s'il y a plus de paquets entrants. Cela réduit la charge d'interruptions sur le système et peut diminuer l'utilisation de l'unité centrale en cas de surcharge, mais augmente la latence car les paquets ne sont pas traités aussi rapidement. Le comportement par défaut du pilote prenait pour hypothèse que le paramètre InterruptThrottleRate possédait une valeur statique de 8000, ce qui fournissait une bonne valeur de secours pour tous les types de trafic, mais des performances médiocres concernant le traitement des paquets et la latence. Cependant, le matériel peut traiter beaucoup plus de paquets par seconde et c’est pourquoi un algorithme de gestion adaptative des interruptions a été implémenté. Le pilote possède un mode adaptatif (valeur 1) avec lequel il ajuste de façon dynamique la valeur InterruptThrottleRate en fonction du trafic qu’il reçoit. Après avoir déterminé le type de trafic entrant de la dernière tranche de temps, il ajuste la valeur InterruptThrottleRate à une valeur appropriée en fonction de ce trafic. L’algorithme trie le trafic entrant à chaque intervalle dans des classes. Une fois que la classe est déterminée, la valeur InterruptThrottleRate est ajustée afin de correspondre au mieux au type de trafic. Trois classes sont définies : "Bulk traffic" (Trafic en vrac), pour les grandes quantités de paquets de taille normale ; "Low latency" (Faible latence), pour les trafics de petite quantité et/ou un pourcentage important de petits paquets ; et "Lowest latency" (Plus faible latence), pour les trafics composés presque exclusivement de petits paquets et les très faibles trafics. En mode dynamique conservatif, la valeur InterruptThrottleRate est définie sur 4000 pour un trafic tombant dans la classe "Bulk traffic" (Trafic en vrac). Si le trafic appartient à la classe « Low latency » (Faible latence) ou « Lowest latency » (Plus faible latence), la valeur InterruptThrottleRate est augmentée progressivement jusqu'à 20 000. Ce mode par défaut est adapté à la plupart des applications. Nom du paramètre Plages/ valeurs valides Valeur par défaut Description Dans les cas où une faible latence est essentielle, par exemple dans le cas de grappes ou de grilles d'ordinateurs, l'algorithme peut réduire encore la latence lorsque le paramètre InterruptThrottleRate est réglé sur le mode 1. Dans ce mode, InterruptThrottleRate est augmenté progressivement jusqu'à 70 000 pour le trafic de la classe à plus faible latence. Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des interruptions est désactivée, ce qui peut améliorer la latence des petits paquets, mais n’est généralement pas adapté à un trafic important. REMARQUES : l Si le pilote ixgbevf est chargé avec les paramètres par défaut et que des cartes multiples sont utilisées. La limitation de requêtes d’interruption dynamique ne s’applique qu’aux cartes fonctionnant en mode MSI ou hérité, en utilisant une file d’attente de réception unique. l Si le pilote ixgbevf est chargé avec les paramètres par défaut et que des cartes multiples sont utilisées simultanément, le taux d’utilisation du processeur peut augmenter de façon non linéaire. Pour limiter le taux d’utilisation du processeur sans affecter la performance globale, chargez le pilote de la manière suivante : modprobe ixgbevf InterruptThrottleRate=3000,3000,3000 Cela définit le paramètre InterruptThrottleRate sur 3000 interruptions/s pour la première, deuxième et troisième instance du pilote. La plage comprise entre 2000 à 3000 interruptions par seconde fonctionne sur la plupart des systèmes et est un bon point de départ, mais la valeur optimale dépend toutefois de la plate-forme. Si le taux d’utilisation du processeur n’est pas un problème, utilisez les paramètres par défaut du pilote. REMARQUES : l pour plus de détails sur le paramètre InterruptThrottleRate, reportez-vous au site http://www.intel.com/design/network/applnots/ap450.htm. l un descripteur décrit un tampon de données et les attributs qui lui sont liés. Le matériel accède à ces informations. Configurations supplémentaires Configuration du pilote sur des distributions différentes La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est demandé, le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est ixgbevf. Affichage des messages de liaison Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce qui suit : dmesg -n 8 REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. ethtool Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité. La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel. MACVLAN ixgbevf prend en charge MACVLAN sur ces noyaux ayant la fonction comprise. La prise en charge du noyau pour MACVLAN peut être testée en vérifiant si le pilote MACVLAN est chargé. L’utilisateur peut exécuter ’lsmod | grep macvlan’ pour vérifier si le pilote MACVLAN est chargé ou exécuter ’modprobe macvlan’ pour essayer de charger le pilote MACVLAN. La mise à jour vers une version plus récente du package iproute2 peut s’avérer nécessaire pour obtenir la prise en charge de MACVLAN via la commande ’ip’. NAPI Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote ixgbevf et est toujours activé. Consultez la page https://wiki.linuxfoundation.org/networking/napi pour en savoir plus sur le NAPI. Problèmes connus REMARQUE : si la connexion réseau ne fonctionne pas après l’installation du pilote, vérifiez que vous avez installé le pilote correct. Compilation du pilote Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir : "Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h manquante) Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant : make include/linux/version.h Plusieurs interfaces sur le même réseau de diffusion Ethernet En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non équilibré. Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant : echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter (ceci ne fonctionne que si la version du noyau est postérieure à 2.4.5), ou installez les interfaces dans des domaines de diffusion différents. REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. La modification de la configuration peut être rendue permanente en ajoutant la ligne : net.ipv4,conf.all.arp_filter= 1 au fichier /etc/sysctl.conf ou Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné aux réseaux locaux virtuels). Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris) Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre votre noyau à niveau. Erreurs d’allocation de la page de réception Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress. L’hôte peut redémarrer après la suppression de la PF lorsque des VF sont actives sur l’invité Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives. Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système. Pilote Linux* i40e pour la famille de cartes réseau Intel X710 Ethernet Controller Présentation d'i40e REMARQUE : le noyau suppose que TC0 est disponible, et désactive le contrôle de flux des priorités (Priority Flow Control - PFC) sur le périphérique si TC0 n'est pas disponible. Pour résoudre ce problème, vérifiez que TC0 est activé lorsque vous configurez DCB sur votre commutateur. REMARQUE : si le lien à la fonction physique (PF) est interrompu, vous pouvez forcer l'activation du lien (à partir de la fonction physique de l'hôte) sur toutes les fonctions virtuelles (VF) liées à la PF. Cette procédure nécessite la prise en charge du noyau (noyau Redhat 3.10.0-327 ou version ultérieure, noyau en amont 3.11.0 ou version ultérieure, et prise en charge de l'espace utilisateur iproute2 associé). Si la commande suivante ne fonctionne pas, il est possible que votre système ne la prenne pas en charge. La commande suivante force l'activation de la liaison sur VF 0 liée à la PF eth0 : ip link set eth0 vf 0 state enable REMARQUE : ne déchargez pas le pilote d'un port si une fonction virtuelle (VF) avec une machine virtuelle (VM) active lui est associée. Autrement, le port semblerait se bloquer. L'exécution de la commande se termine lorsque la machine virtuelle s'arrête, ou libère la VF. REMARQUE : dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes réseau Intel® pour serveurs prenant en charge SR-IOV. Les deux trames de couche générées par le logiciel, comme IEEE 802.3x (contrôle de flux de liaison), IEEE 802.1Qbb (contrôle de flux basé sur des priorités) et les autres trames de ce type, ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes. Le pilote de base i40e Linux* pour la famille de cartes réseau Ethernet X710/XL710 prend en charge les noyaux 2.6.32 et versions ultérieures, et inclut la prise en charge des systèmes x86_64 gérés par Linux. Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge : l Encapsulation VXLAN l Réseaux VLAN natifs l Channel Bonding (agrégation) l Délestage de réception générique l Pontage de centre de données L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité Channel Bonding est disponible dans la source du noyau Linux : /Documentation/networking/bonding.txt Utilisez ethtool, lspci ou iproute2's ip pour obtenir des informations sur le pilote. Les instructions de mise à jour d'ethtool se trouvent dans la section Configurations supplémentaires. Appareils pris en charge par le pilote de base i40e pour Linux Les cartes réseau Intel suivantes sont compatibles avec ce pilote : l Carte réseau Ethernet Intel® 10G 4P X710-k bNDC l Carte réseau Ethernet Intel® 10G 2P X710-k bNDC l Carte réseau Ethernet Intel® 10G X710-k bNDC l Carte réseau convergent Ethernet Intel® X710 l Carte réseau convergent Ethernet Intel® X710-T l Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC l Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC l Carte réseau Ethernet Intel® 10G X710 rNDC l Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP l Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC l l l Carte réseau convergent Ethernet Intel® XL710-Q2 Carte réseau Ethernet Intel® 25G 2P XXV710 Carte mezzanine Ethernet Intel® 25G 2P XXV710 Périphériques SFP+ avec câble optique enfichable REMARQUE : pour les cartes à fibre optique SFP+, l’utilisation de "ifconfig down" désactive le laser. "ifconfig up" active le laser. Voir Appareils SFP+ et QSFP+ pour plus d'informations. Compilation et installation Il existe trois méthodes d’installation du pilote Linux : l Installation à partir du code source l Installer à l’aide de RPM KMP l Installation à partir d’un fichier RPM KMOD Installation à partir du code source Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez <nomdefichier.tar.gz> par le nom de fichier spécifique du pilote. REMARQUES : l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de recompiler le noyau, redémarrez l’ordinateur maintenant. l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat. 1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/i40e’ ou ’/usr/local/src/i40e’. 2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version du paquetage du pilote : tar zxf i40e-<x.x.x>.tar.gz 3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier du pilote : cd i40e-<x.x.x>/src/ 4. Compilez le module du pilote : make install Le binaire sera installé en tant que : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/i40e/i40e.ko Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le fichier tar du pilote. 5. Installez le module à l’aide de la commande modprobe : modprobe i40e <paramètre>=<valeur> Assurez-vous que les anciens pilotes i40e sont supprimés du noyau, avant de charger le nouveau module : rmmod i40e ; modprobe i40e 6. Affectez une adresse IP à l’interface Ethernet et activez celle-ci en entrant la commande suivante, où <x> correspond au nom d’interface : ifconfig <ethx> <adresse_IP> netmask <masque réseau> up 7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du même sous-réseau que l’interface soumis au test : ping <adresse_IP> Installer à l’aide de RPM KMP REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures. Les RPM KMP mettent à jour les RPM i40e actuellement installés sur le système. Ces mises à jour sont fournies par SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas. Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : intel-<nom du composant>-<version du composant>.<type d’arch>.rpm Par exemple, intel-i40e-1.3.8.6-1.x86_64.rpm:i40e est le nom du composant ; 1.3.8.6-1 et la version du composant ; et x86_64 est le type d'architecture. Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM KMP inclus est : intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type d’arch>.rpm Par exemple, intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:i40e est le nom du composant ; default (par défaut) est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type d'architecture. Pour installer le RPM KMP, tapez les deux commandes suivantes : rpm -i <nom de fichier rpm> rpm -i <nom de fichier kmp rpm> Par exemple, pour installer le package RPM KMP i40e, tapez ce qui suit : rpm -i intel-i40e-1.3.8.6-1.x86_64.rpm rpm -i intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm Installation à partir d’un fichier RPM KMOD Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus est : kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm Par exemple, kmod-i40e-2.3.4-1.x86_64.rpm : l i40e est le nom du pilote l 2.3.4 est la version l x86_64 est le type d'architecture Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante : rpm -i <nom de fichier rpm> Par exemple, pour installer le package RPM KMOD i40e depuis RHEL 6.4, tapez ce qui suit : rpm -i kmod-i40e-2.3.4-1.x86_64.rpm Paramètres de ligne de commande En général, ethtool et les autres commandes spécifiques au SE sont utilisées pour configurer les paramètres modifiables par l'utilisateur après le chargement du pilote. Le pilote i40e ne prend en charge le paramètre de noyau max_ vfs kernel que sur les anciens noyaux qui n'ont pas d'interface sysfs standard. Le seul autre paramètre du module est le paramètre debug qui peut commander la verbosité de la journalisation par défaut du pilote. Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de commande avec la commande modprobe et en utilisant la syntaxe suivante : modprobe i40e [<option>=<VAL1>] Par exemple : modprobe i40e max_vfs=7 La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire. Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe : Nom du paramètre Plages/valeurs valides Valeur par défaut Description max_vfs 1 - 63 0 Ce paramètre assure la prise en charge SR-IOV. Il fait générer au pilote jusqu’à max_vfs de fonction virtuelle. REMARQUES : l Ce paramètre est utilisé uniquement sur un noyau 3.7.x et inférieur. Sur un noyau 3.8.x et supérieur, utilisez sysfs pour activer les VF. Par ailleurs, ce paramètre est uniquement utilisé sur la version 6.6 et supérieure pour les distributions Red Hat. Pour la version 6.7 et supérieure, utilisez sysfs. Par exemple : #echo $num_vf_enabled > /sys/class/net/$dev/device/sriov_ numvfs //enable VFs #echo 0 > /sys/class/net/$dev/device/sriov_numvfs l ip // ip // ip // //disable VFs Lorsque le mode SR-IOV est activé, le filtrage de VLAN matériel et la suppression/l'insertion de balises VLAN restent activés. Supprimez l'ancien filtre de VLAN avant d'ajouter le nouveau filtre de VLAN. Par exemple : link set eth0 vf 0 vlan 100 set vlan 100 for VF 0 link set eth0 vf 0 vlan 0 Delete vlan 100 link set eth0 vf 0 vlan 200 set a new vlan 200 for VF 0 Les paramètres du pilote sont référencés par position. En conséquence, si vous avez une carte 2 ports ou si votre système est équipé de plusieurs cartes réseau et que vous voulez N fonctions virtuelles par port, vous devez spécifier un nombre pour chaque port, chaque paramètre étant séparé par une virgule. Par exemple : modprobe i40e max_vfs=4 Cela va générer 4 VF sur le premier port. modprobe i40e max_vfs=2,4 Cela va générer 2 VF sur le premier port et 4 VF sur le deuxième port. Vous devez faire attention lorsque vous chargez le pilote avec ces paramètres. En fonction de la configuration du système, du nombre de connecteurs, etc., il est impossible de prédire dans tous les cas où se trouveront les positions sur la ligne de commande. Ni le périphérique ni le pilote ne peuvent contrôler le mappage des VF dans l'espace de configuration. La disposition du bus varie en fonction du système d'exploitation. Sur les systèmes d'exploitation qui prennent cette fonction en charge, vous pouvez consulter sysfs pour trouver le mappage. Nom du paramètre Plages/valeurs valides Valeur par défaut Description Certaines configurations matérielles prennent en charge moins d'instances SR-IOV, puisque le contrôleur XL710 entier (toutes les fonctions) est limité à un total de 128 interfaces SR-IOV. Régulation des paquets de balise VLAN Permet d'envoyer tous les paquets dotés d'une balise VLAN spécifique à une fonction virtuelle (VF) SR-IOV spécifique. De plus, cette fonction vous permet de désigner une VF comme fiable, et permet à cette VF fiable de demander un mode promiscuous (mode de proximité) sélectif sur la fonction physique (PF). Pour définir une VF comme fiable ou non fiable, entrez la commande suivante dans l'hyperviseur : # ip link set dev eth0 vf 1 trust [on|off] Une fois la VF désignée comme fiable, utilisez les commandes suivantes dans la machine virtuelle pour définir la VF en mode promiscuous. Pour toutes les communications en mode promiscuous : #ip link set eth2 promisc on Où eth2 représente une interface VF dans la machine virtuelle (VM) Pour le multicast en mode promiscuous : #ip link set eth2 allmulticast on Où eth2 représente une interface VF dans la machine virtuelle REMARQUE : par défaut, le paramètre ethtool priv-flag vftrue-promisc-support est réglé sur "off" (désactivé), signifiant que le mode promiscuous pour la VF sera limité. Pour définir le mode promiscuous (mode de proximité) de la VF sur "true promiscuous" et permettre à la VF de voir tout le trafic entrant, utilisez la commande suivante. #ethtool -set-priv-flags p261p1 vf-true-promisc-support on Le paramètre vf-true-promisc-support priv-flag n'active pas le mode promiscuous ; il désigne le type de mode promiscuous (limited ou true) [limité ou vrai] que vous obtenez lorsque vous activez le mode promiscuous en utilisant les commandes ip link ci-dessus. Il s'agit d'un paramètre global qui affecte l'ensemble du périphérique. Cependant, le paramètre vf-truepromisc-support priv-flag affecte uniquement la première fonction physique (PF) du périphérique. La fonction physique (PF) reste limitée en mode promiscuous (sauf en mode MFP), quel que soit le paramètre vf-true-promisc-support. Ajoutez maintenant une interface VLAN sur l'interface VF. #ip link add link eth2 name eth2.100 type vlan id 100 L'ordre dans lequel vous définissez la VF en mode promiscuous et ajoutez l'interface VLAN n'a aucune d'importance (vous pouvez commencer par l'opération de votre choix). Le résultat final de cet exemple est que la VF reçoit tout le trafic marqué par la balise VLAN 100. Nom du paramètre Intel® Ethernet Flow Director Plages/valeurs valides Valeur par défaut Description REMARQUE : les paramètres de Flow Director ne sont pris en charge que sur les noyaux de version 2.6.30 ou plus récente. Sur ces périphériques, le contrôle de flux en mode 1 Gbit/s peut provoquer des problèmes de transmission. Flow Director exécute les tâches suivantes : l Dirige les paquets reçus vers différentes files d'attente en fonction de leur flux. l Permet d'exercer un contrôle précis sur l'acheminement d'un flux dans la plate-forme. l Associe les flux et les cœurs de processeur pour l'affinité de flux. l Prend en charge plusieurs paramètres pour la classification des flux flexibles et l'équilibrage de charge (en mode SFP uniquement). REMARQUES : l Un script inclus (set_irq_affinity) automatise la détermination des affinités des interruptions (IRQ) en fonction de l'UC. l Le pilote Linux i40e prend en charge les types de flux suivants : IPv4, TCPv4 et UDPv4. Pour un flux donné, il prend en charge les combinaisons valides d'adresses IP (source ou cible) et les ports TCP/UDP (source et destination). Par exemple, vous pouvez fournir uniquement une adresse IP source, une adresse IP source et un port de destination, ou une combinaison d'un ou plusieurs de ces quatre paramètres. l Le pilote Linux i40e vous permet de filtrer le trafic en fonction d'un modèle flexible de deux octets défini par l'utilisateur et décalé en utilisant des champs ethtool user-def et des masques. Seuls les types de flux L3 et L4 sont pris en charge pour les filtres flexibles définis par l'utilisateur. Pour un type de flux donné, vous devez effacer tous les filtres de Flow Director avant de modifier le jeu d'entrée (pour ce type de flux). Autres commandes ethtool : Pour activer/désactiver Flow Director ethtool -K ethX ntuple <on|off> Si vous désactivez les filtres ntuple, tous les filtres programmés par l'utilisateur sont purgés du cache de pilote et du matériel. Lorsque ntuple est activé à nouveau, vous devez recréer les filtres. Pour ajouter un filtre qui dirige les paquets vers la file d'attente 2, utilisez le commutateur -U ou -N, par ex. : # ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1 dst-ip \ 192.168.10.2 src-port 2000 dst-port 2001 action 2 [loc 1] Pour définir un filtre en utilisant uniquement des adresses IP source et destination : # ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1 dst-ip \ Nom du paramètre Plages/valeurs valides Valeur par défaut Description 192.168.10.2 action 2 [loc 1] Pour définir un filtre basé sur un modèle défini par l'utilisateur et le décalage : # ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1 dst-ip \ 192.168.10.2 user-def 0xffffffff00000001 m 0x40 action 2 [loc 1] Où la valeur du champ user-def (0xffffffff00000001) est le modèle et m 0x40 le décalage. Dans ce cas, le paramètre masque (m 0x40) est utilisé avec le champ user-def, alors qu'il ne l'est pas pour la prise en charge du filtre Cloud. ATR (application Targeted Routing) Perfect Filter : ATR est activé par défaut lorsque le noyau est en mode de file d'attente de transfert multiple. Une règle de filtre Flow Director ATR est ajoutée lorsqu'un flux TCP-IP débute et elle est effacée quand le flux s'arrête. Lorsqu'une règle de filtre Flow Director TCP-IP est ajoutée depuis ethtool (filtre de bande latérale), ATR est désactivé par le pilote. Afin de réactiver ATR, l'utilisateur peut désactiver la bande latérale à l'aide de l'option ethtool -K. Si la bande latérale est réactivée par la suite, ATR reste activé jusqu'à l'ajout d'un flux TCP-IP. Filtres Sideband Perfect Des filtres Sideband Perfect sont utilisés pour diriger le trafic correspondant aux caractéristiques spécifiées. Ils sont activés par l'interface ntuple d'ethtool. Pour ajouter un nouveau filtre, utilisez la commande suivante : ethtool -U <périphérique> flow-type <type> src-ip <ip> dst-ip <ip> src-port <port> dst-port <port> action <file> Où : <périphérique> - le périphérique Ethernet à programmer <type> - peut être ip4, tcp4, udp4 ou sctp4 <ip> - l'adresse IP utilisée pour la correspondance <port> - le numéro de port utilisé pour la correspondance <file> - la file d'attente vers laquelle diriger le trafic (-1 supprime le trafic correspondant) Utilisez la commande suivante pour afficher tous les filtres actifs : ethtool -u <périphérique> Utilisez la commande suivante pour supprimer un filtre : ethtool -U <périphérique> delete <N> <N> représente l'id de filtre qui s'affiche lors de l'impression de tous les filtres actifs, et peut également avoir été spécifié à l'aide de "loc <N>" lors de l'ajout du filtre. Nom du paramètre Plages/valeurs valides Valeur par défaut Description L'exemple suivant identifie le trafic TCP envoyé à partir de 192.168.0.1, port 5300, adressé à 192.168.0.5, port 80, et l'envoie à la file d'attente 7 : ethtool -U enp130s0 flow-type tcp4 src-ip 192.168.0.1 dst-ip 192.168.0.5 src-port 5300 dst-port 7 action 7 Pour chaque type de flux, les filtres programmés doivent tous utiliser le même jeu d'entrée correspondant. Par exemple, l'émission des deux commandes suivantes est acceptable : ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7 ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.5 src-port 55 action 10 L'émission des deux commandes suivantes, cependant, n'est pas acceptable, car la première spécifie scr-ip et la seconde spécifie dstip : ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7 ethtool -U enp130s0 flow-type ip4 dst-ip 192.168.0.5 src-port 55 action 10 La deuxième commande échoue avec une erreur. Vous pouvez programmer plusieurs filtres en utilisant les mêmes champs, mais avec des valeurs différentes ; sur un périphérique, cependant, vous ne pouvez pas programmer deux filtres tcp4 en utilisant des champs correspondants différents. Le pilote i40e ne prenant pas en charge la correspondance à une sous-partie d'un champ, les champs de masque partiels ne sont donc pas pris en charge. Le pilote prend également en charge les données définies par l'utilisateur correspondant à la charge utile du paquet. Ces données flexibles sont spécifiées comme suit à l'aide du champ "user-def" de la commande ethtool : 31 28 24 20 16 15 12 8 4 0 décalage dans la charge utile du paquet 2 octets de données flexibles Par exemple, ... user-def 0x4FFFF ... indique au filtre de rechercher 4 octets dans la charge utile et de faire correspondre cette valeur à 0xFFFF. Le décalage est basé sur le début de la charge utile, et non sur le début du paquet. Ainsi flow-type tcp4 ... user-def 0x8BEAF ... correspondrait aux paquets TCP/IPv4 dont la charge utile TCP/IPv4 contient la valeur 0xBEAF sur 8 octets. Nom du paramètre Plages/valeurs valides Valeur par défaut Description Veuillez noter que les en-têtes ICMP sont analysés comme suit : 4 octets d'en-tête et 4 octets de charge utile. Ainsi, pour faire correspondre le premier octet de la charge utile, vous devez ajouter 4 octets au décalage. Veuillez également noter que les filtres ip4 correspondent à la fois aux trames ICMP et aux trames raw (inconnues) ip4 , où la charge utile sera la charge utile 3 de la trame IP4. Le décalage maximal est 64. Le matériel lira jusqu'à 64 octets de données uniquement à partir de la charge utile. Le décalage doit avoir une valeur paire, car les données flexibles ont une longueur de 2 octets et doivent être alignées sur l'octet 0 de la charge utile du paquet. Le décalage flexible défini par l'utilisateur est également considéré comme faisant partie du jeu d'entrée et il ne peut pas être programmé séparément pour plusieurs filtres du même type. Cependant, les données flexibles ne sont pas incluses dans le jeu d'entrée et plusieurs filtres peuvent utiliser le même ldécalage, tout en correspondant à des données différentes. Pour créer des filtres qui dirigent le trafic vers une fonction virtuelle (VF) spécifique, utilisez le paramètre "action". Spécifiez l'action sous la forme d'une valeur sur 64 bits, où les 32 bits inférieurs représentent le numéro de la file d'attente, tandis que les 8 bits suivants représentent la VF. Puisque 0 correspond à la fonction physique (PF), l'identifiant VF est décalé par la valeur 1. Par exemple : ... action 0x800000002 ... spécifie de diriger le trafic vers la fonction virtuelle 7 (8 moins 1) dans la file d'attente 2 de cette VF. Ces filtres ne contreviennent pas aux règles de routage interne, et ils n'acheminent pas le trafic qui n'aurait autrement pas été envoyé à la fonction virtuelle spécifiée. Prise en charge du filtre Cloud Sur un réseau complexe prenant en charge plusieurs types de trafic (le trafic de stockage et le trafic cloud, par exemple), la prise en charge de filtre Cloud vous permet d'envoyer un seul type de trafic (le trafic de stockage, par exemple) à la fonction physique (PF) et un autre type (le trafic Cloud, par exemple) à une fonction virtuelle (VF). Puisque les réseaux Cloud sont généralement de type VXLAN/Geneve, vous pouvez définir un filtre Cloud afin d'identifier les paquets VXLAN/Geneve et de les envoyer à une file d'attente dans la VF, pour traitement par la machine virtuelle (VM). De même, d'autres filtres Cloud peuvent être conçus pour divers autres tunnels de trafic. REMARQUES : l Les filtres Cloud sont uniquement pris en charge lorsque le périphérique sous-jacent utilise un mode de fonction unique par port. l L'option "action -1", qui abandonne les paquets correspondants dans des filtres Flow Director réguliers, ne permet pas de déposer des paquets lorsqu'elle est utilisée avec les filtres cloud. l Pour les types de flux IPv4 et ether, les filtres Cloud ne peuvent pas être utilisés avec les filtres TCP ou UDP. l Les filtres Cloud peuvent être utilisés pour fractionner la file d'attente dans la fonction physique (PF). Nom du paramètre Plages/valeurs valides Valeur par défaut Description Les filtres suivants sont pris en charge : Filtres Cloud l Adresse MAC intérieure, VLAN intérieure (pour les paquets NVGRE, VXLAN ou Geneve) l Adresse MAC intérieure, VLAN intérieure, ID locataire (pour les paquets NVGRE, VXLAN ou Geneve) l Adresse MAC intérieure, ID locataire (paquet NVGRE ou paquets VXLAN/Geneve) l Filtre MAC L2 extérieure l Filtre MAC intérieure l MAC extérieure, ID locataire, MAC intérieure l IP de destination d'application l IP source d'application, MAC intérieure l ToQueue : utiliser MAC, VLAN pour pointer vers une file d'attente Filtres L3 l ID de destination d'application Les filtres Cloud sont spécifiés en utilisant l'interface ntuple d'ethtool, mais le pilote utilise user-def pour déterminer s'il faut traiter le filtre comme un filtre Cloud ou comme un filtre régulier. Pour activer un filtre Cloud, définissez le bit le plus significatif du champ user-def, "user-def 0x8000000000000000", pour activer les fonctionnalités Cloud décrites ci-dessous. Cela indique au pilote d'appliquer un traitement spécifique au filtre, au lieu de le traiter comme les filtres réguliers décrits ci-dessus. Notez que les filtres Cloud peuvent aussi lire séparément les autres bits du champ user-def ; vous ne pouvez donc pas utiliser la fonction de données flexibles décrite ci-dessus. Pour les filtres Flow Director régulier : - Aucun user-def spécifié ou le bit le plus élevé (bit 63) a la valeur 0 Exemple : ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 dst-ip 192.168.0.109 action 6 loc Pour les filtres L3 (paquets non tunnélisés) : - "user-def 0x8000000000000000" (aucun paramètre ID locataire/VNI spécifié dans les bits restants du champ user-def) - Seuls les paramètres L3 (src-IP, dst-IP) sont pris en compte Exemple : ethtool -U enp130s0 flow-type ip4 src-ip 192.168.42.13 dst-ip 192.168.42.33 / src-port 12344 dst-port 12344 user-def 0x8000000000000000 action / 0x200000000 loc 3 Redirige le trafic provenant de 192.168.42.13 port 12344 avec la destination 192.168.42.33 port 12344 vers VF id 1 et lui donne le nom "règle 3" Pour les filtres Cloud (paquets tunnélisés) : l Tous les autres filtres, y compris lorsque les paramètres ID locataire/VNI sont spécifiés. Nom du paramètre Plages/valeurs valides Valeur par défaut Description l l l l Les 32 bits inférieurs du champ user-def peuvent transporter le paramètre ID locataire/VNI si nécessaire. La VF peut être spécifiée en utilisant le champ "action", tout comme les filtres réguliers décrits dans la section Filtre Flow Director ci-dessus. Les filtres cloud peuvent être définis en utilisant l'adresse MAC intérieure, MAC extérieure, IP intérieure, VLAN intérieure et VNI, dans le cadre de l'interface tuple Cloud. Les filtres Cloud filtrent sur l'adresse MAC et IP destination (non source). Les champs d'adresse MAC destination et source de la commande ethtool sont surchargés, puisque dst = adresse MAC extérieure, src = adresse MAC intérieure afin de simplifier la définition de tuple pour un filtre Cloud. Le paramètre 'loc' spécifie que le numéro de la règle du filtre est stocké dans le pilote de base Exemple : ethtool –U enp130s0 flow-type ether dst 8b:9d:ed:6a:ce:43 src 1d:44:9d:54:da:de user-def 0x8000000000000022 loc 38 action 0x200000000 Redirige le trafic vers VXLAN en utilisant le tunnel id 34 (hexadécimal 0x22) provenant de l'adresse MAC extérieure 8b:9d:ed:6a:ce:43 et de l'adresse MAC intérieure 1d:44:9d:54:da:de vers VF id 1 et lui donne le nom "règle 38". Configurations supplémentaires Configuration du pilote sur des distributions différentes La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est demandé, le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est i40e. Affichage des messages de liaison Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce qui suit : dmesg -n 8 REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Trames Jumbo La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut de 1500 octets. La valeur MTU maximale est 9 710. Utilisez la commande ifconfig pour augmenter la valeur MTU. Entrez, par exemple, la commande suivante, où <x> est le numéro d’interface : ifconfig ethx mtu 9000 up Ce paramètre n’est pas sauvegardé lors des redémarrages. La modification du paramètre peut être permanente en ajoutant MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x> pour RHEL ou au fichier /etc/sysconfig/network/<config_file> pour SLES. Le paramètre MTU maximal pour les trames Jumbo est 9702. Cette valeur correspond à la taille maximale des trames Jumbo, qui est de 9 728. Ce pilote tentera d'utiliser des tampons de tailles différentes pour recevoir chaque paquet Jumbo. Cela aide à éviter les problèmes de famine de tampon lors de l’allocation des paquets de réception. ethtool Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité. La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel. NAPI Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote i40e. Consultez la page https://wiki.linuxfoundation.org/networking/napi pour en savoir plus sur le NAPI. Contrôle de flux Le contrôle de flux est désactivé par défaut. Pour l’activer, utilisez ethtool : ethtool -A eth? autoneg off rx on tx on REMARQUE : vous devez disposer d’un partenaire de liaison capable de contrôle de flux. Débit de hachage RSS Permet de définir les octets de hachage par type de débit et toute combinaison d'une ou de plusieurs options pour la configuration Receive Side Scaling (RSS). #ethtool -N <dev> rx-flow-hash <type> <option> Où <type> peut être remplacé par : tcp4 signifiant TCP sur IPv4 udp4 signifiant UDP sur IPv4 tcp6 signifiant TCP sur IPv6 udp6 signifiant UDP sur IPv6 Et <option> peut être remplacé par un ou plusieurs des éléments suivants : s hachage sur l'adresse IP source du paquet rx. d hachage de l'adresse IP destination du paquet rx. f hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx. n hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx. Fonction anti-arnaque MAC et VLAN Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis. Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande "dmesg") : i40e ethx: i40e_spoof_check: n paquets malveillants détectés Quand x=PF interface# et n=VF ayant tenté l’intrusion malveillante. REMARQUE : cette fonctionnalité peut être désactivée pour une fonction virtuelle (VF) spécifique. IEEE 1588 Precision Time Protocol (PTP) Hardware Clock (PHC) Le protocole PTP (Precision Time Protocol) est utilisé pour synchroniser les horloges d'un réseau informatique. La prise en charge PTP varie selon les périphériques Intel qui prennent en charge ce pilote. Utilisez "ethtool -T <nom netdev>" pour obtenir la liste définitive des fonctionnalités PTP prises en charge par le périphérique. Déchargement matériel VXLAN Overlay Le pilote i40e pour Linux offre la prise en charge du déchargement matériel VXLAN Overlay. Les deux commandes suivantes sont utilisées pour afficher et configurer VXLAN sur un périphérique prenant en charge le déchargement VXLAN-overlay. Cette commande affiche les déchargements et leur état actuel : # ethtool -k ethX Cette commande active/désactive la prise en charge VXLAN par le pilote. # ethtool -K ethX tx-udp_tnl-segmentation [off|on] Pour plus d'informations sur la configuration de votre réseau pour la prise en charge de VXLAN overlay, consultez le dossier technique Intel "Création de réseaux overlay en utilisant les cartes réseau convergent Ethernet" (Division Intel Networking Division, août 2013) : http://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/ overlay-networks-using-convergednetwork-adapters-brief.pdf Optimisation des performances Les paramètres par défaut du pilote lui permettent de s'adapter à un grand nombre de charges de travail différentes. Si des optimisations sont nécessaires, il est conseillé d'essayer les paramètres ci-après. Reliez les IRQ de la carte réseau à des cœurs spécifiques en désactivant le service irqbalance et en exécutant le script set_irq_affinity inclus. Les paramètres suivants permettront de répartir les IRQ de manière équitable sur tous les cœurs : # scripts/set_irq_affinity –x all <interface1> , [ <interface2>,… ] Les paramètres suivants permettront de répartir les IRQ sur tous les cœurs en local de la carte (même nœud NUMA) : # scripts/set_irq_affinity –x local <interface1> ,[ <interface2>,… ] Consultez le texte d'aide du script pour plus d'options. Pour des charges de travail demandant une fréquence du processeur élevée, il est conseillé de relier les IRQ à tous les cœurs. Pour le Transfert IP : désactiver la fonction ITR adaptative et baisser les interruptions rx et tx par file d'attente à l'aide d'ethtool. La définition de rx-usecs et de tx-usecs à 125 limitera les interruptions à environ 8 000 par seconde par file d'attente. # ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 125 tx-usecs 125 Pour réduire l'utilisation du processeur : désactiver la fonction ITR adaptative et baisser les interruptions rx et tx par file d'attente à l'aide d'ethtool. La définition de rx-usecs et de tx-usecs à 250 limitera les interruptions à environ 4000 par seconde et par file d'attente. # ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 250 tx-usecs 250 Pour une latence plus faible : désactiver les fonctions ITR et ITR adaptative en définissant rx et tx sur 0 à l'aide d'ethtool. # ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 0 tx-usecs 0 Problèmes connus Les périphériques X710/XXV710 ne parviennent pas à activer le nombre MAX de VF lorsque NPAR et SR-IOV sont activés Les périphériques X710/XXV710 ne parviennent pas à activer Max VFs (64) lorsque NPAR et SR-IOV sont activés. Une erreur d'i40e est consignée, indiquant "add vsi failed for VF N, aq_err 16" (l'ajout de vsi a échoué pour VF N, aq_ err 16). Pour résoudre ce problème, activez moins de 64 fonctions virtuelles (VF). La commande "ip link show" affiche une VF MAC incorrecte si la VF MAC a été définie à partir du côté VF L'exécution de la commande "ip link show" affiche uniquement les adresses MAC si elles ont été définies par la fonction physique (PF). Sinon, elle affiche des zéros uniquement. Il s'agit d'un comportement normal. Le pilote PF transmet des zéros au pilote VF pour qu'il puisse générer sa propre adresse MAC aléatoire et la signaler au SE invité. Sans cette fonction, certains systèmes d'exploitation invités assignent à tort un nouveau nom d'interface à la VF à chaque redémarrage. Erreur SSL (Aucun fichier de ce type) lors de l'installation du pilote sur Ubuntu 14.04 Lors de l'installation du pilote sur Ubuntu 14.04, vous pouvez obtenir une erreur SSL indiquant "no such file or directory" (aucun fichier ou répertoire de ce type). Ce problème n'affecte pas l'installation ni les performances du pilote et peut être ignoré. Le délestage de la somme de contrôle IPv6/UDP ne fonctionne pas sur certains noyaux plus anciens Certaines distributions utilisant des noyaux plus anciens n'activent pas correctement le délestage de la somme de contrôle IPv6/UDP. Pour utiliser le délestage de la somme de contrôle IPv6, il peut être nécessaire de mettre le noyau à niveau. Performances médiocres lors de l'utilisation de l'encapsulation VXLAN Lors de l'utilisation de l'encapsulation VXLAN sur Red Hat Enterprise Linux 7.2 et 7.3, vous pouvez constater des performances médiocres liées aux limitations du noyau sur ces versions de SE. Pour résoudre ce problème, mettez votre noyau à niveau. Messages d'avertissement depmod concernant un symbole inconnu lors de l'installation Pendant l'installation du pilote, vous pouvez voir des messages d'avertissement depmod renvoyant à des symboles inconnus i40e_register_client et i40e_unregister_client. Ces messages sont fournis à titre d'information uniquement et aucune intervention n'est requise. L'installation devrait s'achever normalement. Erreur : <ifname> selects TX queue XX but real number of TX queues is YY Lorsque vous configurez le nombre de files d'attente sous une forte charge du trafic, vous pouvez voir un message d'erreur indiquant "<ifname> selects TX queue XX, but real number of TX queues is YY" (<ifname> sélectionne la file de transmission XX, mais il y a en réalité YY files d'attente). Ce message est fourni à titre d'information uniquement et n'affecte pas les fonctionnalités. Windows Server 2016 ne fonctionne pas comme un SE invité sur les anciens KVM RHEL et SLES Microsoft* Windows Server 2016* ne fonctionne pas comme un système d'exploitation invité sur la version de l'hyperviseur KVM incluse dans Red Hat* Enterprise Linux* (RHEL) version 6.8 et Suse* Linux Enterprise Server (SLES) version 11.4. Windows Server 2016 fonctionne comme un système d'exploitation invité sur RHEL 7.2 et SLES 12.1. Correction des problèmes de performances lors de l'utilisation d'IOMMU dans les environnements virtualisés La fonctionnalité IOMMU du processeur empêche les périphériques d'E/S d'accéder à la mémoire hors des limites fixées par le SE. Elle permet également d'affecter directement les périphériques à une machine virtuelle. Cependant, la fonctionnalité IOMMU peut affecter les performances, aussi bien pour la latence (chaque accès DMA par le périphérique doit être traduit par IOMMU) que pour l'utilisation de l'UC (chaque tampon affecté à chaque périphérique doit être connecté dans l'IOMMU). Si vous rencontrez des problèmes de performances avec IOMMU, essayez de l'utiliser en mode "passthrough", en ajoutant la ligne suivante dans la ligne de commande de démarrage du noyau : intel_iommu=on iommu=pt REMARQUE : ce mode permet le remappage pour attribuer les périphériques aux machines virtuelles, proposant des performances d'E/S quasi-natives, mais il n'offre pas de protection de mémoire supplémentaire. La transmission se bloque, suspendant le trafic La désactivation du contrôle de flux pendant que le périphérique est soumis à une montée en charge peut bloquer la transmission et éventuellement suspendre le trafic. Vous devez redémarrer le système pour résoudre ce problème. Messages incomplets dans le journal système L'utilitaire NVMUpdate peut écrire plusieurs messages incomplets dans le journal système. Ces messages prennent la forme suivante : in the driver Pci Ex config function byte index 114 in the driver Pci Ex config function byte index 115 Vous pouvez ignorer ces messages. Le compteur de la somme de contrôle effectue une incrémentation incorrecte lors de l'utilisation de VxLAN Lorsque vous transmettez du trafic non-UDP sur une interface VxLAN, le compteur port.rx_csum_bad effectue l'incrémentation des paquets. Réinitialisation des compteurs de statistiques lors du changement du mode promiscuous Le changement du mode promiscuous (mode de proximité) entraîne la réinitialisation du pilote de fonction physique. Cela entraîne la réinitialisation du compteur de statistiques. Aucun lien établi à la machine virtuelle Si plusieurs ports sont affectés à la machine virtuelle et que ces ports sont associés à différents ports physiques, vous ne pourrez peut-être pas obtenir de liaison sur tous les ports virtuels. La commande suivante peut permettre de résoudre le problème : ethtool -r <PF> Où <PF> est l'interface PF dans l'hôte, par exemple : p5p1. Vous devrez peut-être exécuter plusieurs fois la commande pour obtenir un lien sur tous les ports virtuels. Changement inattendu de l'adresse MAC d'une fonction virtuelle (VF) Si l'adresse MAC d'une fonction virtuelle n'est pas assignée à l'hôte, le pilote de la fonction virtuelle (VF) utilisera une adresse MAC aléatoire. Cette adresse MAC aléatoire peut changer à chaque fois que le pilote VF est rechargé. Vous pouvez attribuer une adresse MAC statique dans la machine hôte. Cette adresse MAC statique sera conservée après le rechargement d'un pilote VF. La modification du nombre de files d'attente de réception ou de transmission en utilisant ethtool -L peut causer une panique du noyau La modification du nombre de files d'attente de réception ou de transmission en utilisant ethtool -L pendant que le trafic est en cours et que l'interface est active peut causer une panique du noyau. Commencez par arrêter l'interface pour éviter le problème. Par exemple : ip link set ethx down ethtool -L ethx combined 4 Échec incorrectement signalé de l'ajout d'une règle Sideband à Flow Director Si vous essayez d'ajouter une règle à Flow Director alors qu'il n'y a plus d'espace disponible pour la règle Sideband, i40e consigne une erreur indiquant que la règle ne peut pas être ajoutée, mais ethtool signale le succès de l'opération. Vous pouvez supprimer des règles pour libérer de l'espace. Vous pouvez aussi supprimer la règle qui a échoué. Vous la retirez ainsi de la mémoire cache du pilote. Sideband Logic de Flow Director ajoute un filtre dupliqué Sideband Logic de Flow Director ajoute un filtre dupliqué dans la liste des filtres logiciels si l'emplacement n'est pas spécifié ou qu'il est spécifié mais qu'il est différent de l'emplacement du précédent tout en ayant les mêmes critères de filtre. Dans ce cas, le second des deux filtres qui apparaissent est le filtre valide dans le matériel et il décide de l'action de filtre. Plusieurs interfaces sur le même réseau de diffusion Ethernet En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non équilibré. Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant : echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter Ce processus fonctionne uniquement avec des noyaux de version supérieure à 2.4.5. REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Vous pouvez rendre la modification de configuration permanente en ajoutant la ligne suivante dans le fichier /etc/sysctl.conf : net.ipv4.conf.all.arp_filter = 1 Une autre solution consiste à installer les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné aux réseaux locaux virtuels). Problème de perte de paquet lors du test de montée en charge UDP Sous une montée en charge de petits paquets UDP avec le pilote i40e, le système peut abandonner des paquets UDP à la suite de la saturation des sockets. Vous pouvez résoudre le problème en réglant les variables Contrôle de flux (Flow Control) du pilote sur la valeur minimale. Vous pouvez également essayer d'augmenter les tailles de tampon par défaut du noyau en modifiant les valeurs sous /proc/sys/net/core/rmem_default et rmem_max Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution Sur les noyaux de versions 2.6.32 et supérieures, le clavier système ne répond plus (sauf à la commande Ctrl+Alt+Supp.) si le câble réseau est débranché alors que ethtool -p est en cours d’exécution. Le redémarrage du système semble être le seul recours. Erreurs d’allocation de la page de réception Des erreurs de type 'Échec d'allocation de page. ordre : 0' peuvent se produire en cas de montée en charge avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress. Performances inférieures aux attentes Certains connecteurs PCIe x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une bande passante insuffisante pour les débits de ligne avec des périphériques à 2 et 4 ports. En outre, si vous placez une carte réseau compatible PCIe Generation 3 sur un connecteur PCIe Generation 2, vous n'obtiendrez pas la totalité de la bande passante. Le pilote détecte cette situation et écrit le message suivant dans le journal système : "PCI-Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8 PCI-Express slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir des performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé). Si cette erreur se produit, placez la carte dans un véritable connecteur PCIe Generation 3 x8 pour résoudre le problème. Il est possible qu'ethtool affiche incorrectement un module SFP+ Fiber comme un câble à fixation directe En raison de limitations du noyau, le type de port ne peut être affiché correctement que sur les noyaux 2.6.33 ou de versions supérieures. L'exécution de la commande ethtool -t ethX cause des plantages entre la PF et le client test En présence de VF actives, "ethtool -t" effectue un diagnostic complet. Au cours de ce processus, il se réinitialise, ainsi que toutes les VF liées. Les pilotes VF subissent une perturbation, mais sont en mesure de récupérer. Activation de SR-IOV sur un SE invité Microsoft* Windows Server* 2012/R2 64 bits sous Linux KVM KVM Hypervisor/VMM prend en charge l’attribution d’un périphérique PCIe vers un VM. Cela comprend les appareils PCIe classiques ainsi que les périphériques compatibles SR-IOV utilisant les contrôleurs Intel® XL710. Impossible d’obtenir le bail DHCP au démarrage avec Red Hat Dans les configurations où la négociation automatique prend plus de cinq secondes, le script de démarrage risque d'échouer avec le message suivant : "ethX: failed. No link present. Check cable?" Cette erreur peut se produire même si la présence de lien peut être confirmée en utilisant ethtool ethx. Dans ce cas, essayez de définir "LINKDELAY=30" dans /etc/sysconfig/network-scripts/ifdfg-ethx. Le même problème peut se produire pendant un démarrage réseau (via PXE) sur les distributions RedHat qui utilisent le script dracut : "Attention : aucune porteuse détectée sur l'interface <nom_interface>" Dans ce cas, ajoutez "rd.net.timeout.carrier=30" à la ligne de commande du noyau. REMARQUE : la durée du lien peut varier. Ajustez la valeur de LINKDELAY en conséquence. Il est également possible d’utiliser NetworkManager pour configurer les interfaces, ce qui évite d’avoir à définir des délais. Pour savoir comment effectuer des configurations à l’aide de NetworkManager, reportez-vous à la documentation fournie avec votre distribution. Le chargement du pilote i40e dans les noyaux 3.2.x et supérieurs affiche le message comme quoi le noyau est taché (tainted) En raison de modifications récentes du noyau, le chargement d’un pilote "out of tree" "tache" le noyau. Pontage de centre de données (DCB) pour Connexions réseau Intel® : Data Center Bridging offre une couche de transport de centre de données sans perte pour l'utilisation des LAN et SAN dans un maillage unifié unique. Le Pontage de centre de données inclut les fonctionnalités suivantes : l Priority-based flow control (PFC ; IEEE 802.1Qbb) (Contrôle de flux basé sur des priorités) l Enhanced transmission selection (ETS ; IEEE 802.1Qaz) (Sélection améliorée des transmissions) l Congestion notification (CN) (Notification de congestion) l Extensions de la norme Link Layer Discovery Protocol (IEEE 802.1AB) permettant l’utilisation du protocole DCBX (Data Center Bridging Capability Exchange) Deux versions de DCBX sont prises en charge : Version CEE : la spécification est accessible en suivant un lien dans le document suivant : http://www.ieee802.org/1/files/public/docs2008/dcb-baseline-contributions-1108-v1.01.pdf Version IEEE : la spécification est accessible en suivant un lien dans le document suivant : https://standards.ieee.org/findstds/standard/802.1Qaz-2011.html REMARQUE : la pile DCBX du SE est par défaut la version CEE de DCBX et, si un pair transmet des TLV IEEE, elle passera automatiquement à la version IEEE. Pour davantage d’informations sur DCB, y compris la spécification du protocole DCBX, visitez le site http://www.ieee802.org/1/pages/dcbridges.html. Configuration de DCB pour Windows : Les fonctions DCB de la carte réseau Ethernet Intel peuvent être configurées à l'aide du Gestionnaire de périphériques Windows. Ouvrez la feuille de propriétés de la carte et sélectionnez l'onglet Data Center. Vous pouvez utiliser Intel® PROSet pour effectuer les tâches suivantes : l Afficher l'état : l Sélection de transmission avancée l Contrôle de flux des priorités (Priority Flow Control) l FCoE Priority État non opérationnel : si l'indicateur d'état indique que DCB n'est pas opérationnel, plusieurs raisons peuvent en être la cause. l Le pontage de centre de données n'est pas activé - cochez la case pour activer le pontage de centre de données. l Une ou plusieurs fonctionnalités DCB se trouvent dans un état non opérationnel. Les fonctionnalités qui contribuent à l’état non opérationnel sont PFC et APP:FCoE. l l Un état non opérationnel est généralement dû à l’activation des fonctionnalités Use Switch Settings (Utilisation des paramètres du commutateur) ou Using Advanced Settings (Utilisation des paramètres avancés). Cette activation résulte habituellement de difficultés de communication des informations sur les fonctionnalités DCB avec le commutateur. Les problèmes possibles comprennent : l Une des fonctionnalités n’est pas prise en charge par le commutateur. l Le commutateur n'annonce pas la fonctionnalité ; l Le commutateur ou l’hôte a désactivé la fonctionnalité (sur l’hôte, il s’agirait d’une fonctionnalité avancée). Désactiver/Activer le DCB Informations de dépannage Hyper-V (DCB et VMQ) REMARQUE : la configuration du mode VMQ + DCB réduit le nombre de VMQ disponibles pour les SE invités. DCB pour Linux DCB est pris en charge sur RHEL 6 ou version ultérieure ou SLES11 SP1 ou version ultérieure. Pour des informations spécifiques, consultez la documentation de votre système d’exploitation. iSCSI Over DCB Les cartes Ethernet Intel® prennent en charge les initiateurs de logiciel iSCSI natifs sur le système d’exploitation sousjacent. Le pontage de centre de données (DCB) est le plus souvent configuré au niveau du commutateur. Si le commutateur n’est pas compatible avec le DCB, l’établissement de liaison DCB échoue mais la connexion iSCSI n’est pas perdue. REMARQUE : DCB ne s'installe pas dans une machine virtuelle. iSCSI over DCB n'est pris en charge que dans le système d'exploitation de base. Un initiateur iSCSI fonctionnant dans une machine virtuelle ne tirera aucun avantage des améliorations de DCB Ethernet. Configuration de Microsoft Windows L’installation iSCSI comprend l’installation de l’agent iSCSI DCB (iscsidcb.exe), qui est un service de mode utilisateur. L'initiateur du logiciel Microsoft iSCSI permet de connecter un hôte Windows à une batterie de disques de stockage externe iSCSI en utilisant une carte Ethernet Intel. Veuillez consulter la documentation de votre système d'exploitation pour connaître les détails de configuration. Activez DCB sur la carte par la méthode suivante : 1. Dans Windows Device Manager (Gestionnaire de périphériques Windows), ouvrez Networking Adapters (Cartes réseau) et mettez en surbrillance la carte appropriée (comme la carte réseau Ethernet Intel® X520 pour serveurs). Cliquez avec le bouton droit de la souris sur Intel adapter (Carte Intel) et sélectionnez Properties (Propriétés). 2. Dans Property Page (Page propriétés), sélectionnez l’onglet Data Center (Centre de données). L’onglet Data Center (Centre de données) permet d’obtenir un retour d’information comme l’état du DCB, opérationnel ou non opérationnel, ainsi que les détails supplémentaires, même s’ils sont non opérationnels. Utilisation d’iSCSI over DCB avec l’association ANS L’agent Intel® iSCSI est responsable du maintien de tous les routeurs filtrants en ce qui concerne le trafic iSCSI de balisage de priorité sur les cartes activée DCB. L’agent iSCSI crée et maintient un filtre de trafic pour une association ANS si au moins un membre de l’association a un état DCB "opérationnel". Cependant, si une carte de l’association n’a pas l’état DCB "opérationnel", l’agent iSCSI enregistre une erreur pour cette carte dans le journal d’événements Windows. Ces messages d’erreur signalent à l’administrateur les problèmes de configuration qui doivent être traités, mais n’ont aucun effet sur le balisage ou le flux du trafic iSCSI de cette association, à moins que le retrait du filtre TC ne soit mentionné. Configuration Linux Dans le cas de distributions Open Source, pratiquement toutes les distributions prennent en charge un initiateur de logiciel iSCSI ouvert et les cartes Ethernet Intel® les prennent en charge. Consultez la documentation traitant de votre distribution pour obtenir plus de détails de configuration sur chaque initiateur iSCSI ouvert. Les cartes Intel® avec chipset 82599 et X540 prennent en charge l'iSCSI dans un nuage de Pontage de centre de données. Utilisée avec les commutateurs et les cibles prenant en charge la fonction TVL de l’application iSCSI/DCB, cette solution peut garantir la bande passante minimum pour le trafic iSCSI entre l’hôte et la cible. Cette solution permet aux administrateurs de stockage de segmenter le trafic iSCSI du trafic du réseau local, de la même façon qu’ils peuvent actuellement segmenter le FCoE à partir du trafic du réseau local. Auparavant, le trafic iSCSI dans un environnement pris en charge par DCB était considéré comme un trafic de réseau local par les fournisseurs de commutateur. Consultez votre fournisseur de commutateurs et de cibles pour vérifier qu’il prend en charge la fonction TVL de l’application iSCSI/DCB. Démarrage à distance Le démarrage à distance vous permet de démarrer un système en utilisant uniquement une carte Ethernet. Vous vous connectez à un serveur qui contient une image du système d'exploitation et l'utilise pour démarrer votre système local. Images Flash "Flash" est un terme générique désignant la RAM non volatile (NVRAM), le microprogramme et la ROM optionnelle (OROM). En fonction du périphérique, la mémoire flash peut se trouver sur la carte réseau ou sur la carte mère. Mise à jour de la mémoire flash à partir de Linux L'utilitaire de ligne de commande BootUtil peut mettre à jour la mémoire flash d'une carte réseau Ethernet Intel. Exécutez BootUtil avec les options de ligne de commande suivantes pour mettre à jour la mémoire flash sur toutes les cartes réseau Intel prises en charge. Entrez par exemple la ligne de commande suivante : bootutil64e –up=efi –all BootUtil ne peut être utilisé que pour programmer des cartes d'extension réseau Intel. Les connexions réseau LOM (LAN On Motherboard) ne peuvent pas être programmées à l'aide de la ROM optionnelle du pilote réseau UEFI. Consultez le fichier bootutil.txt pour les détails sur l'utilisation de BootUtil. Installation de la ROM optionnelle du pilote réseau UEFI depuis le shell UEFI L'utilitaire de ligne de commande BootUtil peut installer le pilote réseau UEFI sur la ROM optionnelle d'une carte réseau Intel. Le pilote réseau UEFI se charge automatiquement lors du démarrage UEFI du système lorsqu'il est installé dans la ROM optionnelle. Par exemple, exécutez BootUtil avec les options de ligne de commande suivantes pour installer le pilote réseau UEFI sur toutes les cartes réseau Intel prises en charge : FS0:\>bootutil64e –up=efi –all BootUtil ne peut être utilisé que pour programmer des cartes d'extension réseau Ethernet Intel supplémentaires. Les connexions réseau LOM (LAN On Motherboard) ne peuvent pas être programmées à l'aide de la ROM optionnelle du pilote réseau UEFI. Consultez le fichier bootutil.txt pour les détails sur l'utilisation de BootUtil. Activation du démarrage à distance Si une carte Intel pour PC de bureau est installée sur votre ordinateur, le périphérique ROM flash est déjà disponible et aucune installation n'est nécessaire. Pour les cartes réseau Intel pour serveurs, la ROM flash peut être activée avec l'utilitaire BootUtil. Par exemple, à partir de l'invite de commande, tapez : BOOTUTIL -E BOOTUTIL -NIC=1 -FLASHENABLE La première ligne énumère les ports disponibles dans le système. Choisissez un port. Puis tapez la seconde ligne en sélectionnant le port à activer. Pour plus de détails, consultez le fichier bootutil.txt. Cartes réseau Intel dans le menu de démarrage (Boot Menu) La section Boot Menu du gestionnaire de démarrage Boot Manager signale les ports compatibles PXE sur une carte réseau Intel x710 comme des ports 40G, comme le montre la figure suivante. En fait les ports d'une carte x710 sont des ports 10G. Dans le menu Boot du gestionnaire de démarrage Boot Manager, les cartes réseau Intel sont identifiées de la manière suivante : l Cartes réseau contrôlées par X710 : "IBA 40G" l Autres cartes réseau 10G : "IBA XE" l Cartes réseau 1G : "IBA 1G" Configuration d'Intel® Boot Agent Configuration du client Boot Agent Le logiciel Intel® Boot Agent propose des options de configuration permettant de personnaliser son exécution. Vous pouvez configurer Intel® Boot Agent dans les environnements suivants : l Un environnement Microsoft* Windows* l Un environnement Microsoft* MS-DOS* l Un environnement de pré-démarrage (avant le chargement du système d'exploitation) Intel® Boot Agent prend en charge PXE dans les environnements de pré-démarrage, Microsoft Windows* et DOS. Dans chacun de ces environnements, une interface utilisateur unique vous permet de configurer les protocoles PXE sur les cartes réseau Ethernet Intel®. Configuration d'Intel® Boot Agent dans un environnement Microsoft Windows Si le système d'exploitation Windows est installé sur l'ordinateur client, vous pouvez utiliser le programme Intel® PROSet pour le Gestionnaire de périphériques Windows* afin de configurer et de mettre à jour le logiciel Intel® Boot Agent. Intel® PROSet est disponible via le Gestionnaire de périphériques Windows. Intel® PROSet contient l'onglet spécial Boot Options qui permet de configurer et de mettre à jour le logiciel Intel® Boot Agent. Pour accéder à l'onglet Options de démarrage : 1. Ouvrez Intel® PROSet pour le Gestionnaire de périphériques Windows en ouvrant le Panneau de configuration Système. Sous l'onglet Matériel, cliquez sur Gestionnaire de périphériques. 2. Sélectionnez la carte appropriée et cliquez sur l'onglet Options de démarrage. S'il n'apparaît pas, mettez votre pilote réseau à jour. 3. L'onglet Options de démarrage contient la liste des paramètres de configuration en cours et leurs valeurs. Les valeurs de configuration correspondant au paramètre sélectionné apparaissent dans une liste déroulante. 4. Sélectionnez le paramètre à modifier dans la zone de sélection Paramètres. 5. Sélectionnez la valeur du paramètre dans la liste déroulante Value (Valeur). 6. Répétez les deux opérations précédentes pour changer d'autres paramètres. 7. Une fois les modifications effectuées, cliquez sur le bouton Appliquer les modifications pour mettre à jour les valeurs de la carte. Configuration d'Intel® Boot Agent dans un environnement de pré-démarrage PXE REMARQUE : Intel® Boot Agent peut être désactivé dans le BIOS. Vous pouvez personnaliser l'exécution du logiciel Intel® Boot Agent via un programme de configuration de pré-démarrage (indépendant du système d'exploitation) figurant dans la ROM flash de la carte. Vous pouvez accéder à ce programme de configuration de pré-démarrage lors de chaque cycle de démarrage de l'ordinateur. Lorsque la procédure de redémarrage commence, l'écran s'efface et l'ordinateur lance la procédure d'autotest à la mise sous tension. Peu après l'autotest POST, le logiciel Intel® Boot Agent, stocké dans la ROM flash, s'exécute. Intel® Boot Agent affiche ensuite un message d'initialisation, similaire à celui qui figure ci-dessous, pour indiquer qu'il est actif. Initializing Intel(R) Boot Agent Version X.X.XX PXE 2.0 Build 083 REMARQUE : il se peut que cet écran soit masqué par l'écran de bienvenue du fabricant. Pour des détails, consultez la documentation du fabricant. Le menu de configuration affiche la liste des paramètres de configuration à gauche et les valeurs correspondantes à droite. Les descriptions de touches figurant au bas du menu indiquent comment changer les valeurs des paramètres de configuration. Chaque fois que vous sélectionnez un paramètre, une brève description de la fonction du paramètre s'affiche juste au-dessus des descriptions de touches. 1. Utilisez les touches de déplacement pour sélectionner le paramètre à modifier. 2. Une fois le paramètre sélectionné, appuyez sur la barre d'espacement pour afficher la valeur appropriée. 3. Une fois les modifications effectuées, appuyez sur F4 pour appliquer les nouvelles valeurs à la carte. Toutes les modifications apportées à la configuration sont appliquées lors de la reprise du démarrage. Le tableau ci-dessous répertorie les paramètres de configuration accompagnés de leurs valeurs et d'une description détaillée : Paramètre de configuration Valeurs possibles Network Boot Protocol PXE (Preboot eXecution Environment) Description Sélectionnez PXE pour une utilisation avec des programmes d'administration réseau, tels que LANDesk* Management Suite. REMARQUE : selon la configuration d'Intel® Boot Agent, ce paramètre peut ne pas être modifiable. Boot Order Utiliser l'ordre de démarrage configuré dans le BIOS. Essayer le réseau d'abord, puis les disques locaux. Essayer les disques locaux d'abord, puis le réseau. Définit l'ordre de démarrage des périphériques si l'ordinateur ne dispose pas de sa propre méthode de contrôle. Si le BIOS de l'ordinateur client prend en charge la spécification BBS (BIOS Boot Specification) ou permet de sélectionner l'ordre de démarrage compatible PnP dans son programme de configuration, le paramètre correspondra toujours à Use BIOS Setup Boot Order (Utiliser l'ordre de démarrage configuré dans le BIOS) et ne peut pas être modifié. Dans ce cas, reportez-vous au manuel de configuration du BIOS spécifique à l'ordinateur client pour configurer les options de démarrage. Si l'ordinateur client ne dispose pas d'un BIOS compatible BBS ou Plug & Play, vous pouvez sélectionner n'importe quelle autre valeur possible du paramètre, à l'exception de Utiliser l'ordre de démarrage configuré dans le BIOS. Essayer le réseau uniquement. Essayer les disques locaux uniquement. Legacy OS Wakeup Support (Pour les cartes réseau 82559 uniquement) 0 = Désactivée (par défaut) 1 = Activée Si le paramètre est défini sur 1, Intel® Boot Agent active PME dans l'espace de configuration PCI de la carte lors de l'initialisation. Cela permet le réveil à distance sur les systèmes d'exploitation hérités ne le prenant généralement pas en charge. Notez que lorsque cette fonctionnalité est activée, la carte n'est techniquement plus conforme à la spécification ACPI, c'est pourquoi elle est désactivée par défaut. REMARQUE : si plusieurs cartes sont installées sur un ordinateur à l'occasion d'un démarrage PXE et que vous souhaitez utiliser la ROM de démarrage située sur une carte spécifique, installez la carte en haut de l'ordre de démarrage configuré dans le BIOS ou désactivez la mémoire flash sur les autres cartes. Configuration Intel® Boot Agent du serveur/de la cible Présentation Pour que le logiciel Intel® Boot Agent fonctionne correctement, il doit exister un serveur sur le même réseau que le client. Ce serveur doit reconnaître et prendre en charge les protocoles de démarrage PXE ou BOOTP utilisés par Intel® Boot Agent. REMARQUE : lorsque le logiciel Intel® Boot Agent est installé en tant que mise à jour d'une ancienne version de la ROM de démarrage, le logiciel associé sur le serveur risque de ne pas être compatible avec la nouvelle version d'Intel® Boot Agent. Contactez l'administrateur système pour déterminer si une mise à jour serveur est nécessaire. Mise en place d'un serveur Linux* Contactez votre éditeur Linux* pour obtenir des informations sur la configuration du serveur Linux. Windows* Deployment Services (services de déploiement Windows) Seuls sont nécessaires les fichiers de pilote standard fournis sur le support. Microsoft* est propriétaire du processus et des instructions connexes pour les services de déploiement Windows. Pour plus d'informations sur les services de déploiement Windows, effectuez une recherche dans les articles de Microsoft à l'adresse : http://technet.microsoft.com/en-us/library/default.aspx Messages d'Intel® Boot Agent Texte du message Cause Invalid PMM function number (numéro de fonction PMM non valide). PMM n'est pas installé ou ne fonctionne pas correctement. Mettez à niveau le BIOS. PMM allocation error (erreur d'allocation PMM). PMM n'a pas pu ou n'a pas alloué la quantité de mémoire demandée nécessaire au pilote. Option ROM initialization error. 64-bit PCI BAR addresses not supported, AX= (Erreur d'initialisation de la ROM optionnelle. Adresses PCI BAR 64 bits non prises en charge, AX=) Cela peut être dû au fait que le BIOS système attribue unregistre des adresses de base (BAR ou Base Address Register) de 64 bits au port réseau. L'exécution de l'utilitaire BootUtil avec la ligne de commande -64d peut résoudre le problème. PXE-E00 : This system does not have enough free conventional memory (le système ne dispose pas de la quantité de mémoire conventionnelle suffisante). Intel® Boot Agent ne peut continuer à s'exécuter (Boot Agent ne peut continuer à s'exécuter.) Le système ne dispose pas de la quantité de mémoire suffisante pour exécuter l'image PXE. Intel® Boot Agent n'a pas trouvé une quantité de mémoire de base suffisante (elle est inférieure à 640 Ko) pour installer le client PXE. Le système ne peut pas démarrer via PXE dans sa configuration actuelle. Le BIOS reprend le contrôle et le système ne tente pas de lancer le démarrage à distance. Si cette erreur persiste, mettez le BIOS du système à jour en utilisant la toute dernière version. Contactez l'administrateur système ou l'assistance clientèle du fabricant de l'ordinateur pour résoudre le problème. PXE-E01: PCI Vendor and Device IDs do not match! (les ID du constructeur PCI et du périphérique ne correspondent pas) Le fournisseur de l'image et l'ID du périphérique ne correspondent pas à ceux de la carte. Assurez-vous que l'image flash appropriée est installée sur la carte. PXE-E04: Error reading PCI configuration space (erreur de lecture de l'espace de configuration PCI). Intel® Boot Agent ne peut continuer à s'exécuter (Boot Agent ne peut continuer à s'exécuter.) Impossible de lire l'espace de configuration PCI. Il s'agit probablement d'une machine non compatible PCI. Intel® Boot Agent n'a pas pu lire au moins un registre de configuration PCI de la carte. La carte est mal configurée ou contient une image d'Intel® Boot Agent incorrecte. Intel® Boot Agent rend le contrôle au BIOS et ne tente pas de lancer le démarrage à distance. Mettez à jour l'image flash. Si l'incident persiste, contactez l'administrateur système ou contactez l'assistance clientèle d'Intel. PXE-E05 : The LAN adapter's configuration is corrupted or has not been initialized (la configuration de la carte de réseau local est endommagée ou n'a pas été initialisée). Intel® Boot Agent ne peut continuer à s'exécuter (Boot Agent ne peut continuer à s'exécuter.) La mémoire EEPROM de la carte est altérée. Intel® Boot Agent a détecté que la somme de contrôle EEPROM de la carte est incorrecte. L'agent rend le contrôle au BIOS et ne tente pas de lancer le démarrage à distance. Mettez à jour l'image flash. Si l'incident persiste, contactez l'administrateur système ou contactez l'assistance clientèle d'Intel. PXE-E06: Option ROM requires Le BIOS système ne prend pas en charge DDIM. Le BIOS ne prend pas en Pour remédier à ce problème sur la carte réseau Ethernet X710 ou XL710 Intel®, désactivez les modes NPar et NParEP. Vous pouvez également faire passer le système en mode d'amorçage UEFI. DDIM support (l'option ROM nécessite le support DIMM). charge le mappage des ROM d'extension PCI dans la mémoire supérieure, comme exigé par les spécifications PCI. Intel® Boot Agent ne peut pas fonctionner dans ce système. Intel® Boot Agent rend le contrôle au BIOS et ne tente pas de lancer le démarrage à distance. Tentez de résoudre le problème en mettant à niveau le BIOS du système. Si cette opération ne résout pas le problème, contactez l'administrateur système ou l'assistance technique du fabricant de l'ordinateur. PXE-E07: PCI BIOS calls not supported (appels BIOS PCI non pris en charge). Services PCI du BIOS non disponibles. Il s'agit probablement d'une machine non compatible PCI. PXE-E09: Unexpected UNDI loader error (erreur de chargeur UNDI inattendue). Status (état) == xx Le chargeur d'interface UNDI a renvoyé un état d'erreur inconnu. L'état renvoyé est xx. PXE-E20: BIOS extended memory copy error (erreur de copie en mémoire étendue BIOS). Le BIOS n'a pas pu placer l'image dans la mémoire étendue. PXE-E20: BIOS extended memory copy error (erreur de copie en mémoire étendue BIOS). AH == xx Une erreur s'est produite en tentant de copier l'image dans la mémoire étendue. xx est le code d'échec du BIOS. PXE-E51: No DHCP or BOOTP offers received (aucune offre DHCP ou BOOTP reçue). Intel® Boot Agent n'a pas reçu de réponse DHCP ou BOOTP à sa demande initiale. Vérifiez que le serveur DHCP (et/ou le serveur proxyDHCP, le cas échéant) est correctement configuré et qu'il dispose de suffisamment d'adresses IP à affecter. Si vous utilisez BOOTP, vérifiez que le service BOOTP est actif et correctement configuré. PXE-E53: No boot filename received (aucun nom de fichier de démarrage reçu). Intel® Boot Agent a reçu une offre DHCP ou BOOTP, mais pas de nom de fichier valide à télécharger. Si vous utilisez PXE, vérifiez la configuration PXE et BINL. Si vous utilisez BOOTP, vérifiez que le service est actif et que le chemin d’accès et le nom de fichier sont corrects. PXE-E61: Media test failure (échec du test du support). La carte n'a pas détecté de liaison. Vérifiez l'état du câble et que ce dernier est connecté à un concentrateur ou un commutateur qui fonctionne correctement. Le voyant de liaison sur la face arrière de la carte doit être allumé. PXE-EC1: Base-code ROM ID structure was not found (structure d'ID ROM du code de base introuvable). Aucun code de base trouvé. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-EC3: BC ROM structure is invalid (structure d'ID ROM de code de base non valide). Le code de base n'a pas pu être installé. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-EC4: UNDI ID structure was not found. (structure d'ID UNDI introuvable). Signature ID ROM UNDI incorrecte. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-EC5: UNDI ROM ID structure is invalid (structure d'ID ROM de code de base non valide). La longueur de la structure est incorrecte. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-EC6: UNDI driver image is invalid (image de pilote UNDI non valide). La signature de l'image de pilote UNDI n'est pas valide. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-EC8: !PXE structure was not found in UNDI driver code segment (structure !PXE non trouvée dans UNDI) Intel® Boot Agent n'a pas trouvé la structure !PXE nécessaire. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-EC9: PXENV + structure was not found in UNDI driver code segment (structure PXENV + non trouvée dans UNDI) Intel® Boot Agent n'a pas trouvé la structure PXENV+ nécessaire. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash. PXE-M0F: Exiting Intel Boot Agent (quitter Intel® Boot Agent). Fin de l'exécution de l'image en ROM. This option has been locked and cannot be changed (cette option a été verrouillée et ne peut être changée). Vous avez tenté de changer un paramètre de configuration verrouillé par l'administrateur système. Ce message peut apparaître dans l'onglet Options de démarrage (Boot Options) d'Intel® PROSet sous Windows*, ou dans le menu Setup (Configuration) dans un environnement autonome. Si vous voulez changer le paramètre de configuration, contactez l'administrateur système. PXE-M0E: Retrying network boot; press ESC to cancel (nouvelle tentative de démarrage réseau ; appuyez sur ÉCHAP pour annuler). Intel® Boot Agent n'a pas réussi à démarrer le réseau en raison d'une erreur réseau (telle que la non réception d'une offre DHCP). L'agent Intel® Boot Agent continuera les tentatives de démarrage à partir du réseau jusqu'à ce qu'il réussisse ou jusqu'à annulation par l'utilisateur. Cette fonctionnalité est désactivée par défaut. Pour obtenir des informations sur l'activation de cette fonctionnalité, contactez l'assistance à la clientèle d'Intel. Cela peut également être dû au fait que le BIOS système attribue une adresse BAR (Base Address Register) 64 bits au port réseau. L'exécution de l'utilitaire BootUtil avec la ligne de commande -64d peut résoudre le problème. Procédures de dépannage d'Intel® Boot Agent Problèmes courants La liste suivante de problèmes et de solutions associées répertorie les problèmes éventuels auxquels vous pouvez être confrontés lors de l'utilisation d'Intel® Boot Agent. Des problèmes apparaissent après le démarrage Dès qu'Intel® Boot Agent a terminé d'exécuter son unique tâche (le démarrage à distance), il n'a plus aucun impact sur le fonctionnement de l'ordinateur client. Par conséquent, tout problème survenant lorsque le processus de démarrage est terminé est probablement pas sans rapport avec le logiciel Intel® Boot Agent. Si les problèmes proviennent du système d'exploitation local (client) ou du réseau, contactez le fabricant du système pour obtenir de l'aide. Si les problèmes concernent une application, contactez le fournisseur de l'application pour obtenir de l'aide. Pour tout problème concernant le matériel de l'ordinateur ou le BIOS, contactez le service d'assistance à la clientèle du fabricant du système. Impossible de modifier l'ordre de démarrage Si vous redéfinissez habituellement l'ordre de démarrage de l'ordinateur à l'aide du programme de configuration du BIOS de la carte mère, les paramètres par défaut du programme de configuration d'Intel® Boot Agent peuvent changer cette configuration. Pour modifier la séquence de démarrage, vous devez tout d'abord annuler les valeurs par défaut du programme de configuration d'Intel® Boot Agent. Un menu de configuration s'affiche pour vous permettre de définir les valeurs de configuration d'Intel® Boot Agent. Pour modifier le paramètre d'ordre de démarrage de l'ordinateur, consultez la rubrique Configuration de Boot Agent dans un environnement de pré-démarrage PXE. L'ordinateur interrompt la séquence POST Si l'ordinateur ne démarre pas alors qu'une carte est installée mais démarre sans difficulté lorsque vous la retirez, essayez d'installer la carte sur un autre ordinateur et d'utiliser BootUtil pour désactiver la ROM flash. Si le problème persiste, il se peut qu'il soit antérieur à l'exécution du logiciel Intel® Boot Agent. Dans ce cas, le problème provient du BIOS. Pour résoudre le problème, contactez le service d'assistance à la clientèle du fabricant de l'ordinateur. Des problèmes de configuration/de fonctionnement se produisent lors du processus de démarrage Si votre client PXE reçoit une adresse DHCP mais ne parvient pas à démarrer, vous savez que le client PXE fonctionne correctement. Vérifiez la configuration de votre serveur réseau ou PXE pour détecter l'origine du problème. Contactez le service d'assistance à la clientèle d'Intel si vous avez besoin d'une assistance supplémentaire. La ROM optionnelle PXE ne respecte pas les spécifications PXE en matière de cycle final de « détection ». Afin d'éviter de longues attentes, la ROM optionnelle ne comprend plus le cycle final de détection de 32 secondes. (S'il n'y a eu aucune réponse pendant le cycle de 16 secondes précédent, il est presque certain qu'il n'y en aura pas au cours du cycle final de détection de 32 secondes.) Configuration d'iSCSI Boot Installation de l’initiateur iSCSI Configuration du démarrage Intel® Ethernet iSCSI Boot sur un initiateur Microsoft* Windows* Client Conditions requises 1. Assurez-vous que le système de l’initiateur iSCSI démarre le microprogramme iSCSI Boot. Le microprogramme doit être configuré correctement, pouvoir se connecter à la cible iSCSI et détecter le disque de démarrage. 2. Vous aurez besoin de l'initiateur logiciel Microsoft* iSCSI avec prise en charge du démarrage logiciel intégré. Cette version de démarrage de l'initiateur est disponible ici. 3. Pour activer la prise en charge du vidage sur incident, suivez les étapes de Prise en charge du vidage sur incident. Configuration d'Intel® Ethernet iSCSI Boot sur un initiateur de client Linux* 1. Installez les utilitaires de l’initiateur Open-iSCSI. #yum -y install iscsi-initiator-utils 2. Consultez le fichier README (Lisez-moi) à l'adresse https://github.com/mikechristie/open-iscsi. 3. Configurez votre batterie de disques iSCSI pour obtenir l’accès. a. Consultez /etc/iscsi/initiatorname.iscsi pour le nom de l’initiateur hôte Linux. b. Mettez à jour votre gestionnaire de volume avec ce nom d’initiateur hôte. 4. Définissez iscsi pour démarrer au démarrage. #chkconfig iscscd on #chkconfig iscsi on 5. Démarrez le service iSCSI (192.168.x.x correspond à l’adresse IP de votre cible). #iscsiadm -n discovery -t s -p 192.168.x.x Observez les noms cibles donnés par la détection iscsi. 6. Connectez-vous sur la cible (-m XXX -T correspond à XXX -l XXX -). iscsiadm -m node -T iqn.2123-01.com:yada:yada: -p 192.168.2.124 -l Configuration POST d'iSCSI Boot L’utilitaire Intel® Ethernet iSCSI Boot comporte un menu de configuration permettant d’activer deux ports réseau sur un système comme des périphériques iSCSI Boot. Pour configurer Intel® iSCSI Boot, mettez le système sous tension ou réinitialisez-le, puis appuyez sur les touches Ctrl-D lorsque le message "Press <Ctrl-D> to run setup..." s’affiche. Une fois que vous avez appuyé sur les touches Ctrl-D, le menu Intel® iSCSI Boot de sélection des ports s’ouvre. REMARQUE : lors du démarrage d’un système d’exploitation depuis un disque local, Intel® Ethernet iSCSI Boot doit être désactivé sur tous les ports réseau. Menu Intel® Ethernet iSCSI Boot de sélection des ports Le premier écran du menu de configuration Intel® iSCSI Boot affiche une liste des cartes compatibles avec Intel® iSCSI Boot. Pour chaque port de la carte, l’adresse MAC associée, l’ID de périphérique PCI, l’emplacement du bus PCI, du périphérique ou de la fonction et un champ indiquant l’état Intel® Ethernet iSCSI Boot s’affichent. Le menu de sélection des ports peut afficher jusqu’à 10 ports compatibles avec iSCSI Boot. S’il existe d’autres cartes compatibles avec Intel® iSCSI Boot, elles ne sont pas répertoriées dans le menu de configuration. L’utilisation de ce menu est décrite ci-dessous : l Un port réseau du système peut être sélectionné comme port de démarrage principal en appuyant sur la touche "P" une fois que le port est mis en surbrillance. Le port de démarrage principal sera le premier port utilisé par Intel® Ethernet iSCSI Boot pour connecter la cible iSCSI. Un seul port peut être sélectionné comme port de démarrage principal. l Un port réseau du système peut être sélectionné comme port de démarrage secondaire en appuyant sur la touche "S" une fois que le port est mis en surbrillance. Le port de démarrage secondaire sera utilisé pour se connecter à la cible iSCSI uniquement si le port de démarrage principal ne peut pas établir la connexion. Un seul port peut être sélectionné comme port de démarrage secondaire. l Appuyez sur la touche "D" lorsqu’un port réseau est mis en surbrillance pour désactiver Intel® Ethernet iSCSI Boot sur ce port. l Appuyez sur la touche "B" lorsqu’un port réseau est mis en surbrillance pour faire clignoter un témoin sur ce port. l Appuyez sur la touche Échap pour quitter l'écran. Menu Intel® Ethernet iSCSI Boot spécifique aux ports Le menu de configuration iSCSI spécifique aux ports possède quatre options : l Configuration d'Intel® iSCSI Boot - Sélectionnez cette option pour accéder au menu de configuration d’Intel® iSCSI Boot. Le menu Configuration d'iSCSI Boot est décrit en détails dans la section ci-dessous ; il vous permettra de configurer les paramètres iSCSI du port réseau sélectionné. l Configuration de CHAP - Sélectionnez cette option pour accéder à l’écran de configuration CHAP. Le menu Configuration de CHAP est décrit en détails dans la section ci-dessous. l Ignorer les modifications et quitter - Sélectionnez cette option pour ignorer toutes les modifications apportées dans les écrans Configuration de iSCSI Boot et Configuration de CHAP et pour retourner au menu Intel® iSCSI Boot de sélection des ports. l Enregistrer les modifications et quitter - Sélectionnez cette option pour enregistrer toutes les modifications apportées dans les écrans Configuration de iSCSI Boot et Configuration de CHAP. Après avoir sélectionné cette option, le menu Intel® iSCSI Boot de sélection des ports s’affiche. Menu de configuration Intel® iSCSI Boot Le menu Configuration de iSCSI Boot permet de configurer les paramètres de iSCSI Boot et IP (Internet Protocol) d’un port spécifique. Les paramètres iSCSI peuvent être configurés manuellement ou récupérés de façon dynamique depuis un serveur DHCP. Vous trouverez ci-dessous les options du menu de configuration d’Intel® iSCSI Boot : l Utiliser une configuration IP dynamique (DHCP) - Cochez cette case pour que iSCSI Boot tente d’obtenir l’adresse IP du client, le masque de sous-réseau et l’adresse IP de la passerelle d’un serveur DHCP. Si cette case est cochée, les champs suivants ne sont pas visibles. l Nom de l’initiateur - Entrez le nom de l’initiateur iSCSI devant être utilisé par Intel® iSCSI Boot lors de la connexion à une cible iSCSI. La valeur entrée dans ce champ est globale et utilisée par tous les ports activés pour iSCSI Boot du système. Ce champ peut être laissé vide si la case "Use DHCP For Target Configuration" (Utiliser DHCP pour la configuration cible) est cochée. Pour obtenir des informations sur l'obtention dynamique du nom de l'initiateur iSCSI d'un serveur DHCP, reportez-vous à la section Configuration du serveur DHCP. l IP de l’initiateur - Entrez dans ce champ l’adresse IP du client devant être utilisée pour ce port dans une configuration IP statique. Cette adresse IP sera utilisée par le port pendant toute la session iSCSI. Cette option est visible si DHCP n’est pas activé. l Masque de sous-réseau - Entrez l’adresse IP du masque de sous-réseau dans ce champ. Il s’agit de l’adresse IP du masque de sous-réseau utilisé sur le réseau et auquel le port sélectionné se connectera pour iSCSI. Cette option est visible si DHCP n’est pas activé. l IP de la passerelle - Entrez dans ce champ l’adresse IP de la passerelle réseau. Ce champ doit être rempli si la cible iSCSI se trouve sur un sous-réseau différent de celui du port Intel® iSCSI Boot sélectionné. Cette option est visible si DHCP n’est pas activé. l Utiliser DHCP pour les informations de la cible iSCSI - Cochez cette case pour que Intel® iSCSI Boot tente d’obtenir l’adresse IP de la cible iSCSI, le numéro de port IP, le nom de la cible iSCSI et l’ID de l’unité logique LUN SCSI d’un serveur DHCP du réseau. Pour obtenir des informations sur la configuration des paramètres iSCSI de la cible en utilisant DHCP, voir la section Configuration du serveur DHCP. Lorsque cette case est cochée, les champs suivants ne sont pas visibles. l Nom de la cible - Entrez dans ce champ le nom IQN de la cible iSCSI. Cette option est visible si DHCP n’est pas activé pour la cible iSCSI. l IP de la cible - Entrez dans ce champ l’adresse IP de la cible iSCSI. Cette option est visible si DHCP n’est pas activé pour la cible iSCSI. l Port de la cible - Numéro du port TCP. l Unité logique de démarrage - Entrez dans ce champ l’ID d'unité logique du disque de démarrage de la cible iSCSI. Cette option est visible si DHCP n’est pas activé pour la cible iSCSI. Configuration CHAP iSCSI Intel® iSCSI Boot prend en charge l’authentification CHAP MD5 mutuelle avec une cible iSCSI. Intel® iSCSI Boot utilise l'algorithme "MD5 Message Digest Algorithm" pour l'authentification RSA. Le menu iSCSI CHAP Configuration comporte les options suivantes pour activer l'authentification CHAP : l Utiliser CHAP - Cochez cette case pour activer l’authentification CHAP sur ce port. CHAP permet à la cible d’authentifier l’initiateur. Après l’activation de l’authentification CHAP, le nom d’utilisateur et mot de passe de la cible doivent être entrés. l Nom d’utilisateur - Entrez le nom d’utilisateur CHAP dans ce champ. Ce nom doit être identique au nom d’utilisateur CHAP configuré sur la cible iSCSI. l Secret de la cible - Entrez le mot de passe CHAP dans ce champ. Il doit être identique au mot de passe CHAP configuré sur la cible iSCSI et doit comporter entre 12 et 16 caractères. Ce mot de passe ne doit pas être identique au Secret de l’initiateur. l Utiliser CHAP mutuel - Cochez cette case pour activer l’authentification CHAP mutuelle sur ce port. L’authentification CHAP mutuelle permet à l’initiateur d’authentifier la cible. Après l’activation de l’authentification CHAP mutuelle, le mot de passe de l’initiateur doit être entré. L’authentification CHAP mutuelle ne peut être sélectionnée que si l’option Utiliser CHAP est sélectionnée elle aussi. l Secret de l’initiateur - Entrez le mot de passe de l’authentification CHAP mutuelle dans ce champ. Ce mot de passe doit également être configuré sur la cible iSCSI et doit comporter entre 12 et 16 caractères. Ce mot de passe ne doit pas être identique au Secret de la cible. La fonctionnalité d’authentification CHAP de ce produit nécessite les mentions suivantes : Ce produit comprend un logiciel de cryptographie écrit par Eric Young (eay@cryptsoft.com). Ce produit comprend un logiciel écrit par Tim Hudson (tjh@cryptsoft.com). Ce produit inclut un logiciel développé par l'OpenSSL Project en vue de l'utilisation dans l'OpenSSL Toolkit. (http://www.openssl.org/) Intel® PROSet pour le Gestionnaire de périphériques Windows* Bon nombre des fonctions du menu Intel® iSCSI Boot de sélection des ports peuvent être configurées ou modifiées depuis le Gestionnaire de périphériques Windows. Ouvrez la feuille de propriétés de la carte réseau et sélectionnez l'onglet Data Options. Vous devez installer les pilotes et logiciels de carte réseau Ethernet Intel les plus récents pour y accéder. Configuration de la cible de démarrage iSCSI Pour obtenir des informations spécifiques sur la configuration du système iSCSI cible et du volume disque, reportezvous aux instructions fournies par son fabricant. Vous trouverez ci-dessous les étapes de base nécessaires à la configuration du démarrage iSCSI Ethernet Intel® pour qu’il fonctionne avec la plupart des systèmes iSCSI cibles. Les étapes peuvent être différentes en fonction du fabricant. REMARQUE : pour que la cible prenne en charge iSCSI Boot, elle doit pouvoir prendre en charge plusieurs sessions du même initiateur. L’initiateur du microprogramme iSCSI Boot et l’initiateur High du SE doivent établir une session iSCSI simultanément. Ces initiateurs utilisent tous les deux le même nom et la même adresse IP pour se connecter et accéder au disque du SE, mais ils établissent des sessions iSCSI différentes. Pour que la cible prenne en charge iSCSI Boot, elle doit pourvoir prendre en charge l’ouverture de plusieurs sessions et la connexion de plusieurs clients. 1. Configurez un volume disque sur votre système iSCSI cible. Notez l’ID de l’unité logique de ce volume, qui sera utilisé lors de la configuration du microprogramme du démarrage iSCSI Ethernet Intel®. 2. Notez le nom IQN (iSCSI Qualified Name) de la cible iSCSI qui devrait ressembler à ce qui suit : iqn.1986-03.com.intel:target1 Cette valeur sera utilisée comme nom de la cible iSCSI lors de la configuration du microprogramme du démarrage iSCSI Ethernet Intel®. 3. Configurez le système iSCSI cible pour qu’il accepte la connexion iSCSI de l’initiateur iSCSI. Cela nécessite habituellement que le nom IQN de l’initiateur ou l’adresse MAC soient répertoriés afin d’autoriser l’accès de l’initiateur au volume de disque. Reportez-vous à la section Configuration du microprogramme pour obtenir des informations sur la définition du nom de l'initiateur iSCSI. 4. Un protocole d’authentification à sens unique peut être activé optionnellement pour sécuriser les communications. Le protocole CHAP (Challenge-Handshake Authentication Protocol) peut être activé en configurant le nom d’utilisateur et le mot de passe sur le système iSCSI cible. Pour configurer CHAP sur l'initiateur iSCSI, reportez-vous à la section Configuration du microprogramme pour plus de détails. Démarrage depuis des cibles de taille supérieure à 2 To Vous pouvez vous connecter et démarrer depuis une unité logique cible de taille supérieure à 2 téraoctets avec les restrictions suivantes : l La taille des blocs de la cible doit être de 512 octets. l Les systèmes d'exploitation suivants sont pris en charge : l VMware* ESX 5.0 ou versions ultérieures l Red Hat* Enterprise Linux* 6.3 ou versions ultérieures l SUSE* Enterprise Linux 11SP2 ou versions ultérieures l Microsoft* Windows Server* 2012 R2 ou versions ultérieures l Il est possible que vous ne puissiez accéder qu'au 2 premiers téraoctets de données. REMARQUE : le pilote de vidage sur incident ne prend pas en charge les unités logiques cibles de taille supérieure à 2 To. Configuration du serveur DHCP Si vous utilisez le protocole DHCP (Dynamic Host Configuration Protocol), le serveur DHCP doit être configuré pour fournir les configurations de démarrage iSCSI à l’initiateur iSCSI. Vous devrez configurer le serveur DHCP pour spécifier l'option Root Path 17 et l'option Host Name 12 pour renvoyer l'information de cible iSCSI à l'initiateur iSCSI. L’option DHCP 3, liste des routeurs, peut être nécessaire, en fonction de la configuration du réseau. Option de chemin d’accès racine DHCP 17 : La chaîne de configuration de l’option du chemin d’accès racine iSCSI utilise le format suivant : iscsi:<nom ou adresse IP du serveur>:<protocole>:<port>:<LUN>:<nom de la cible> Nom du serveur : Nom du serveur DHCP ou adresse IPv4 littérale valide. Exemple : 192.168.0.20. l Protocole : Protocole de transport utilisé par iSCSI. La valeur par défaut est TCP (6). Aucun autre protocole n’est pris en charge. l Port : Numéro du port de la cible iSCSI. La valeur par défaut 3260 est utilisée si ce champ est laissé en blanc. l Unité logique : LUN ID de l’unité logique configuré sur le système iSCSI cible. La valeur par défaut est zéro. l Nom de la cible : Nom de la cible iSCSI qui identifie de façon unique la cible iSCSI au format IQN. Exemple : iqn.1986-03,com.intel:target1 Option de nom d’hôte DHCP 12 : l Configurez l’option 12 avec le nom d’hôte de l’initiateur iSCSI. Option DHCP 3, liste des routeurs : Configure l’option 3 avec l’adresse IP de la passerelle ou du routeur, si l’initiateur iSCSI et la cible iSCSI se trouvent sur des sous-réseaux différents. Création d'une image de démarrage pour une cible iSCSI Il existe deux façons de créer une image de démarrage sur une cible iSCSI : l Installation directe sur un disque dur d’une batterie de disques de stockage iSCSI (installation à distance). l Installation sur un disque dur local, puis transfert de ce disque dur ou de cette image de SE sur une cible iSCSI (installation locale). Microsoft* Windows* Microsoft* Windows Server* prend en charge de façon native l’installation d'un SE sur une cible iSCSI sans disque local et le démarrage iSCSI sous le SE. Voir les instructions d'installation de Microsoft et la documentation de Windows Deployment Services pour plus de détails. SUSE* Linux Enterprise Server La méthode d’installation la plus facile de Linux sur une cible iSCSI consiste à utiliser SLES10 ou une version ultérieure. SLES10 fournit une prise en charge native du démarrage et de l’installation à distance iSCSI. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une carte Ethernet Intel pour serveur. Reportez-vous à la documentation de SLES10 pour des instructions sur l’installation sur une unité logique iSCSI. Red Hat Enterprise Linux Pour faciliter l'installation de Linux sur une cible iSCSI, utiliser RHEL 5.1 ou une version supérieure. RHEL 5.1 fournit une prise en charge native du démarrage et de l’installation à distance iSCSI. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une carte Ethernet Intel pour serveur. Reportez-vous à la documentation de RHEL 5.1 pour des instructions sur l’installation sur une unité logique iSCSI. Prise en charge du vidage sur incident iSCSI par Microsoft Windows Server La création du fichier de vidage sur incident est prise en charge par le pilote de vidage sur incident iSCSI Intel pour Windows Server x64. Pour assurer un vidage complet de la mémoire, 1. Définissez une taille de fichier d'échange égale ou supérieure à la quantité de mémoire vive installée sur le système pour vider complètement la mémoire ; 2. Veillez à ce que l'espace libre disponible sur le disque dur soit suffisant en fonction de la quantité de mémoire vive installée sur le système. Pour configurer la prise en charge du vidage sur incident, procédez comme suit : 1. Mise en place du démarrage iSCSI de Windows. 2. Si ce n'est déjà fait, installez les tout derniers pilotes de carte réseau Ethernet Intel et Intel® PROSet pour le Gestionnaire de périphériques Windows. 3. Ouvrez Intel® PROSet pour le Gestionnaire de périphériques Windows et sélectionnez l’onglet Boot Options. 4. Depuis Settings (Paramètres), sélectionnez ISCSI Remote Boot Crash Dump (Vidage sur incident ISCSI Remote Boot) et Value Enabled (Valeur activée), puis cliquez sur OK. Dépannage d'iSCSI Le tableau ci-dessous répertorie les problèmes pouvant survenir lors de l’utilisation du démarrage iSCSI Ethernet Intel®. Une cause et une solution possibles sont fournies pour chaque problème. Problème Le démarrage iSCSI Ethernet Intel® ne se charge pas lors du démarrage du système et la bannière d’authentification ne s’affiche pas. Solution l l l l Tandis que l’écran de connexion système peut s’afficher pendant plus longtemps lors du démarrage du système, le démarrage iSCSI Ethernet Intel® peut ne pas s’afficher pendant le POST. Il peut s’avérer nécessaire de désactiver une fonctionnalité du BIOS du système pour afficher les messages provenant du démarrage à distance iSCSI Intel®. Dans le menu du BIOS système, désactivez toute option de démarrage silencieux ou de démarrage rapide. Désactivez également les images de démarrage du BIOS. Ces options peuvent supprimer la sortie du démarrage à distance iSCSI Intel®. Le démarrage à distance iSCSI Ethernet Intel® n’a pas été installé sur la carte ou la ROM flash de la carte n’est pas activée. Mettez à jour la carte réseau à l'aide de la dernière version de l'utilitaire BootUtil, comme décrit dans la section Images Flash de ce document. Si l’utilitaire BootUtil signale que la ROM flash est désactivée, utilisez la commande "BootUtil -flashenable" pour activer la ROM flash et mettre la carte à jour. Il est possible que le système BIOS supprime la sortie du démarrage iSCSI Ethernet Intel®. La mémoire du système BIOS peut être insuffisante pour charger le démarrage iSCSI Ethernet Intel®. Essayez de désactiver les contrôleurs de disque et les périphériques inutilisés dans le menu de configuration du système BIOS. Les contrôleurs SCSI, le contrôleur RAID, les connexions réseau PXE activées et les copies shadow du BIOS système réduisent tous la mémoire disponible pour le démarrage iSCSI Ethernet Intel®. Désactivez ces périphériques et redémarrez le système pour voir si Intel® iSCSI Boot peut s’initialiser. Si la désactivation des périphériques dans le menu du BIOS système ne résout pas le problème, essayez d’enlever les lecteurs de disque ou contrôleurs de disque du système. Certains fabricants permettent de désactiver des périphériques inutilisés à l’aide de cavaliers. Après avoir installé le démarrage iSCSI Ethernet Intel®, le système ne démarre pas à partir d’un disque dur local ou d’un périphérique de démarrage réseau. Le système ne répond plus après que le démarrage iSCSI Ethernet Intel® affiche la bannière d’authentification ou la connexion à la cible iSCSI. "Intel® iSCSI Remote Boot" (Démarrage à distance iSCSI Intel®) n’est pas répertorié comme périphérique de démarrage dans le menu des périphériques de démarrage du BIOS système. Message d’erreur affiché : "Failed to detect link" (Échec de la détection de liaison) Message d’erreur affiché : "DHCP Server not found!" (Serveur DHCP introuvable!) Message d’erreur affiché : "PnP Check Structure is invalid!" (La structure de la vérification Plug and play n’est pas valide !) Message d’erreur affiché : "Invalid iSCSI connection information" (Informations non valides de connexion iSCSI) l l l l l Une erreur système irrécupérable s’est produite lors de l’initialisation du démarrage à distance iSCSI. Mettez le système sous tension et appuyez sur la touche "S" ou "Échap." avant que le démarrage à distance iSCSI Intel® ne s’initialise. Cela permet de contourner le processus d’initialisation du démarrage iSCSI Ethernet Intel® et permet au système de s’amorcer depuis un disque local. Utilisez l’utilitaire BootUtil pour mettre à jour le microprogramme avec la dernière version du démarrage à distance iSCSI Ethernet Intel®. La mise à jour du BIOS système peut également résoudre ce problème. Il est possible que le BIOS système ne prenne pas en charge le démarrage iSCSI Ethernet Intel®. Mettez à jour le BIOS système avec la version la plus récente du fabricant du système. Un conflit peut exister avec un autre périphérique installé. Essayez de désactiver les contrôleurs de disque et de réseau inutilisés. Certains contrôleurs SCSI et RAID sont connus pour provoquer des problèmes de compatibilité avec démarrage à distance iSCSI Intel®. Le démarrage iSCSI Ethernet Intel® n’a pas pu détecter la liaison sur le port réseau. Vérifiez le témoin de détection de la liaison, situé à l’arrière de la carte réseau. Le témoin de liaison vert doit s’allumer lorsque la liaison est établie avec le partenaire de liaison. Si le témoin de liaison s’allume alors que le message d’erreur s’affiche, essayez d’exécuter les tests Intel de diagnostic de liaison et de câblage à l’aide de DIAGS.EXE sous DOS ou d’Intel® PROSet sous Windows. iSCSI a été configuré pour récupérer une adresse IP sur un serveur DHCP mais aucun serveur DHCP n’a répondu à la demande de détection DHCP. Ce problème peut avoir plusieurs causes : l Le serveur DHCP peut avoir utilisé toutes les réservations d’adresses IP disponibles. l Le système iSCSI client peut exiger qu’une adresse IP statique lui soit affectée sur le réseau connecté. l Il est possible qu’aucun serveur DHCP ne se trouve sur le réseau. l Le protocole STP (Spanning Tree Protocol) du commutateur réseau peut empêcher le port du démarrage à distance iSCSI Intel® de contacter le serveur DHCP. Reportez-vous à la documentation de votre commutateur de réseau sur la façon de désactiver Spanning Tree Protocol. l l Le démarrage iSCSI Ethernet Intel® n’a pas pu détecter de BIOS PCI Plug and Play. Si ce message s’affiche, le démarrage iSCSI Ethernet Intel® ne peut pas être exécuté sur le système en question. Un BIOS PCI entièrement conforme Plug and Play est nécessaire pour exécuter le démarrage à distance iSCSI Intel®. Les informations de configuration iSCSI reçues du DHCP ou configurées de façon statique dans le menu de configuration sont incomplètes et la tentative de connexion au système iSCSI cible a échoué. Vérifiez que le nom de l’initiateur iSCSI, le nom de la cible iSCSI, l’adresse IP de la cible et le numéro de port de la cible sont configurés correctement dans le menu de configuration iSCSI (pour une configuration statique) ou sur le serveur DHCP (pour une configuration BOOTP dynamique). Message d’erreur affiché : "Unsupported SCSI disk block size!" (Taille non prise en charge pour les blocs de disque SCSI!) Message d’erreur affiché : "ERROR: Could not establish TCP/IP connection with iSCSI target system." (ERREUR : impossible d’établir une connexion TCP/IP avec le système iSCSI cible) Message d’erreur affiché : "ERROR: CHAP authentication with target failed." (ERREUR : échec de l’authentification CHAP de la cible) Message d’erreur affiché : "ERROR: Login request rejected by iSCSI target system." (ERREUR : demande de connexion rejetée par le système iSCSI cible) Lors de l'installation de Linux sur NetApp Filer, lorsqu'une recherche de disque cible a réussi, des messages d'erreur peuvent sembler similaires à ceux qui sont indiqués ci-dessous. l l l l l l Le système iSCSI cible est configuré pour utiliser une taille de bloc de disque qui n’est pas prise en charge par le démarrage iSCSI Ethernet Intel®. Configurez le système iSCSI cible pour qu’il utilise une taille de bloc de 512 octets. Le démarrage iSCSI Ethernet Intel® n’a pas pu établir une connexion TCP/IP avec le système iSCSI cible. Vérifiez que l’adresse IP de l’initiateur et de la cible, le masque de sous-réseau et les paramètres du port et de la passerelle sont configurés correctement. Le cas échéant, vérifiez les paramètres du serveur DHCP. Vérifiez que le système iSCSI cible est connecté à un réseau auquel l’initiateur du démarrage à distance iSCSI Intel® peut accéder. Vérifiez que le système n’est pas bloqué par un pare-feu. Le nom d’utilisateur ou le secret CHAP ne correspondent pas à la configuration CHAP du système iSCSI cible. Vérifiez que la configuration CHAP du port du démarrage à distance iSCSI Intel® correspond à celle du système iSCSI cible. Désactivez CHAP dans le menu de configuration du démarrage à distance iSCSI s’il n’est pas activé sur la cible. Une demande de connexion a été envoyée au système iSCSI cible, mais elle a été rejetée. Vérifiez que le nom de l’initiateur iSCSI, le nom de la cible, le numéro d'unité logique (LUN) et les paramètres d’authentification CHAP correspondent à ceux du système iSCSI cible. Vérifiez que la cible est configurée pour autoriser l’initiateur du démarrage à distance iSCSI Intel® à accéder à une unité logique. Si ces messages d'erreur s'affichent, les interfaces iSCSI inutilisées de NetApp Filer doivent être désactivées. "Continuous=no" doit être ajouté au fichier iscsi.conf. Iscsi-sfnet:hostx: Connect failed with rc -113: No route to host (Aucun chemin d’accès pour atteindre l’hôte) Iscsi-sfnet:hostx: establish_ session failed. Could not connect to target (Impossible de se connecter à la cible) Message d’erreur affiché. "ERROR: iSCSI target not found." (ERREUR : cible iSCSI non trouvée) Message d’erreur affiché. "ERROR: iSCSI target cannot accept any more connections." (ERREUR : la cible iSCSI ne peut pas accepter d’autres connexions.) Message d’erreur affiché. l l l Une connexion TCP/IP a été établie vers l’adresse IP cible, cependant une adresse iSCSI cible portant le nom de cible iSCSI spécifié est introuvable sur le système cible. Vérifiez que le nom de la cible iSCSI et le nom de l’initiateur configurés correspondent aux paramètres de la cible iSCSI. La cible iSCSI ne peut pas accepter de nouvelle connexion. Cette erreur peut être provoquée par une limite configurée sur la cible iSCSI ou une limitation de ressources (absence de disque disponible). Une erreur est survenue sur la cible iSCSI. Vérifiez la cible iSCSI pour "ERROR: iSCSI target has reported an error." (ERREUR : la cible iSCSI a signalé une erreur.) Message d’erreur affiché. "ERROR: There is an IP address conflict with another system on the network (ERREUR : un conflit d’adresses IP existe avec un autre système du réseau). déterminer la source de l’erreur et vérifier sa configuration. l l l Un système utilisant la même adresse IP que le client de ROM optionnelle iSCSI a été trouvé. Si une adresse IP statique est utilisée, tentez de remplacer l’adresse IP par une adresse qui n’est pas utilisée par un autre client du réseau. Si l’adresse IP est affectée par un serveur DHCP, assurez-vous qu’aucun client du réseau n’utilise une adresse IP entrant en conflit avec la plage d’adresses IP utilisée par le serveur DHCP. Problèmes connus sous iSCSI Un périphérique n'apparaît pas dans le menu des paramètres réseau du contrôleur de cycle de vie (Lifecycle Controller) Lorsqu'un périphérique de démarrage iSCSI Ethernet Intel® est connecté à une unité logique iSCSI (LUN) en mode d'amorçage BIOS existant, il ne sera pas affiché dans le menu des paramètres réseau du contrôleur de cycle de vie (Lifecycle Controller). Il n'est pas possible de désinstaller un appareil s'il est configuré en tant que port iSCSI principal ou secondaire. La désactivation du port iSCSI principal désactive également le port secondaire. Pour démarrer à partir du port secondaire, configurez-le de sorte qu'il devienne le port principal. Démarrage à distance iSCSI : connexion dos à dos à une cible avec LOM Broadcom La connexion d'un hôte de démarrage iSCSI à une cible au moyen d'un LOM (réseau local sur carte mère) Broadcom peut parfois faire échouer la connexion. Utilisez un commutateur entre l'hôte et la cible pour éviter ce problème. Le microprogramme de démarrage à distance iSCSI peut parfois afficher la valeur 0.0.0.0 dans le champ d'adresse IP du serveur DHCP. -Dans le cas des serveurs DHCP reposant sur Linux, le microprogramme de démarrage à distance iSCSI affiche la valeur 0.0.0.0 dans le champ d'adresse IP du serveur DHCP. Le microprogramme de démarrage à distance iSCSI examine l'adresse IP du serveur DHCP à partir du champ Next-Server du paquet de réponse DHCP. Cependant, le serveur DHCP reposant sur Linux peut ne pas définir le champ par défaut. Ajoutez « Next-Server <Adresse IP>; » dans dhcpd.conf pour afficher l'adresse IP adéquate du serveur DHCP. Le trafic iSCSI s'interrompt lorsque RSC est désactivé Pour éviter une perte de connexion, la coalition matérielle des segments entrants (Receive Segment Coalescing, RSC) doit être désactivée avant d'associer un réseau local virtuel à un port qui sera utilisé pour la connexion à une cible iSCSI. Remédiez à ce problème en désactivant la coalition matérielle des segments entrants avant de configurer le réseau local virtuel. Cela évitera l'interruption du trafic. Problèmes de démarrage iSCSI sous Microsoft Windows L’initiateur Microsoft n’amorce pas sans liaison sur le port de démarrage : Après avoir configuré le système pour Intel® Ethernet iSCSI Boot avec deux ports connectés à une cible et avoir redémarré le système avec succès, l’initiateur Microsoft redémarrera continuellement le système si vous tentez ultérieurement de démarrer le système alors que seul le port de démarrage secondaire est connecté à la cible. Pour contourner cette limitation, procédez comme suit : 1. À l’aide de l’Éditeur du Registre, développez la clé de registre suivante : \System\CurrentControlSet\Services\Tcpip\Parameters 2. Créez une valeur DWORD appelée DisableDHCPMediaSense et définissez la valeur sur 0. Prise en charge des plates-formes démarrées par l’initiateur iSCSI UEFI natif À partir de la version 2.2.0.0, le pilote iSCSI de vidage de la mémoire sur incident prend également en charge les plates-formes amorcées à l’aide de l’initiateur iSCSI UEFI natif sur les cartes réseau Intel prises en charge. Cette prise en charge est possible sur Windows Server ou une version ultérieure et uniquement sur une architecture 64 bits. Tous les correctifs cités ci-dessus doivent aussi être installés. Comme sur les plates-formes UEFI les cartes réseau ne fournissent pas forcément de ROM optionnelle iSCSI existante, l’onglet des options de démarrage dans DMIX ne permet pas forcément d’activer le pilote iSCSI de vidage de la mémoire sur incident. Si c’est le cas, l’entrée de registre suivante doit être créée : HKLM\SYSTEM\CurrentControlSet\Control\Class\{4D36E97B-E325-11CE-BFC108002BE10318}\<IDInstance>\Parameters DumpMiniport REG_SZ iscsdump.sys Déplacement de la carte iSCSI vers un autre emplacement : Dans une installation Windows*, si vous déplacez la carte iSCSI vers un emplacement PCI différent de celui qui était utilisé lors de l’installation des pilotes et de l’initiateur iSCSI Remote Boot Microsoft, une erreur système peut se produire au milieu de l’écran de démarrage Windows. Le problème disparaît si vous replacez la carte dans l’emplacement PCI d’origine. Nous recommandons de ne pas déplacer la carte utilisée pour l'installation de démarrage iSCSI. Il s’agit d’un problème connu du SE. Si vous devez placer la carte dans un autre connecteur, procédez comme suit : 1. 2. 3. 4. 5. 6. 7. 8. Démarrez le système d'exploitation et supprimez l'ancienne carte. Installez une nouvelle carte dans un autre connecteur. Configurez la nouvelle carte pour iSCSI Boot. Effectuez un démarrage iSCSI sous le SE via la carte d’origine. Configurez la nouvelle carte pour qu’elle puisse être démarrée sous le SE. Redémarrez. Placez l’ancienne carte dans un autre connecteur. Répétez les étapes 2 à 5 pour l’ancienne carte que vous venez de déplacer. La désinstallation du pilote peut entraîner une erreur système fatale (écran bleu) Si le pilote du périphérique utilisé pour le démarrage iSCSI Boot est désinstallé à l’aide du Gestionnaire de périphériques, une erreur système Windows (écran bleu) se produit lors du redémarrage et le SE doit être réinstallé. Il s’agit d’un problème connu de Windows. Les cartes flashées avec une image iSCSI ne sont pas supprimées du Gestionnaire de périphériques lors de la désinstallation Lors de la désinstallation, tous les autres logiciels de connexion réseau Intel sont supprimés, mais les pilotes des cartes iSCSI Boot ont la priorité de démarrage. Le déchargement d’I/OAT peut s’arrêter avec une installation du démarrage Intel® Ethernet iSCSI Boot ou de l’initiateur Microsoft Pour pallier ce problème, la valeur de registre suivante peut être remplacée par "0". HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\IOATDMA\Start Cette valeur de registre ne doit être modifiée que si iSCSI Boot est activé et si vous voulez activer le déchargement d’Intel® I/OAT. Une erreur système se produit si cette valeur est définie sur "0" alors qu’iSCSI Boot n’est pas activé. Elle doit être définie à nouveau sur "3" si iSCSI Boot est désactivé, ou une erreur système se produira au redémarrage. Démarrage et associations Intel® iSCSI sous Windows Les associations ne sont pas prises en charge par iSCSI Boot. La création d’une association avec les cartes iSCSI principale et secondaire et la sélection de cette association lors de l’installation de l’initiateur Microsoft peut échouer, avec des redémarrages à répétition. Ne sélectionnez pas d’association pour le démarrage iSCSI, même si elle peut être sélectionnée lors de l’installation de l’initiateur. Pour l’équilibrage de la charge et la prise en charge du basculement, vous pouvez utiliser Microsoft MPIO. Consultez le guide de l'utilisation de l'initiateur Microsoft pour savoir comment configurer MPIO. La définition d’une adresse administrée localement (LAA) sur un port activé pour le démarrage iSCSI entraîne une défaillance du système lors du prochain redémarrage Ne définissez pas d’adresse administrée localement sur les ports sur lesquels iSCSI Boot est activé. La version d'Intel® Ethernet iSCSI Boot n'est pas identique entre les versions affichées sur DMIX et le texte défilant pendant le démarrage Si un périphérique n'est pas configuré comme principal, mais est recensé en premier, le BIOS utilisera quand même la version de iSCSI Boot de ce périphérique. Par conséquent, l'utilisateur peut finir par utiliser une version de Intel® Ethernet iSCSI Boot plus ancienne que prévu. La solution est que tous les périphériques du système doivent avoir la même version de iSCSI Boot. Pour ce faire, l'utilisateur doit aller à l'onglet Options de démarrage et mettre à jour la mémoire flash des appareils vers la dernière version. Ouverture de session iSCSI IPv6 sur des batteries Dell EMC EqualLogic utilisant des trames Jumbo Pour ouvrir une session iSCSI en utilisant IPv6 et des trames Jumbo avec des batteries Dell EqualLogic, le délestage avec contrôle d'intégrité TCP/UDP doit être désactivé sur la carte iSCSI Intel. Problèmes connus de iSCSI/DCB sous Microsoft Windows La création automatique des filtres de trafic iSCSI pour DCB n’est prise en charge que sur les réseaux qui utilisent l’adressage IPv4 L’option iSCSI for DCB (Pontage de centre de données désactivé) utilise les filtres de trafic QOS (Qualité de service) pour étiqueter les paquets sortants avec une priorité. Intel iSCSI Agent utilise l’adressage IPv4 pour créer de façon dynamique ces filtres de trafic en fonction de la demande des réseaux. Ouverture de session iSCSI IPv6 sur des batteries Dell EqualLogic utilisant des trames Jumbo Pour ouvrir une session iSCSI en utilisant IPv6 et des trames Jumbo avec des batteries Dell EqualLogic, le délestage avec contrôle d'intégrité TCP/UDP doit être désactivé sur la carte iSCSI Intel. Problèmes connus sous Linux Channel Bonding Le Channel Bonding Linux présente des problèmes de compatibilité de base avec iSCSI Boot et ne doit pas être utilisé. Des erreurs d’authentification sur une cible EqualLogic peuvent se présenter dans dmesg lors de l’exécution de Red Hat* Enterprise Linux 4 Ces messages d’erreur n’indiquent pas de blocage de connexion ou de démarrage et peuvent être ignorés en toute sécurité. Incompatibilité de LRO et de iSCSI Le délestage des grandes réceptions (Large Receive Offloads, LRO) est incompatible avec la cible iSCSI ou le trafic de l’initiateur. Une situation de panique peut se produire en cas de réception du trafic iSCSI via le pilote ixgbe alors que le délestage LRO est activé. Le pilote devrait être compilé et installé avec : # make CFLAGS_EXTRA=-DIXGBE_NO_LRO install Configuration du démarrage FCoE Configuration du client FCoE Installation et configuration du démarrage FCoE Ethernet Intel® sur un client Microsoft* Windows* Avertissements : l Ne mettez pas à jour le pilote de base à l'aide de la méthode de mise à jour Windows. Le système pourrait ne plus fonctionner et être à l’origine d’une erreur système fatale. La pile FCoE et le pilote de base doivent correspondre. La pile FCoE risque de ne plus être synchronisée avec le pilote de base si le pilote de base est mis à jour à l'aide de Windows Update. La mise à niveau d’un système de démarrage FCoE ne peut être exécutée qu'à l'aide du programme d’installation des Connexions réseau Intel®. l Si vous utilisez Microsoft* Windows Server* 2012 R2, vous devez installer KB2883200. Faute de quoi, il pourrait en résulter une erreur 1719 et un écran bleu. Nouvelle installation sur un système Windows Server* Depuis le support Intel téléchargé : cliquez sur les cases FCoE/DCB pour installer le pilote de protocole FCoE Ethernet Intel® et DCB. Le programme d'installation MSI Installer installe tous les composants FCoE et DCB, y compris le pilote de base. Configurez les options du démarrage FCoE Ethernet Intel® à partir d'Intel® PROSet pour le Gestionnaire de périphériques Windows* De nombreuses fonctions FCoE peuvent être configurées ou révisées à l’aide d’Intel® PROSet pour le Gestionnaire de périphériques Windows*, depuis le bouton FCoE Properties sur l’onglet Data Center. Vous pouvez utiliser Intel® PROSet pour effectuer les tâches suivantes : l Configuration des paramètres spécifiques à l’initiateur FCoE l Passez au pilote du port correspondant l Révision des informations de l’initiateur FCoE l Obtention d’informations générales l Révision des statistiques l Obtention d’informations sur l’initiateur l Obtention d’informations sur les périphériques connectés l VLAN détectés par FIP et leur état De plus, vous trouverez certains paramètres de performances RSS FCoE sous Performance Options de l'onglet Avancé dans les propriétés du périphérique Carte réseau. Pour plus d'informations, consultez la section Receive Side Scaling (Mise à l'échelle côté réception ou RSS). REMARQUES : l Dans l'onglet Options de démarrage, l'utilisateur peut voir le bouton Informations Flash. En cliquant sur le bouton Informations Flash, la boîte de dialogue Informations Flash s'ouvre. Dans la boîte de dialogue Informations Flash, cliquez sur le bouton Mettre à jour l'image flash pour permettre l'écriture d'Intel® iSCSI Remote Boot (Démarrage à distance iSCSI Intel®), d'Intel® Boot Agent (IBA), du démarrage FCoE Ethernet Intel®, d'EFI et de CLP. L’opération de mise à jour écrit une nouvelle image dans la mémoire Flash de la carte et modifie la mémoire EEPROM. Celle-ci risque de désactiver momentanément le pilote de périphérique réseau Windows*. Un redémarrage de votre système sera probablement requis à la suite de cette opération. l Vous ne pouvez pas mettre à jour l’image Flash d’un LOM; ce bouton sera désactivé. 1. Créez un disque cible (unité logique ou LUN) sur une cible Fibre Channel disponible. Configurez cette unité logique pour qu’elle soit accessible par l’adresse WWPN de l’initiateur de l’hôte en cours de démarrage. 2. Assurez-vous que le système client démarre le microprogramme du démarrage FCoE Ethernet Intel®. Le microprogramme doit être configuré correctement, pouvoir se connecter à la cible Fibre Channel et détecter le disque de démarrage. Intel® PROSet pour le Gestionnaire de périphériques Windows* Bon nombre des fonctions du menu de configuration de la sélection des ports pour le démarrage FCoE Ethernet Intel® peuvent être configurées ou modifiées en utilisant Intel® PROSet pour le Gestionnaire de périphériques Windows. l La version du démarrage FCoE Ethernet Intel® est affichée dans l’onglet Boot Options si l’image combinée prend en charge le démarrage FCoE. l Le démarrage FCoE Ethernet Intel® est une option Active Image si le démarrage FCoE est pris en charge par l’image combinée. l Le paramètre Active Image permet d’activer/désactiver le démarrage FCoE dans l’EEPROM. l Les paramètres du démarrage FCoE Ethernet Intel® sont affichés si FCoE Boot correspond à l’image active. Installation de Windows Server depuis un disque distant (installation sans disque) Après avoir installé la ROM optionnelle, si vous voulez installer le système d'exploitation Windows Server directement sur le disque FCoE, procédez comme suit : 1. Téléchargez le package de mise à jour du pilote sur le site Web d'assistance de Dell. 2. Extrayez le package de mise à jour du pilote à l'aide de l'option « /s /drivers=c:\mydir ». 3. Localisez les pilotes FCoE dans c:\mydir\pre-os\W2K12R2-x64\FCoE. Extrayez tous les fichiers zippés et copiez-les sur un CD/DVD ou sur une clé USB. 4. Démarrer le support d’installation. 5. Effectuez une installation personnalisée et allez à l’écran « Où voulez-vous installer Windows ? ». 6. Utilisez Charger pilote pour charger les pilotes FCoE. Naviguez jusqu'à l'emplacement sélectionné précédemment et chargez les deux pilotes suivants dans l'ordre indiqué : 1. Pilote de configuration Ethernet Intel® pour FCoE. 2. Pilote du miniport de stockage virtuel Ethernet Intel(R) pour FCoE 7. 8. 9. 10. Remarque : les pilotes FCoE bloquent tout autre trafic réseau provenant des ports compatibles FCoE jusqu'à la fin de l'Étape 7 de cette section. Ne tentez pas d'installer un miniport NDIS pour un port compatible FCoE avant l'étape 7 de cette section. Le ou les disques FCoE doivent normalement figurer à présent dans la liste des cibles d’installation disponibles. Tous les disques accessibles à cet initiateur via le port de démarrage doivent apparaître. Sélectionnez dans la ROM optionnelle le disque FCoE configuré pour le démarrage et continuez l’installation jusqu’à ce que Windows soit installé et que vous soyez arrivé au Bureau. Suivez les instructions de Nouvelle installation sur un système Windows Server*. Cela installera les pilotes réseau et configurera le fonctionnement des pilotes FCoE avec les pilotes réseau. REMARQUE : vous ne pouvez pas désélectionner la fonctionnalité FCoE. Vous serez invité à redémarrer à la fin de l’installation. Windows peut vous inviter à redémarrer à nouveau après le retour au Bureau. Installation de Windows Server avec un disque local Après avoir installé la ROM optionnelle, si vous voulez installer Windows Server avec un disque local, procédez comme suit : 1. Suivez les instructions de Nouvelle installation sur un système Windows Server*. 2. Vérifiez que le disque de démarrage FCoE soit disponible dans l'onglet Fabric View (Vue de la matrice) d'Intel® PROSet pour le Gestionnaire de périphériques Windows et vérifiez que vous êtes bien en ligne en utilisant le Gestionnaire de disque Windows. 3. Ouvrez une fenêtre d’invite de commande et exécutez le fichier de commande fcoeprep.bat. Pour trouver le fichier de commande, naviguez jusqu'au répertoire c:\mydir\pre-os\W2K12R2-x64\FCoE. 4. Arrêtez Windows et capturez l’image du SE sur une partition de disque local. 5. Transférez l’image du disque dur local à la cible FCoE. Cela peut être réalisé depuis l’installation Windows locale. 6. Arrêtez le système et enlevez le disque local. 7. Configurez le système BIOS pour un démarrage depuis le disque FCoE et démarrez. REMARQUE : Consultez la documentation de Microsoft pour des instructions plus détaillées. Mise à niveau des pilotes Windows sur un système démarré par FCoE Ethernet Intel® La mise à niveau d’un système démarré par FCoE ne peut être exécutée qu'à l'aide du programme d’installation des Connexions réseau Intel®. Un redémarrage est nécessaire pour finaliser la mise à niveau. Vous ne pouvez pas mettre à niveau le package de pilotes et de logiciels Windows d'un port si le port se trouve sur le chemin du fichier d'échange de la mémoire virtuelle et s'il fait également partie d'une association LBFO Microsoft. Pour réaliser la mise à niveau, supprimez le port de l'association LBFO et redémarrez la mise à niveau. Certification de validation et de stockage Le logiciel pour FCoE Ethernet Intel® comporte deux composants essentiels : le pilote de base Ethernet et le pilote FCoE Ethernet Intel® (FCoE). Ils sont conçus et validés comme paire commandée. Il est fortement recommandé d’éviter les scénarios de mises à niveau ou de mises à jour de Windows, où la version du pilote Ethernet ne correspond pas à la celle du pilote FCoE Ethernet Intel® correspondant. Pour en savoir plus, visitez le centre de téléchargement. REMARQUES : l l La mise à niveau/la rétrogradation individuelle du pilote FCoE Ethernet Intel® ne fonctionnera pas et peut entraîner un blocage du système ; le package FCoE tout entier doit être de la même version. Le package FCoE ne doit être mis à niveau qu’avec les connexions réseau Intel®. Si vous désinstallez le pilote miniport de stockage virtuel Ethernet Intel® pour le composant FCoE, réinstallez la même version que celle désinstallée ou bien désinstallez, puis réinstallez le package entier FCoE. Configuration de la ROM optionnelle du démarrage FCoE Ethernet Intel® Menu de sélection des ports FCoE Pour configurer le démarrage FCoE Ethernet Intel®, mettez le système sous tension ou réinitialisez-le, puis appuyez sur les touches Ctrl+D lorsque le message « Press <Ctrl-D> to run setup... » (Appuyez sur <Ctrl+D> pour exécuter l'installation) s'affiche. Une fois que vous avez appuyé sur les touches Ctrl+D, le menu de la sélection des ports pour le démarrage FCoE Ethernet Intel® s'ouvre. Le premier écran du menu Démarrage FCoE Ethernet Intel® de configuration des ports affiche une liste des cartes compatibles avec le démarrage FCoE Ethernet Intel®. Pour chaque port de carte, l’adresse MAC SAN associée, l’ID de périphérique PCI, l’emplacement du bus PCI, du périphérique ou de la fonction et un champ indiquant l’état de démarrage FCoE s’affichent. Le menu de sélection des ports peut afficher jusqu’à 10 ports compatibles avec le démarrage FCoE. S’il existe d’autres cartes compatibles avec le démarrage FCoE Ethernet Intel®, elles ne sont pas répertoriées dans le menu de configuration. Mettez en surbrillance le port souhaité et appuyez sur Entrée. Menu de configuration des cibles du démarrage FCoE Configuration des cibles du démarrage FCoE : Discover Targets (Recherche de cibles) est mis en surbrillance par défaut. Si la valeur Discover VLAN (Recherche VLAN) n’est pas celle que vous voulez, entrez la valeur correcte. Mettez en surbrillance Discover Targets et appuyez sur Entrée pour afficher les cibles associées à la valeur Discover VLAN. Sous Target WWPN (Cible WWPN), si vous connaissez le WWPN voulu, vous pouvez l’entrer manuellement ou appuyer sur Entrée pour afficher la liste des cibles précédemment découvertes. Menu de sélection des cibles FCoE Mettez en évidence la Cible voulue dans la liste et appuyez sur Entrée. Remplissez manuellement les valeurs d'unité logique (LUN) et Boot Order (ordre de démarrage). Les valeurs valides pour Boot Order (ordre de démarrage) vont de 0 à 4, où 0 signifie pas d’ordre de démarrage ou ignorer la cible. La valeur 0 indique également que ce port ne doit pas être utilisé pour se connecter à la cible. Les valeurs d’ordre de démarrage 1 à 4 ne peuvent être attribuées qu’une fois aux cibles se trouvant sur tous les ports activés pour un démarrage FCoE. La valeur VLAN par défaut est 0. Vous pouvez procéder à la découverte des cibles (Discover Targets) qui afficheront un VLAN. Si le VLAN qui s’affiche n’est pas le VLAN souhaité, saisissez manuellement le VLAN et effectuez une recherche de cibles Discover Targets sur ce VLAN. Cliquez sur Save. REMARQUE : une fois la fonction Discover Targets (Recherche de cibles) exécutée, la ROM optionnelle tente de rester connectée jusqu’à la fin du FCoE Boot Targets Configuration Menu (Menu de configuration des cibles de démarrage FCoE). l l Raccourcis clavier : Haut/Bas, tabulation et Maj-tabulation pour passer d'une commande à l'autre. Gauche/droite/Début/Fin/Suppr/Arrière dans les zones d'édition. Appuyez sur la touche Échap pour quitter l'écran. Configuration d'une cible du démarrage FCoE Pour obtenir des informations spécifiques sur la configuration du système FCoE cible et du volume de disque, reportez-vous aux instructions fournies par le fournisseur du système ou du système d'exploitation. Vous trouverez ci-dessous les étapes de base nécessaires à la configuration du démarrage FCoE Ethernet Intel® pour qu’il fonctionne avec la plupart des systèmes FCoE cibles. Les étapes peuvent être différentes en fonction du fabricant. REMARQUE : si votre cible du démarrage FCoE est sur un VLAN différent du VLAN 1, vous devez alors utiliser le menu de démarrage POST (Ctrl-D) pour découvrir la cible. Installation de Windows Server depuis un disque distant (installation sans disque) Après avoir installé la ROM optionnelle, si vous voulez installer le système d'exploitation Windows Server directement sur le disque FCoE, procédez comme suit : 1. Téléchargez le package de mise à jour du pilote sur le site Internet d'assistance. 2. Extrayez le package de mise à jour du pilote à l'aide de l'option « /s /drivers=c:\mydir ». 3. Localisez les pilotes FCoE dans c:\mydir\pre-os\W2K12R2-x64\FCoE. Extrayez tous les fichiers zippés et copiez-les sur un CD/DVD ou sur une clé USB. 4. Démarrer le support d’installation. 5. Effectuez une installation personnalisée et allez à l’écran « Où voulez-vous installer Windows ? ». 6. Utilisez Charger pilote pour charger les pilotes FCoE. Naviguez jusqu'à l'emplacement sélectionné précédemment et chargez les deux pilotes suivants dans l'ordre indiqué : 1. Pilote de configuration Ethernet Intel® pour FCoE. 2. Pilote du miniport de stockage virtuel Ethernet Intel(R) pour FCoE 7. 8. 9. 10. Remarque : les pilotes FCoE bloquent tout autre trafic réseau provenant des ports compatibles FCoE jusqu'à la fin de l'étape 7 de cette section. Ne tentez pas d'installer un miniport NDIS pour un port compatible FCoE avant l'étape 7 de cette section. Le ou les disques FCoE doivent normalement figurer à présent dans la liste des cibles d’installation disponibles. Tous les disques accessibles à cet initiateur via le port de démarrage doivent apparaître. Sélectionnez dans la ROM optionnelle le disque FCoE configuré pour le démarrage et continuez l’installation jusqu’à ce que Windows soit installé et que vous soyez arrivé au Bureau. Suivez les instructions pour une nouvelle installation de Windows Server. Cela installera les pilotes réseau et configurera le fonctionnement des pilotes FCoE avec les pilotes réseau. REMARQUE : vous ne pouvez pas désélectionner la fonctionnalité FCoE. Vous serez invité à redémarrer à la fin de l’installation. Windows peut vous inviter à redémarrer à nouveau après le retour au Bureau. Installation de Windows Server avec un disque local Après avoir installé la ROM optionnelle, si vous voulez installer Windows Server avec un disque local, procédez comme suit : 1. Suivez les instructions pour une nouvelle installation de Windows Server. 2. Vérifiez que le disque de démarrage FCoE soit disponible dans l'onglet Fabric View (Vue de la matrice) d'Intel® PROSet pour le Gestionnaire de périphériques Windows et vérifiez que vous êtes bien en ligne en utilisant le Gestionnaire de disque Windows. 3. Ouvrez une fenêtre d’invite de commande et exécutez le fichier de commande fcoeprep.bat. Pour trouver le fichier de commande, rendez-vous dans le répertoire d'architecture pour votre système situé dans le répertoire c:\mydir\pre-os\W2K12R2-x64\FCoE. 4. Arrêtez Windows et capturez l’image du SE sur une partition de disque local. 5. Transférez l’image du disque dur local à la cible FCoE. Cela peut être réalisé depuis l’installation Windows locale. 6. Arrêtez le système et enlevez le disque local. 7. Configurez le système BIOS pour un démarrage depuis le disque FCoE et démarrez. REMARQUE : Consultez la documentation de Microsoft pour des instructions plus détaillées. SUSE* Linux Enterprise Server Pour faciliter l'installation de Linux sur une cible FCoE, utiliser SLES11 ou une version supérieure. SLES11 fournit une prise en charge native du démarrage et de l’installation à distance FCoE. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une carte Ethernet Intel pour serveur. Reportez-vous à la documentation de SLES11 pour des instructions sur l’installation sur une unité logique iSCSI. Red Hat Enterprise Linux Pour faciliter l'installation de Linux sur une cible iSCSI, utiliser RHEL 6 ou une version supérieure. RHEL 6 fournit une prise en charge native du démarrage et de l’installation à distance iSCSI. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une carte Ethernet Intel pour serveur. Reportez-vous à la documentation de RHEL 6 pour des instructions sur l’installation sur une unité logique iSCSI. Problèmes connus de FCoE Modifications inattendues du WWN virtuel ou du WWPN virtuel Les 6 derniers octets du WWN virtuel et du WWPN virtuel sont basés sur l'adresse MAC FIP virtuelle. Si vous définissez ou modifiez l'adresse MAC FIP virtuelle, les 6 derniers octets du WWN virtuel et du WWPN virtuel sont automatiquement modifiés pour être identiques. Vous pouvez modifier le WWPN virtuel et le WWN virtuel, mais vous ne pouvez modifier que le préfixe, c'est-à-dire les 2 premiers octets de la valeur respective du WWPN virtuel et du WWN virtuel. Les 6 derniers octets du WWPN virtuel et du WWN virtuel doivent être identiques à ceux de l'adresse MAC FIP active. L'adresse MAC FIP active peut être soit l'adresse MAC FIP virtuelle, soit l'adresse MAC FIP. Vous devez déterminer celle qui est activée et en service. Préfixes WWN virtuel et WWPN virtuel non réglés sur les valeurs définies dans le fichier XML de configuration du serveur Si l'option I/O Identity Optimization est activée, vous ne pouvez pas modifier les valeurs par défaut des préfixes WWN virtuel et WWPN virtuel. Si vous souhaitez modifier ces valeurs, vous devez d'abord désactiver l'option I/O Identity Optimization. Si vous activez l'option I/O Identity Optimization après avoir modifié les valeurs de préfixe, ces dernières reprennent leurs valeurs par défaut. Impossible de définir la même valeur pour l'adresse MAC virtuelle et l'adresse MAC FIP virtuelle Vous ne pouvez pas utiliser la même valeur pour l'adresse MAC virtuelle et l'adresse MAC FIP virtuelle. Problèmes du FCoE Ethernet Intel® sous Windows Le pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE risque de disparaître de la liste du Gestionnaire de périphériques. Le pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE peut disparaître de la liste du Gestionnaire de périphériques après : l le retrait d’un réseau virtuel l la modification des paramètres de la carte d’interface réseau Intel sous-jacente Cela peut se produire lorsque la carte réseau Intel correspondante est virtualisée pour créer un nouveau réseau virtuel ou pour supprimer ou modifier un réseau virtuel existant. Cela peut également se produire lorsque les paramètres de la carte d’interface réseau Intel sous-jacente sont modifiés (y compris dans le cadre d’une désactivation ou d’une réactivation de la carte réseau). Pour pallier le problème, avant de procéder à des modifications de la carte réseau en vue de la virtualiser, supprimez toutes les dépendances du pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE qui sont actuellement utilisées par le système. Supposons, par exemple, que l’utilisateur a affecté le ou les disques FCoE à partir du pilote de stockage FCoE à l’exécution de l’une de ses machines virtuelles et que, en même temps, il veuille modifier la configuration de la même carte réseau Intel pour la virtualiser. Dans ce cas, l’utilisateur devra retirer le ou les disques FCoE de la machine virtuelle avant de modifier la configuration de la carte réseau Intel. Le port virtuel peut disparaître de la machine virtuelle Lorsqu’elle démarre, la machine virtuelle demande au pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE ("le pilote") de créer un port virtuel. Si ultérieurement le pilote est désactivé, le port virtuel peut disparaître. La seule manière de le faire réapparaître est d’activer le pilote et de redémarrer la machine virtuelle. Lors de l’installation de FCoE après l’installation d’associations ANS et la création d’une association AFT, les pilotes Storport ne sont pas installés Le pontage de centre de données (DCB) est inactif par défaut si l’utilisateur installe des associations ANS et crée une association AFT, puis installe FCoE/DCB. Si l’utilisateur active ensuite DCB sur un port, le système d’exploitation détecte des pilotes Storport et l’utilisateur doit cliquer manuellement sur l’Assistant ajout de nouveau matériel pour installer chacun d’entre eux. Si l’utilisateur ne le fait pas, le pontage DCB n’est pas opérationnel ; le motif indiqué est l’absence d’homologue. Intel® PROSet pour Windows Device Manager (DMiX) n’est pas synchronisé avec l’utilitaire FCoE CTRL-D Quand l’utilisateur désactive FCoE via le menu de contrôle-D, Intel® PROSet pour l’interface utilisateur du gestionnaire de périphériques Windows établit que la mémoire flash contient une image FCoE, mais que celle-ci doit être mise à jour. La nouvelle mise à jour de la mémoire flash avec l’image FCoE réactive FCoE et rend disponible tous les paramètres FCoE. Si l’utilisateur utilise le menu de contrôle-D pour désactiver FCoE, il doit aussi utiliser le menu de contrôle-D pour l’activer. En effet, Intel® PROSet pour le gestionnaire de périphérique Windows ne prend pas en charge l’activation ou la désactivation FCoE. Les cartes réseau 82599 et X540 ne s’affichent pas comme étant compatibles SPC-3 dans la configuration Windows MPIO Étant donné que l’initiateur FCoE est un périphérique virtuel, il ne possède pas sa propre ID matérielle. Par conséquent, il ne s’affiche pas comme périphérique compatible SPC-3 dans la configuration Windows MPIO. Lors de la suppression des associations ALB, toutes les fonctions FCOE sont défaillantes, tous les onglets DMIX sont grisés et les ports des deux cartes sont défaillants Pour que les associations ANS fonctionnent avec Microsoft Network Load Balancer (NLB) en mode monodiffusion, l’adresse administrée localement de l’association doit être définie pour regrouper l’IP de nœud. Pour le mode ALB, l’équilibrage de la charge de réception doit être désactivé. Pour plus de détails de configuration, reportez-vous au site http://support.microsoft.com/?id=278431. Les associations ANS fonctionnent quand NLB est en mode multidiffusion. Pour savoir comment configurer correctement la carte dans ce mode, voir http://technet.microsoft.com/en-ca/library/cc726473(WS.10).aspx. Le trafic FCoE et TCP/IP sur le même VLAN peut ne pas fonctionner sur certains commutateurs Ce problème de conception et de configuration de commutateurs est connu. Problèmes du démarrage FCoE Ethernet Intel® Problèmes connus pour les ROM optionnelles Problèmes connus de détection avec plusieurs réseaux virtuels FCoE Il se peut que la ROM optionnelle FCoE ne détecte pas le réseau virtuel voulu lors de la détection des réseaux virtuels avec la fonction Discover Targets. Si le champ Discover VLAN contient un réseau virtuel incorrect, entrez le réseau voulu avant d’exécuter la fonction Discover Targets. Problèmes connus sous Windows Prise en charge des commutateurs Brocade dans la version 16.4 Le démarrage FCoE Ethernet Intel® ne prend pas en charge les commutateurs Brocade dans la version 16.4. Si besoin, utilisez la version 16.2. Windows utilise un fichier d’échange sur le disque local Après la création d’une image, si le disque local n’est pas supprimé avant le démarrage à partir du disque FCoE, Windows peut utiliser le fichier d’échange du disque local. Le vidage sur incident dans des disques FCoE est pris en charge uniquement vers le numéro de l’unité logique (LUN) de démarrage FCoE Les scénarios suivants ne sont pas pris en charge : l Vidage sur incident dans un disque FCoE si le répertoire Windows ne se trouve pas sur le numéro de l’unité logique de démarrage FCoE. l Utilisation de la valeur du registre DedicatedDumpFile pour envoyer le vidage sur incident vers un autre numéro d’unité logique FCoE. La désinstallation de FCoE à partir d'un disque local peut être bloquée, car le programme d'installation signale par erreur que le système est amorcé à partir de FCoE Lorsque la ROM optionnelle FCoE se connecte à un disque FCoE pendant l’amorçage, le programme d’installation de Windows peut être incapable de déterminer si le système a été amorcé à partir de FCoE et bloquera la désinstallation de FCoE. Pour la désinstallation, configurez la ROM optionnelle de façon qu’elle ne se connecte pas à un disque FCoE. Impossible de créer des interfaces VLAN avec le démarrage FCoE Ethernet Intel® activé Si le démarrage est fait avec FCoE, l’utilisateur ne peut pas créer des réseaux locaux virtuels et/ou des équipes pour d’autres types de trafic. Cela évite d’avoir une fonctionnalité convergente liée à un manque de trafic FCoE. Carte du serveur configurée pour FCoE Boot disponible comme carte réseau virtuelle (vnic) externe partagée via Hyper-V Si un port est défini comme port de démarrage, quand l’utilisateur installe le rôle Hyper V dans le système, puis passe dans le gestionnaire de réseau Hyper V pour sélectionner le port à virtualiser en externe, le port de démarrage s’affiche, alors qu’il ne devrait pas. Lors de la configuration du port sur un port de démarrage d'Intel® PROSet pour le Gestionnaire de périphériques Windows, un message indique à l’utilisateur de redémarrer le système pour que les modifications soient appliquées, mais le redémarrage n’est pas forcé. Les applications de niveau utilisateur sont alors en mode de démarrage (par exemple, l’onglet Data Center est estompé) mais les pilotes au niveau du noyau n’ont pas été redémarrés pour signaler au système d’exploitation que le port est un port de démarrage. Lorsque l'utilisateur ajoute alors le service Hyper V au système, le système d'exploitation prend un instantané des ports disponibles et c'est l'instantané qu'il utilise après l'ajout du rôle Hyper V, le redémarrage du système et l'accès de l'utilisateur au Gestionnaire de réseau virtuel Hyper V pour virtualiser les ports. Le port de démarrage s’affiche alors aussi. Solutions : Redémarrez le système après avoir défini un port sur un port de démarrage et avant l’ajout du rôle Hyper V. Le port ne s’affiche pas dans la liste des ports virtualisables du gestionnaire de réseau virtuel Hyper V Activez/désactivez le port dans le gestionnaire de périphérique après l’avoir configuré pour le démarrage et avant l’ajout du rôle Hyper V. Le port ne s’affiche pas dans la liste des ports virtualisables du gestionnaire de réseau virtuel Hyper V Le délai FCoE Linkdown a échoué prématurément lors du démarrage à distance Le système se bloque si un port amorcé FCoE perd la liaison sur une durée supérieure à celle spécifiée dans le paramètre avancé Linkdown Timeout dans le pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE. Les valeurs de Linkdown Timeout supérieures à 30 secondes peuvent ne pas laisser suffisamment de temps avant un blocage du système. Windows ne démarre pas correctement après avoir utilisé la méthode d'installation d'image La situation suivante peut se présenter lors de l'installation de Windows pour FCoE Boot en utilisant la méthode de l'image : Windows démarre bien depuis l'unité logique FCoE lorsque l'unité de stockage locale est installée, mais lorsque l'unité locale est retirée, Windows semble bien démarrer, mais se bloque avant d'atteindre le Bureau. Dans ce cas, il est probable que l'installation Windows réside à la fois sur l'unité logique FCoE et sur le lecteur local. Cela peut être vérifié en démarrant depuis l'unité logique FCoE alors que le lecteur local est installé, puis en comparant la lettre de lecteur du chemin des fichiers du bureau avec la lettre de lecteur de la partition de démarrage dans l'outil Gestion des disques de Windows. Si les lettres de lecteur sont différentes, l'installation de Windows est répartie entre les deux disques. Si cela se produit, veillez à exécuter fcoeprep avant de capturer l'image et à ce que le système ne soit pas démarré localement entre l'exécution de fcoeprep et la capture de l'image. De plus, le lecteur local peut être retiré du système avant le premier démarrage depuis l'unité logique FCoE. Dépannage Problèmes courants et solutions Il existe de nombreux problèmes réseau qui sont simples à résoudre. Examinez chacun des problèmes suivants avant de continuer. l Vérifiez les modifications récentes apportées au matériel, aux logiciels ou au réseau susceptibles d'avoir perturbé les communications. l Vérifiez le logiciel pilote. l Vérifiez que vous utilisez les pilotes adéquats les plus récents de votre carte sur le site Web de l'assistance Intel®. l Désactivez (ou déchargez), puis réactivez (ou rechargez) le pilote ou la carte. l Recherchez les éventuels paramètres conflictuels. Désactivez les paramètres avancés, tels que les associations ou les réseaux locaux virtuels afin de vérifier si cela règle le problème. l Réinstallez les pilotes. l Vérifiez le câble. Utilisez les câbles disponibles les plus adaptés au débit de données souhaité. l Assurez-vous que le câble est correctement branché aux deux extrémités. l Assurez-vous que la longueur du câble ne dépasse pas les spécifications. l Pour les connexions cuivre, assurez-vous que le câble est un câble 4 paires de catégorie 5 pour 1000BASE-T ou 100BASE-TX ou un câble 4 paires de catégorie 6 pour 10GBASE-T. l Effectuez un test du câble. l Remplacez le câble. l Vérifiez le partenaire de liaison (commutateur, concentrateur, etc.). l Assurez-vous que le partenaire de liaison est actif et peut transmettre et recevoir le trafic. l Assurez-vous que les paramètres de la carte et du partenaire de liaison correspondent ou sont configurés pour prendre en charge la négociation automatique. l Assurez-vous que le port est activé. l Connectez-vous à un autre port disponible ou un autre partenaire de liaison. l Recherchez d'éventuels problèmes matériels de la carte. l Remettre en place la carte. l Insérez la carte dans un autre emplacement. l Recherchez le matériel et les paramètres éventuellement conflictuels ou incompatibles. l Remplacez la carte. l Consultez le site Web de l'assistance Intel® pour consulter la liste des problèmes consignés. l Sélectionnez votre carte dans la liste des gammes de cartes. l Consultez la section Questions-réponses. l Consultez la base de connaissances. l Vérifiez la surveillance du traitement et les autres moniteurs système. l Assurez-vous que le processeur et la mémoire sont suffisants pour effectuer les activités réseau. l Recherchez toute activité inhabituelle (ou manque d'activité). l Utilisez les programmes de test du réseau pour vérifier la connectivité de base. l Vérifiez la version et les paramètres du BIOS. l Utilisez la dernière version du BIOS adaptée à votre ordinateur. l Assurez-vous que les paramètres de votre ordinateur sont appropriés. Le tableau de dépannage suivant suppose que vous avez déjà examiné les solutions et problèmes courants. Problème Solution Votre ordinateur ne trouve pas la carte réseau. Assurez-vous que les emplacements de la carte sont compatibles avec le type de carte que vous utilisez : l PCI Express v1.0 (ou version supérieure) l PCI-X v2.0 l Les emplacements PCI sont de type v2.2. Les tests de diagnostic sont bons, mais la connexion échoue. Assurez-vous que le câble est correctement branché, qu’il est du type approprié et qu’il n’excède pas les longueurs recommandées. Problème Solution Essayez d'exécuter le test de diagnostic envoyeur/répondeur. Assurez-vous que les paramètres de vitesse et de mode duplex de la carte correspondent à ceux du commutateur. Une autre carte cesse de fonctionner après que vous avez installé la carte réseau Intel®. Assurez-vous que le BIOS PCI est à jour. Voir Configuration de PCI/PCIX/PCI Express. Vérifiez la présence de conflits d’interruption et de problèmes de partage. Assurez-vous que l’autre carte prend en charge les interruptions partagées. Assurez-vous également que votre système d’exploitation prend en charge les interruptions partagées. Déchargez tous les pilotes de périphériques PCI, puis rechargez tous les pilotes. La carte ne peut pas se connecter au commutateur à la vitesse adéquate. La carte Gigabit se connecte à 100 Mbit/s et la carte 10 Gigabit à 1 000 Mbit/s. Applicable uniquement aux connections en cuivre. Assurez-vous que la carte et le partenaire de liaison sont configurés pour prendre en charge la négociation automatique. Vérifiez que vous exécutez la dernière révision du système d'exploitation de votre commutateur et que le commutateur est conforme à la norme IEEE adéquate : l Compatible IEEE 802.3ad (Gigabit sur cuivre) l Compatible IEEE 802.3an (10 Gigabit sur cuivre) Le périphérique ne se connecte pas à la vitesse attendue. Lorsque le mode Maître-Esclave Gigabit est forcé sur le mode Maître sur la carte Intel et sur son partenaire de liaison, la vitesse de liaison obtenue par la carte Intel peut être inférieure aux attentes. La carte s'arrête de fonctionner sans aucune raison apparente. Exécutez les tests de réseau et de carte décrits dans la rubrique « Test de la carte ». L'indicateur lumineux de liaison est éteint. Exécutez les tests de réseau et de carte décrits dans la rubrique « Test de la carte ». Assurez-vous que le pilote approprié (et le plus récent) est chargé. Assurez-vous que le partenaire de liaison est configuré pour prendre en charge la négociation automatique (ou forcer qu'il corresponde à la carte). Vérifiez que le commutateur est conforme à la norme IEEE 802.3ad. L'indicateur lumineux de liaison est allumé, mais les communications ne s'établissent pas correctement. Assurez-vous que le pilote approprié (et le plus récent) est chargé. La carte et son partenaire de liaison doivent être configurés pour prendre en charge la négociation automatique ou manuelle avec les mêmes paramètres de vitesse et de mode duplex. REMARQUE : il se peut que l’indicateur lumineux de liaison de la carte s’allume même si la communication entre la carte et son partenaire de liaison n’a pas été correctement établie. D’un point de vue technique, l’indicateur lumineux de liaison indique la présence d’un signal porteur, mais pas nécessairement la capacité de communication adéquate avec un partenaire de liaison. Il s’agit d’une situation normale conforme à la spécification IEEE du fonctionnement de la couche physique. L'indicateur RX ou TX est désactivé. L'utilitaire de diagnostic indique que la carte n'est pas activée par le BIOS (« Not enabled by BIOS »). Le réseau n'a peut-être aucune activité. Essayez de générer du trafic tout en surveillant les indicateurs. Le BIOS PCI ne configure pas correctement la carte. Voir Configuration de PCI/PCI-X/PCI Express. Problème Solution L'ordinateur se fige lorsque les pilotes sont chargés. Essayez de modifier les paramètres d'interruption du BIOS PCI. Voir Configuration de PCI/PCI-X/PCI Express. La DEL Fan Fail (échec du ventilateur) de la carte réseau 10 Gigabit AT pour serveurs est allumée (rouge). La solution de refroidissement du ventilateur ne fonctionne pas correctement. Contactez l’assistance à la clientèle pour obtenir des instructions complémentaires. Configuration de PCI/PCI-X/PCI Express Si la carte n'est pas reconnue par votre système d'exploitation ou si elle ne fonctionne pas, il peut être nécessaire de modifier certains paramètres du BIOS. Essayez la manipulation suivante uniquement si vous rencontrez des problèmes avec votre carte et connaissez bien les paramètres du BIOS. l Vérifiez si le paramètre "Plug-and-Play" est compatible avec le système d’exploitation utilisé. l Assurez-vous que l'emplacement est activé. l Installez la carte dans un emplacement de contrôleur de bus. l Configurez les interruptions pour le déclenchement par niveau plutôt que pour le déclenchement par front d'impulsion. l Réservez des interruptions et/ou des adresses de mémoire. Cela empêche que plusieurs bus ou emplacements de bus utilisent les mêmes interruptions. Vérifiez les options IRQ de PCI/PCI-X/PCIe dans le BIOS. Cartes multiples Lors de la configuration d'un environnement multicarte, vous devez mettre à niveau toutes les cartes Intel de l'ordinateur vers le logiciel le plus récent. Si l’ordinateur ne détecte pas tous les ports, considérez les points suivants : l Si la fonctionnalité Wake On LAN* (WoL) est activée sur plus de deux cartes, il se peut qu'elle puise de façon excessive dans l'alimentation auxiliaire du système, entraînant l'incapacité du système à démarrer et d'autres problèmes imprévisibles. Lorsque plusieurs cartes management/pour PC de bureau doivent être utilisées, nous vous recommandons d'installer les cartes individuellement et d'utiliser l'utilitaire IBAUtil (ibautil.exe dans \APPS\BOOTAGNT) pour désactiver la fonctionnalité WoL sur les cartes qui n'en ont pas besoin. Sur certaines cartes pour serveurs, la fonctionnalité WoL est désactivée par défaut. l Les cartes sur lesquelles Intel Boot Agent est activé nécessitent une portion de la mémoire de démarrage limitée pour chaque carte activée. Désactivez le service sur les cartes qui ne nécessitent pas Pre-Boot Execution Environment (PXE). Autres problèmes de performances Pour atteindre des vitesses optimales, un grand nombre de composants doivent opérer à un niveau de rendement maximal. Parmi ces composants, on retrouve : l Qualité et longueur de câble : ne pas utiliser un câble plus long que celui qui est recommandé pour votre type de câble. Des câbles plus courts donnent souvent de meilleurs résultats. Vérifiez si les connecteurs sont bien fixés et ne sont pas endommagés. Vérifiez que le câble n'est ni plié ni endommagé. l Vitesse de bus et trafic : la vitesse du bus PCI s'adapte à celle de la carte PCI installée la plus lente. Vérifiez qu'aucune carte ne ralentit votre système. l Processeur et mémoire : consultez vos programmes de surveillance des performances pour voir si le trafic est affecté par la vitesse du processeur, la mémoire disponible ou d'autres processus. l Taille de trames de transmission : les performances du réseau peuvent être améliorées en réglant ou optimisant la taille des trames de transmission. Les systèmes d’exploitation, commutateurs et cartes imposent des limites différentes sur la taille maximum des trames. Voir la description des trames Jumbo correspondant à votre SE. l Système d'exploitation : l'implémentation des fonctions réseau, par exemple le délestage et le threading multiprocesseur, varie en fonction de la version du système d'exploitation. Test de la carte réseau Le logiciel de diagnostic d’Intel vous permet de tester la carte pour détecter les problèmes éventuels de matériel, de câblage ou de connexion réseau. Test depuis Windows Intel® PROSet permet d’exécuter trois types de test de diagnostic. l Test de connexion : Ce test vérifie la connectivité du réseau en envoyant un ping au serveur DHCP, au serveur WINS et à la passerelle. l Tests de câble : Ces tests fournissent des informations sur les propriétés du câble. REMARQUE : le test de câble n'est pas pris en charge sur toutes les cartes. Il est uniquement disponible sur les cartes qui le prennent en charge. l Tests du matériel : déterminez si la carte fonctionne correctement. REMARQUE : les tests de matériel échouent si la carte est configurée pour le démarrage iSCSI. Pour accéder à ces tests, sélectionnez la carte dans le Gestionnaire de périphériques Windows, cliquez sur l’onglet Liaison, puis cliquez sur Diagnostics. Une fenêtre Diagnostics affiche des onglets pour chaque type de test. Cliquez sur l’onglet approprié pour exécuter un test. La disponibilité de ces tests dépend de la carte et du système d'exploitation. Les tests peuvent être désactivés si : l le démarrage iSCSI est activé sur le port ; l le démarrage FCoE est activé sur le port ; l le port est utilisé comme port de gestion. l Les tests sont exécutés à partir d'une machine virtuelle. Test depuis Windows PowerShell* Intel® fournit deux cmdlets PowerShell permettant de tester votre carte. l La cmdlet Test-IntelNetDiagnostics exécute l'ensemble des tests spécifié sur l'appareil indiqué. Pour de plus amples informations, consultez l'aide relative à la cmdlet Test-IntelNetDiagnostics dans PowerShell. l La cmdlet Test-IntelNetIdentifyAdapter fait clignoter la DEL sur l'appareil spécifié. Diagnostics Linux Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des informations statistiques. La version 1.6 d'ethtool ou une version ultérieure est requise pour cette fonctionnalité. La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel. REMARQUE : ethtool 1.6 ne prend en charge qu’un nombre limité d’options ethtool. Il est possible d’activer la prise en charge d’un ensemble de fonctionnalités ethtool plus complet en effectuant la mise à jour vers la toute dernière version d’ethtool. Tests du répondeur La carte Intel peut envoyer des messages de test à une autre carte Ethernet sur le même réseau. Ce test est disponible dans DOS via l'utilitaire diags.exe disponible sur la page de l'Assistance client. Journal d'événements Windows* Noms des services du journal d'événements Windows Contrôleur Ethernet Intel® Nom des fichiers du pilote NDIS Nom des services du journal d'événements Windows I350 E1r*.sys e1rexpress I354 E1s*.sys e1sexpress X520 Ixn*.sys ixgbn X540 Ixt*.sys ixgbt X550 Ixs*.sys ixgbs Série 710 I40ea*.sys i40ea Messages des cartes réseau Intel® Ci-dessous figure une liste des messages d'événements personnalisés apparaissant dans le journal d'événements Windows pour les cartes réseau Ethernet Intel® : ID Message d’événement Gravité 6 PROBLÈME : Impossible d’allouer les registres de mappage nécessaires à l’opération. ACTION : Réduisez le nombre de descripteurs de transmission et redémarrez. Erreur 7 PROBLÈME : Impossible d’affecter une interruption à la carte réseau. ACTION : Essayez un autre emplacement PCIe. ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm. Erreur 23 PROBLÈME : Il est possible que l’EEPROM de la carte réseau soit endommagée. ACTION : Consultez le site Web d’assistance sur le site http://www.intel.com/support/fr/go/network/adapter/home.htm. Erreur 24 PROBLÈME : Impossible de démarrer la carte réseau. ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm. Erreur 25 PROBLÈME : L’adresse MAC de la carte réseau est invalide. ACTION : Allez sur http://www.intel.com/support/fr/go/network/adapter/home.htm où vous pourrez trouver une assistance. Erreur 27 La liaison réseau a été interrompue. Avertissement 30 PROBLÈME : La carte réseau est configurée pour la négociation automatique mais le partenaire de liaison ne l’est pas. Cela peut entraîner une discordance de mode duplex. ACTION : Configurez le partenaire de liaison pour la négociation automatique. Avertissement 31 La liaison réseau a été établie à 10 Gbit/s Full duplex. Pour information 32 La liaison réseau a été établie à 1 Gbit/s Full duplex. Pour information 33 La liaison réseau a été établie à 100 Mbit/s Full duplex. Pour information 34 La liaison réseau a été établie à 100 Mbit/s Half duplex. Pour information ID Message d’événement Gravité 35 La liaison réseau a été établie à 10 Mbit/s Full duplex. Pour information 36 La liaison réseau a été établie à 10 Mbit/s Half duplex. Pour information 37 PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante pour obtenir un rendement maximal.%n ACTION : Installez la carte dans un logement x8 PCI Express. Avertissement 40 Smart Speed a réduit la vitesse de la liaison maximale annoncée. Pour information 41 Le pilote de la carte réseau a été arrêté. Pour information 42 Le pilote de la carte réseau a été démarré. Pour information 43 PROBLÈME : Impossible d’allouer la mémoire partagée nécessaire à l’opération. ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis redémarrez. Erreur 44 PROBLÈME : Impossible d’allouer la mémoire nécessaire à l’opération. ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis redémarrez. Erreur 45 PROBLÈME : Impossible d’allouer un pool de ressources nécessaire à l’opération. ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis redémarrez. Erreur 46 PROBLÈME : Impossible d’initialiser les ressources DMA de dispersion-collecte nécessaires à l’opération. ACTION : Réduisez le nombre de descripteurs de transmission et redémarrez. Erreur 47 PROBLÈME : Impossible de mapper la mémoire flash de la carte réseau. ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm. ACTION : Essayez un autre connecteur. Erreur 48 PROBLÈME : Le ventilateur de la carte réseau est tombé en panne. ACTION : Mettez l’ordinateur hors tension et remplacez la carte réseau. Erreur 49 PROBLÈME : Le chargement du pilote a échoué car un module SFP+ non pris en charge est installé sur la carte. ACTION : Remplacez le module : ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm. Erreur 50 PROBLÈME : La carte réseau a été arrêtée car elle surchauffait. ACTION : Redémarrez l’ordinateur. Si le problème persiste, arrêtez l’ordinateur et remplacez la carte réseau. Erreur 51 PROBLÈME : La vitesse de liaison de la carte réseau a été réduite car la carte surchauffait. Erreur 52 PROBLÈME : La carte réseau a été arrêtée car elle surchauffait. Erreur 53 Impossible de configurer les trames Jumbo lorsque MACSec est activé. Pour information 54 PROBLÈME : Un pilote VF malveillant a été détecté. Avertissement ID Message d’événement Gravité 56 Le pilote réseau a été interrompu, car la carte réseau a été retirée. Pour information 58 La liaison réseau a été établie à 25 Gbit/s Full duplex. Pour information 60 La liaison réseau a été établie à 50 Gbit/s Full duplex. Pour information 61 La liaison réseau a été établie à 20 Gbit/s Full duplex. Pour information 64 L'ID etrack de cette carte réseau est : Pour information 65 PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante pour obtenir un rendement maximal.%n ACTION : déplacer la carte vers un logement PCI Express x4 de 3e génération. Avertissement 66 PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante pour obtenir un rendement maximal.%n ACTION : déplacer la carte vers un logement PCI Express x8 de 3e génération. Avertissement 67 La partition a détecté une vitesse de liaison inférieure à 10 Gbit/s. Avertissement 68 Le pilote du périphérique s'est arrêté car l'image NVM est plus récente que le pilote. Vous devez installer la version la plus récente du pilote réseau. Erreur 69 Le pilote du périphérique a détecté une version plus récente qu'attendu de l'image NVM. Veuillez installer la version la plus récente du pilote réseau. Avertissement 70 Le pilote du périphérique a détecté une version plus ancienne qu'attendu de l'image NVM. Veuillez mettre à jour l'image NVM. Pour information 71 Le chargement du pilote a échoué, car un module de type non pris en charge a été détecté. Erreur 72 PROBLÈME : le chargement du pilote a échoué, car la carte réseau n'a pas reçu les ressources d'interruption MSI-X requises. ACTION : déplacer la carte réseau vers un autre logement ou une autre plate-forme. Erreur 73 Les paramètres utilisateur « Vitesse et duplex » et « Contrôle de flux » ne peuvent pas être modifiés, car ce périphérique fonctionne en mode de connexion virtuelle. Pour information Messages du module iANS (Services réseau avancés Intel) Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans le journal d'événements Windows : ID Message d’événement Gravité 2 Impossible d’allouer les ressources nécessaires. Libérez des ressources mémoire et Erreur redémarrez. 3 Impossible de lire les paramètres de registre nécessaires. Pour résoudre ce problème, supprimez l’association de cartes et créez-en une autre. Erreur 4 Association impossible avec la carte physique. Pour résoudre ce problème, supprimez l’association de cartes et créez-en une autre. Erreur 5 Impossible d’initialiser une association de cartes. Pour résoudre ce problème, supprimez l’association de cartes et créez-en une autre. Erreur ID Message d’événement Gravité 6 La carte principale est initialisée : <description de la carte membre> Pour information 7 La carte principale est initialisée : <description de la carte membre> Pour information 8 N° association <ID association> : L'association est initialisée. Pour information 9 N° association <ID> : La carte virtuelle pour <nom du réseau VLAN> [VID=<ID VLAN>] est initialisée. Pour information 10 La carte principale actuelle commute depuis : <description de la carte membre> Pour information 11 Lien de la carte inactif : <description de la carte membre> Avertissement 12 La carte secondaire a pris la main : <description de la carte membre> Pour information 13 La carte <description de la carte membre> a été désactivée de l’association. Avertissement 14 La carte secondaire a rejoint l’association : <description de la carte membre> Pour information 15 Lien de la carte actif : <description de la carte membre> Pour information 16 N° association <ID> : La dernière carte a perdu la liaison. La connexion réseau a été Erreur perdue. 17 N° association <ID> : Une carte a rétabli la liaison. La connexion réseau a été restaurée. Pour information 18 La carte principale préférée a été détectée : <description de la carte membre> Pour information 19 La carte secondaire préférée a été détectée : <description de la carte membre> Pour information 20 La carte principale préférée a pris la main : <description de la carte membre> Pour information 21 La carte secondaire préférée a pris la main : <description de la carte membre> Pour information 22 La carte principale ne détecte aucune sonde : <description de la carte membre>. Rai- Avertissement son possible : association partitionnée. 23 N° association <ID> : Une carte virtuelle n’a pas pu s’initialiser. Erreur 32 Une boucle non valide est apparue sur la carte de l'appareil <description de la carte membre>. Vérifiez la configuration pour vous assurer que toutes les cartes de l'association sont connectées à des ports de commutation compatibles 802.3ad. Avertissement 35 Initialisation de l’association <ID> dans laquelle <nombre de cartes manquantes> des cartes sont manquantes. Vérifiez la configuration pour vous assurer que toutes les cartes sont présentes et opérationnelles. Avertissement 37 La carte virtuelle pour <nom du réseau VLAN> [VID=<ID VLAN>] a été supprimée de l’association <ID association>. Pour information 38 Carte supprimée de l’association <ID>. Pour information ID Message d’événement Gravité 39 Vous ne pourrez probablement pas modifier les paramètres de la carte virtuelle. Pour résoudre ce problème, rechargez le pilote. Avertissement 40 Le processus de déchargement de la carte virtuelle a probablement échoué. Le pilote n’est probablement pas déchargé. Pour résoudre ce problème, redémarrez le système. Avertissement Messages d'Intel® DCB Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans le journal d'événements Windows : ID Message d’événement Gravité 256 Chaîne de débogage de service Pour information 257 La fonctionnalité de sélection de transmission améliorée ETS a été activée sur un périphérique. Pour information 258 La fonctionnalité de sélection de transmission améliorée ETS a été désactivée sur un périphérique. Pour information 259 La fonctionnalité de contrôle de flux prioritaire PFC a été activée sur un périphérique. Pour information 260 La fonctionnalité de contrôle de flux prioritaire PFC a été désactivée sur un périphérique. Pour information 261 La fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est passée à l'état Opérationnelle. Pour information 262 La fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à l'état Opérationnelle. Pour information 263 La fonctionnalité Application sur un périphérique est passée à l'état Opérationnelle. Pour information 264 La fonctionnalité Application a été désactivée sur un périphérique. Pour information 265 La fonctionnalité Application a été activée sur un périphérique. Pour information 269 La fonctionnalité de liaison logique sur un périphérique est passée à l'état Opérationnelle. Pour information 270 La fonctionnalité de liaison logique a été désactivée sur un périphérique. Pour information 271 La fonctionnalité de liaison logique a été activée sur un périphérique. Pour information 768 Échec du service au démarrage. Erreur 770 Échec du gestionnaire de services lors de l'installation. Erreur 771 Le service n'a pas pu allouer suffisamment de mémoire. Erreur 772 Le service n'a pas pu utiliser la carte réseau. Erreur 773 Le service a rejeté la configuration : total des groupes de bandes passantes de transmission non valide. Erreur ID Message d’événement Gravité 774 Le service a rejeté la configuration : total des groupes de bandes passantes de réception non valide. Erreur 775 Le service a rejeté la configuration : index des groupes de bandes passantes de transmission non valide. Erreur 776 Le service a rejeté la configuration : index des groupes de bandes passantes de réception non valide. Erreur 777 Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur une classe de trafic de transmission. Erreur 778 Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur une classe de trafic de réception. Erreur 779 Le service a rejeté la configuration : bande passante nulle sur une classe de trafic de transmission. Erreur 780 Le service a rejeté la configuration : bande passante nulle sur une classe de trafic de réception. Erreur 781 Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur un groupe de trafic de transmission. Erreur 782 Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur un groupe de trafic de réception. Erreur 783 Le service a rejeté la configuration : total de transmission non valide pour le groupe de bandes passantes. Erreur 784 Le service a rejeté la configuration : total de réception non valide pour le groupe de bandes passantes. Erreur 785 Le service ne peut pas configurer les services WMI requis. Erreur 786 Le service a rencontré une erreur d'état de transmission. Erreur 787 Le service a rencontré une erreur d'état de réception. Erreur 789 La connexion du service au pilote du protocole LLDP a échoué. Erreur 790 La fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est passée à l'état Non opérationnelle. Erreur 791 La fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à l'état Non opérationnelle. Erreur 792 La fonctionnalité Application sur un périphérique est passée à l'état Non opérationnelle. Erreur 793 Le service a rejeté la configuration : des groupes de bandes passantes multiples avec liaison stricte ont été détectés. Erreur 794 La fonctionnalité de liaison logique sur un périphérique est passée à l'état Non opérationnelle. Erreur 795 Impossible d'ouvrir le périphérique. Erreur 796 Les paramètres de pontage de centre de données de la carte réseau ne sont pas valides. Erreur 797 Les paramètres de pontage de centre de données de la carte réseau ne sont pas valides - AppSelector. Erreur 798 Composant de pilote de carte réseau non optimal détecté. Installez la version 3.5 du Erreur ID Message d’événement Gravité pilote de carte réseau ou une version supérieure. Messages d'Intel® iSCSI DCB Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans le journal d'événements Windows : ID Message d’événement Gravité 4352 Chaîne de débogage de service : Pour information 4353 L'agent DCB iSCSI a ajouté un filtre QOS pour le trafic iSCSI. Pour information 4354 L'agent DCB iSCSI a supprimé un filtre QOS pour le trafic iSCSI. Pour information 4355 L'agent DCB iSCSI a modifié un filtre QOS pour le trafic iSCSI. Pour information 4356 L'agent de pontage de centre de données iSCSI a été notifié par le service QoS qu'une carte de pontage de centre de données iSCSI a été fermée. Pour information 4357 Les fonctionnalités de contrôle de flux prioritaire et de priorité des utilisateurs d'application sont configurées pour le trafic DCB iSCSI. Pour information 4358 Tous les membres de l'association configurés pour le trafic DCB iSCSI ont une configuration DCB valide. Pour information 8704 Certains membres de l'association configurés pour le trafic DCB iSCSI ont une configuration DCB non valide. Avertissement 13056 Échec du service au démarrage. Erreur 13057 Échec du gestionnaire de services lors de l'installation. Erreur 13058 Erreur retournée par l'interface de contrôle du trafic. Erreur 13059 Le service n'a pas pu allouer suffisamment de mémoire. Erreur 13060 L'agent DCB iSCSI ne peut pas ajouter le filtre QOS pour le trafic iSCSI. Erreur 13061 L'agent du pontage de centre de données iSCSI a été notifié par le service QoS que tous les filtres QoS d'une carte du pontage de centre de données iSCSI ont été supprimés. Erreur 13062 Les fonctionnalités de contrôle de flux prioritaire et de priorité des utilisateurs d'application ne sont pas correctement configurées pour le trafic DCB iSCSI. Erreur 13063 La fonctionnalité TLV du contrôle de flux prioritaire n'est pas opérationnelle pour le trafic DCB iSCSI. Erreur 13064 La fonctionnalité TLV de l'application n'est pas opérationnelle pour le trafic DCB iSCSI. Erreur 13065 Système d'exploitation non pris en charge détecté. Erreur 13066 Aucun membre de l'association configuré pour le trafic DCB iSCSI ne dispose d'une configuration DCB valide. Erreur Indicateurs lumineux Les cartes réseau Intel pour serveur et ordinateur de bureau sont équipées sur leur fond de panier d'indicateurs lumineux servant à indiquer leur activité et leur état. Les tableaux suivants présentent les états possibles des indicateurs lumineux pour chaque carte réseau. Cartes réseaux 2 ports QSFP+ La carte réseau convergent Ethernet Intel® XL710-Q2 comporte les indicateurs lumineux suivants : Étiquette Descriptif Signification Vert Liaison à 40 Gbits Clignotement Transmission ou réception active de données Désactivé Pas de liaison. ACT/LNK Cartes réseaux 2 ports SFP/SFP+ La carte réseau Ethernet Intel® 25G 2P XXV710 comporte les indicateurs lumineux suivants : Étiquette Descriptif Signification Vert Liaison à 25 Gbit/s Jaune Liaison à 10 Gbit/s ou 1 Gbit/s Clignotement Transmission ou réception active de données Désactivé Pas de liaison. GRN 25G ACT/LNK Les cartes réseau convergent Ethernet Intel® X710 comportent les indicateurs lumineux suivants : Étiquette Descriptif Signification Vert Liaison à 10 Gbits Jaune Liaison à 1 Gbit/s Clignotement Transmission ou réception active de données Désactivé Pas de liaison. LNK ACT Les cartes réseau Intel® 10G 2P X520 comportent les indicateurs lumineux suivants : Étiquette Descriptif Signification Activé Liée au réseau local. Désactivé Non liée au réseau local. Clignotement Transmission ou réception active de données. Désactivé Pas de liaison. GRN 10G (A ou B) : Vert ACT/LNK (A ou B) : Vert Cartes réseaux 2 ports en cuivre Les cartes réseau Ethernet Intel® 10G 2P X550-t comportent les indicateurs lumineux suivants : Étiquette Link (Liaison) Descriptif Signification Vert Liaison à 10 Gbits. Jaune Liaison à 1 Gbits. Désactivé Liaison à 100 Mbits/s. Clignotement Transmission ou réception active de données. Désactivé Pas de liaison. Activité Les cartes réseau Ethernet Intel® 10G 2P X540-t comportent les indicateurs lumineux suivants : Étiquette Link (Liaison) Descriptif Signification Vert Liaison à 10 Gbits. Jaune Liaison à 1 Gbits. Désactivé Pas de liaison. Clignotement Transmission ou réception active de données. Désactivé Pas de liaison. Activité Les cartes réseau Intel® Gigabit 2P I350-t comportent les indicateurs lumineux suivants : Étiquette ACT/LNK Descriptif Signification Vert allumé La carte est connectée à un partenaire de liaison valide. Vert clignotant Activité de données Désactivé Pas de liaison. Désactivé 10 Mbit/s Vert 100 Mbit/s Jaune 1000 Mbit/s 10/100/1000 Identité. Utilisez le bouton "Identify Adapter" (Identifier la Orange clicarte) d’Intel PROSet pour contrôler le clignotement. Pour de gnotant plus amples informations, consultez l’aide d’Intel® PROSet. Cartes réseaux 4 ports en cuivre Les cartes réseau convergent Ethernet Intel® X710 et les cartes réseau convergent Ethernet Intel® X710-T comportent les indicateurs lumineux suivants : Étiquette ACT LNK Descriptif Signification Vert allumé La carte est connectée à un partenaire de liaison valide. Vert clignotant Activité de données Désactivé Pas de liaison. Vert 10 Gbit/s Jaune 1 Gbit/s Désactivé 100 Mbit/s Les cartes réseau Intel® Gigabit 4P I350-t rNDC comportent les indicateurs lumineux suivants : Étiquette ACT/LNK 10/100/1000 Descriptif Signification Vert allumé La carte est connectée à un partenaire de liaison valide. Vert clignotant Activité de données Désactivé Pas de liaison. Vert 100 Mbit/s Jaune 1000 Mbit/s Identité. Utilisez le bouton "Identify Adapter" (Identifier la carte) Orange clid'Intel® PROSet pour contrôler le clignotement. Pour de plus gnotant amples informations, consultez l’aide d’Intel® PROSet. Désactivé 10 Mbit/s rNDC (Cartes filles réseau en rack) La carte réseau Ethernet Intel® 40G 2P X710 QSFP+ rNDC comporte les indicateurs lumineux suivants : Étiquette Descriptif Signification LNK (vert/jaune) Vert allumé Fonctionnement à vitesse de port maximale. Désactivé Pas de liaison. Vert clignotant Activité de données. Désactivé Aucune activité. ACT (vert) Les cartes Ethernet Intel® 10G 4P X550/I350 rNDC, Intel® Gigabit 4P X550/I350 rNDC, Ethernet Intel® 10G 4P X550 rNDC, Ethernet Intel® 10G 4P X540/I350 rNDC, Intel® Gigabit 4P X540/I350 rNDC et Intel® Gigabit 4P I350-t rNDC comportent les indicateurs lumineux suivants : Étiquette Descriptif Signification LNK (vert/jaune) Vert allumé Fonctionnement à vitesse de port maximale. Jaune allumé Fonctionnement à vitesse de port minimale. Désactivé Pas de liaison. Vert clignotant Activité de données. Désactivé Aucune activité. ACT (vert) Les cartes Ethernet Intel® 10G 4P X520/I350 rNDC, Intel® Gigabit 4P X520/I350 rNDC, Ethernet Intel® Gigabit 4P x710/I350 rNDC et Intel® 10G 4P X710/I350 rNDC comportent les indicateurs lumineux suivants : Étiquette Descriptif LNK (vert/jaune) Vert allumé ACT (vert) Signification Fonctionnement à vitesse de port maximale. Jaune allumé Fonctionnement à vitesse de port minimale. Désactivé Pas de liaison. Vert clignotant Activité de données. Désactivé Aucune activité. Problèmes connus REMARQUE : les problèmes connus relatifs à iSCSI et les problèmes connus relatifs à FCoE sont répertoriés dans ce manuel dans une section qui leur est propre. Échec de la rétrogradation du microprogramme à la version v18.0.x ou antérieure sur les périphériques équipés d'un contrôleur X550 Sur les périphériques équipés d'un contrôleur X550, la rétrogradation du microprogramme à la version v18.0.x ou antérieure échoue et peut entraîner des problèmes d'incompatibilité de version entre NVM et l'option ROM. Pour résoudre ce problème, passez la mise à jour vers la dernière version du microprogramme. Une erreur s'est produite lors de la mise à jour d'un module sur la carte réseau Ethernet Intel® 10G 2P X550-t à l'aide du microprogramme 17.5.0 Si vous utilisez le microprogramme DUP (Dell EMC Update Package) v17.5.0 pour mettre à jour le microprogramme (FW) vers une version antérieure d'une carte réseau Ethernet Intel® 10G 2P X550-t, le DUP peut afficher le message « An error occurred when updating a module » (Une erreur s'est produite lors de la mise à jour d'un module). Veuillez ignorer ce message d'erreur. Le microprogramme a été mis à jour correctement vers une version antérieure. Erreur "La fonctionnalité de Réception/Transmission (Rx/Tx) est désactivée sur ce périphérique car le module ne satisfait pas aux exigences thermiques." pendant le POST Cette erreur résulte de l'installation d'un module dans un périphérique X710 ne respectant pas les exigences thermiques pour ce périphérique. Pour résoudre le problème, veuillez installer un module respectant les exigences thermiques du périphérique. Voir la section "Périphériques SFP+ et QSFP+" de ce document. Erreur "La fonctionnalité de Réception/Transmission (Rx/Tx) est désactivée sur ce périphérique car un module SFP+ de type non pris en charge a été détecté." pendant le POST Cette erreur résulte de l'installation d'un module non pris en charge dans un périphérique équipé d'un contrôleur X710/XL710. Vous ne pourrez plus envoyer ni recevoir de trafic sur ce périphérique. Pour résoudre le problème, veuillez installer un module pris en charge. Voir la section "Périphériques SFP+ et QSFP+" de ce document. Fonctions virtuelles de port manquantes dans VMWare ESX Si vous activez le mode NPar et SR-IOV sur le même appareil, le nombre de fonctions virtuelles activées et affichées dans Ispci peut être de 8 ou moins. ESX limite le nombre de fonctions virtuelles à huit par appareil. De plus, en raison des restrictions imposées par ESXi, le nombre de fonctions virtuelles créées peut être inférieur au nombre demandé. Reportez-vous à la documentation ESXi pour plus d'informations. http://pubs.vmware.com/ Pertes de paquets de données dues à des paquets LLDP fréquents sur un port inactif Lorsque des ports sont associés ou agrégés dans une configuration active/passive (par exemple, dans une association de tolérance aux pannes du commutateur ou une agrégation en mode 1), le port inactif peut envoyer des paquets LLDP fréquemment, ce qui entraîne la perte de paquets de données. Cela peut se produire lors d'une association des Services réseau avancés(ANS) sur les systèmes d'exploitation Microsoft Windows ou lors d'agrégations de type Channel Bonding sous les systèmes Linux. Pour résoudre ce problème, configurez l'un des ports comme port principal. Code 10 jaune qui signale une erreur dans le Gestionnaire de périphérique Windows sur une machine virtuelle Sur les systèmes exécutant Microsoft Windows Server 2016, dans une machine virtuelle exécutant Microsoft Windows Server 2016 ou Windows Server 2012 R2, les connexions Ethernet Intel® peuvent s'accompagner d'une erreur en jaune (code 10) dans le Gestionnaire de périphériques Windows. L'installation d'une mise à jour cumulative contenant Microsoft KB3192366 et KB3176936 résoudra le problème. Perte de paquets reçus sur les réseaux 10/100 Half-duplex Si vous disposez d’une carte Intel PCI Express fonctionnant à 10 Mbit/s ou 100 Mbit/s, half-duplex avec la fonctionnalité de délestage des segments TCP (TSO) activée, il est possible que vous constatiez une perte occasionnelle de paquets reçus. Pour résoudre ce problème, désactiver la fonctionnalité TSO ou modifiez le réseau pour qu’il opère en Full duplex ou à 1 Gbit/s. Chute du débit après un remplacement à chaud Si une carte Gigabit Intel est soumise à un stress élevé ou est remplacée à chaud, le débit risque de chuter substantiellement. Cela peut être dû à la configuration des propriétés PCI par le logiciel de remplacement à chaud. Si cela se produit, le débit peut être rétabli en redémarrant le système. Taux d’utilisation des processeurs plus élevé que prévu Définir une valeur supérieure à 4 pour les files d'attente RSS n'est conseillé que pour les gros serveurs dotés de plusieurs processeurs. Les valeurs supérieures à 4 risquent d’augmenter le taux d’utilisation des processus à des niveaux inacceptables et d’affecter négativement la performance du système. Module SFP ou SFP+ pris en charge non reconnu par le système Si vous essayez d’installer un module non pris en charge, le port risque de ne plus installer les modules subséquents, qu’ils soient ou non pris en charge. Le port affichera une icône jaune sous le Gestionnaire de périphériques Windows et un ID d’événement 49 (module non pris en charge) sera ajouté au journal système dès l’apparition de ce problème. Pour résoudre le problème, le système doit être complètement mis hors tension. Problèmes connus sous Windows Vous ne pouvez pas désinstaller les pilotes prêts à l'emploi à partir du menu Applications et fonctionnalités de la console Web Vous ne pouvez pas utiliser le menu Applications et fonctionnalités de la console Web de Microsoft* Windows* 2016 pour désinstaller les pilotes prêts à l'emploi. Utilisez plutôt l'option Programmes et fonctionnalités dans le Panneau de configuration Windows. Le port est absent du contrôleur de durée de vie (Lifecycle Controller) : Paramètres réseau Si un port est configuré pour le démarrage iSCSI ou FCoE, et qu'il se connecte à sa cible de démarrage, il est impossible de modifier les paramètres du port dans le contrôleur de cycle de vie (Lifecycle Controller). Procédure d’installation et de mise à niveau des pilotes et utilitaires Intel recommande de ne pas installer/mettre à niveau les pilotes et le logiciel Intel® PROSet en utilisant une connexion réseau. Installez (ou mettez à niveau) plutôt les pilotes et utilitaires à partir de chaque système. Pour installer ou mettre à niveau les pilotes et utilitaires, suivez les instructions du guide de l’utilisateur. Modification des paramètres de l’onglet Advanced Properties (Propriétés avancées) lorsque du trafic est présent Il est conseillé de ne pas modifier les paramètres de l’onglet Advanced Properties (Propriétés avancées) d’Intel® PROSet lorsque les charges réseau sont élevées. Autrement, un redémarrage peut s’avérer nécessaire pour que les modifications soient prises en compte. Dans un environnement Microsoft Hyper-V, les machines virtuelles associées aux partitions NPAR ne communiqueront pas entre elles Dans un environnement Microsoft Hyper-V, si NPAR est activé sur un port et que les machines virtuelles sont associées aux partitions de ce port, les machines virtuelles ne peuvent pas communiquer entre elles. Cela se produit parce que le commutateur virtuel dans Hyper-V envoie les paquets vers le port physique, qui envoie les paquets au commutateur connecté au port. Le commutateur physique peut ne pas être configuré en tant que relais réfléchissant (renvoi d'appel en U). Il peut donc ne pas renvoyer les paquets à la connexion depuis laquelle il les a reçus. La connexion du port à un commutateur avec agrégateur de port Ethernet virtuel (VEPA) résoudra le problème. Les pilotes Intel doivent être installés par le Dell EMC Update Package avant la configuration des fonctionnalités Microsoft Hyper-V Avant de configurer les fonctionnalités Microsoft* Hyper-V, les pilotes des cartes réseau Intel® doivent être installés par le Dell EMC Update Package. Si la fonction Microsoft* Hyper-V est configurée sur une partition de carte réseau non prise en charge sur les périphériques Intel® X710 avant l'exécution du Dell EMC Update Package pour installer les pilotes de carte réseau Intel®, l'installation des pilotes peut échouer. Pour résoudre le problème, vous devez désinstaller Microsoft* Hyper-V, désinstaller "Connexions réseau Intel®" de "Programmes et fonctionnalités", et exécuter le Dell EMC Update Package pour installer les pilotes de carte réseau Intel®. Perte de liaison entre la machine virtuelle et le système Microsoft Windows Server 2012 R2 Si vous modifiez le paramètre BaseRssProcessor d'un système Microsoft Windows Server 2012 R2 sur lequel des files d'attente d'ordinateurs virtuels (VMQ) sont activées, puis que vous procédez à l'installation de Microsoft Hyper-V et à la création d'une ou de plusieurs machines virtuelles, il se peut que les machines virtuelles perdent la liaison. L'installation du correctif cumulatif d'avril 2014 pour Windows RT 8.1, Windows 8.1 et Windows Server 2012 R2 (2919355) et du correctif logiciel 3031598 permettent de résoudre le problème. Consultez les sites http://support2.microsoft.com/kb/2919355 et http://support2.microsoft.com/kb/3031598 pour davantage d'informations. Chaîne de marquage incomplète affichée dans le journal des événements Certaines chaînes de marquage sont trop longues pour être entièrement affichées dans le journal des événements. Dans ces cas, la chaîne de marquage est tronquée et les valeurs du bus PCI, du périphérique ou de la fonction sont ajoutées à la chaîne. Par exemple : Carte réseau convergent Ether... [129,0,1]. Les fonctionnalités de qualité de service (QoS) et de contrôle de flux prioritaire de DCB ne fonctionnent pas comme prévu Si vous configurez les fonctionnalités de qualité de service (QoS) et de contrôle de flux prioritaire (PFC) de l'implémentation Data Center Bridging (DCB) de Microsoft, la ségrégation du trafic réel par classe de trafic pourrait ne pas correspondre à votre configuration et PCF pourrait ne pas mettre le trafic en pause comme prévu. Si vous avez mis en correspondance plus d'une priorité avec une classe de trafic, le fait d'activer uniquement une des priorités et de désactiver les autres résoudra le problème. L'installation de l'implémentation DCB (Pontage de centre de données) d'Intel résoudra également le problème. Ce problème affecte Microsoft Windows Server 2012 R2. Perte de liaison après le passage au paramètre des trames Jumbo Dans une partition invitée sur une machine virtuelle Microsoft Windows Server 2012 R2 Hyper-V, si vous modifiez le paramètre avancé de trames Jumbo sur un appareil Ethernet reposant sur le contrôleur Intel® X540 ou sur une carte réseau associée Hyper-V NetAdapter, la liaison peut se perdre. La modification de tout autre paramètre avancé résoudra le problème. Les VMQ (Virtual Machine Queues) ne sont attribuées qu'après le redémarrage Sur un système Microsoft Windows Server 2012 R2 doté de cartes serveur Gigabit Ethernet Intel®, si vous installez Hyper-V et créez un commutateur de machine virtuelle, les Virtual Machine Queues (VMQ) ne sont pas attribuées avant que vous ne redémarriez le système. Les machines virtuelles peuvent transmettre et recevoir le trafic dans la file d'attente par défaut, mais aucune VMQ ne sera utilisée tant que le système n'aura pas été redémarré. ID d'événements d'erreur d'application 789, 790 et 791 dans le journal des événements Si le Pontage de centre de données (DCB) est activé, et que le port activé perd la liaison, les trois événements suivants peuvent être consignés dans le journal des événements : l ID d'événement 789 : la fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est passée à l'état Non opérationnelle. l ID d'événement 790 : la fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à l'état Non opérationnelle. l ID d'événement 791 : la fonctionnalité Application sur un périphérique est passée à l'état Non opérationnelle (FCoE). Il s'agit du comportement attendu lorsqu'un port activé DCB perd la liaison. DCB recommence à fonctionner dès que la liaison est rétablie. Un port perd la liaison si le câble est déconnecté, si le pilote ou le paquet logiciel est mis à jour, si le partenaire de la liaison est arrêté ou pour d'autres raison. Avertissement "Script malveillant détecté" de Norton AntiVirus lors de la désinstallation de PROSet Le processus de désinstallation d’Intel® PROSet utilise un script Virtual Basic. Norton AntiVirus et d’autres logiciels antivirus peuvent à tort juger ce script malveillant ou dangereux. Laissez le script s'exécuter pour que le processus de désinstallation se déroule normalement. Perte inattendue de la connectivité Si vous désélectionnez la case "Autoriser l’ordinateur à éteindre ce périphérique pour économiser l’énergie" sous l’onglet Gestion de l’alimentation et que vous mettez ensuite le système en mode de veille, vous risquez de perdre la connectivité en réactivant le système. Vous devez désactiver puis activer la carte réseau pour résoudre ce problème. L’installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows permet également de résoudre ce problème. La création du réseau VLAN échoue sur une association comportant une carte fantôme non Intel Si vous ne parvenez pas à créer un réseau virtuel sur une association comportant une carte fantôme non Intel, utilisez le Gestionnaire de périphériques pour supprimer l’association, puis recréez-la en excluant la carte fantôme et ajoutez l’association au réseau virtuel. La valeur Receive Side Scaling (RSS) est vide La modification du paramètre Receive Side Scaling (Mise à l'échelle côté réception) sur une carte faisant partie d'une association peut entraîner l'affichage de cette valeur comme vide. Elle peut également apparaître vierge pour les autres cartes de l'association. Dans ce cas de figure, il se peut que la carte soit retirée de l'association. La désactivation et la réactivation de l'association résoudront le problème. Paramètre avancé RSS Load Balancing Profile (Profil d'équilibrage de la charge RSS) La définition du paramètre avancé 'RSS Load Balancing Profile' (Profil d'équilibrage de la charge RSS) sur 'ClosestProcessor' peut réduire considérablement l'utilisation du CPU. Cependant, dans certaines configurations système (par exemple un système avec plus de ports Ethernet que de cœurs de processeurs), le paramètre 'ClosestProcessor' peut provoquer des échecs de transmission et de réception. La modification du paramètre sur 'NUMAScalingStatic' résoudra le problème. L'ouverture de la feuille de propriétés du Gestionnaire de périphériques Windows prend plus de temps que prévu L'ouverture de la feuille de propriétés du Gestionnaire de périphériques Windows prend 60 secondes ou plus. Le pilote doit détecter tous les appareils Ethernet Intel et les initialiser avant de pouvoir ouvrir la feuille de propriétés. Ces données figurent dans la mémoire cache : les prochaines ouvertures de la feuille de propriétés seront donc généralement plus rapides. Problèmes connus sous Linux HeaderDataSplit n'est pas pris en charge sur les cartes avec chipset 82599. Configuration du pilote sur des distributions différentes La configuration d'un pilote réseau pour qu'il se charge correctement lors du démarrage du système (0=légué, 1=MSI, 2=MSI-X) dépend de la distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de fichiers de configuration. De nombreuses distributions Linux populaires sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportez-vous à votre documentation de distribution. Activation de WoL sous Linux à l'aide d'ethtool et de BootUtil Par défaut, WoL est désactivé. Dans un environnement Linux, WoL peut être activé à l'aide d'ethtool. Dans certains cas, l'utilisation de BootUtil est également nécessaire. Seul le port A (port 0) peut être activé à l'aide d'ethtool sans utiliser BootUtil. Pour activer WoL à l'aide d'ethtool sur les autres ports, WoL doit d'abord être activé avec BootUtil. Problèmes connus de gestion de l'alimentation Le système ne sort pas de veille lors d'une liaison Lors de l'installation du pilote uniquement, si vous configurez les paramètres 'Wake on Link' sur Forced (Forcé) et 'Wake on Magic Packet' et 'Wake on Pattern Match' sur Disabled (Désactivé), le système peut ne pas sortir de veille comme prévu. Pour que l'option 'Wake on Link' fonctionne correctement, vérifiez l'onglet Gestion de l'alimentation et assurez-vous que l'option 'Allow this device to wake the computer' (Autoriser cet appareil à sortir l'ordinateur de veille) est cochée. Il est possible que vous deviez également configurer 'Wake on Magic Packet' ou 'Wake on Pattern Match' sur Enabled (Activé). Les paquets dirigés ne sortent pas le système de veille Sur certains systèmes, les cartes pour serveurs à quatre ports peuvent ne pas sortir de veille lorsqu'elles sont configurées sur 'Wake on Directed Packet'. Si vous rencontrez des problèmes pour sortir de veille lorsque cette option est configurée, vous devez configurer votre carte de sorte qu'elle utilise les Magic Packets*. Les options de gestion de l'alimentation sont indisponibles ou manquantes Si vous installez uniquement les pilotes de base, installez ultérieurement Intel® PROSet pour le Gestionnaire de périphériques Windows, puis supprimez Intel® PROSet, les paramètres de l'onglet Gestion de l'alimentation de la feuille de propriétés de la carte peuvent être indisponibles ou manquants. Vous devez réinstaller Intel® PROSet pour résoudre le problème. Sortie de veille du système à partir d'un réseau local virtuel supprimé Si un système entre en mode veille et qu'un paquet dirigé est envoyé à l'adresse IP du réseau local virtuel retiré, le système sort de veille. Cela se produit car les paquets dirigés contournent le filtrage du réseau local virtuel. Les cartes Intel ignorent les signaux consécutifs de sortie de veille lors du passage en mode Veille Lorsqu'un système entre en mode veille, occasionnellement, un paquet de sortie de veille arrive avant que le système ne passe complètement en mode Veille. Lorsque cela se produit, le système ignore les signaux consécutifs de sortie de veille et reste en mode Veille jusqu'à la mise sous tension manuelle à l'aide de la souris, du clavier ou du bouton d'alimentation. Autres problèmes connus de la carte réseau Intel® 10GbE L'inventaire matériel du système (iDRAC) indique que la négociation automatique est désactivée sur le contrôleur d'interface réseau, mais que partout ailleurs, la négociation automatique du mode duplex et de la vitesse est activée Si un module optique est branché sur le LOM Intel® Ethernet 10G X520 d'un PowerEdge C6320, l'inventaire matériel du système (iDRAC) indiquera que la négociation automatique est désactivée. Le Gestionnaire de périphériques Windows et la base HII indiquent néanmoins que la négociation automatique du mode duplex et de la vitesse de liaison est activée. De fait, le pilote contient un algorithme qui permet au LOM d'établir une liaison avec les partenaires SFP à 10 Gbit/s ou 1 Gbit/s. Si cette information est communiquée au Gestionnaire de périphériques Windows et à la base HII, il ne s'agit pourtant pas d'une réelle négociation automatique. iDRAC lisant le microprogramme du périphérique qui ne connaît pas l'algorithme, il signale que la négociation automatique est désactivée. Les allocations de bande passante ETS ne correspondent pas aux paramètres Lorsque le paramètre Trames Jumbo est configuré à 9K avec une carte réseau 10GbE, une distribution de trafic ETS de 90 %/10 % ne sera obtenue sur aucun port, malgré les paramètres effectués sur le commutateur DCB. Lorsque ETS est configuré pour une répartition de 90%/10%, une répartition réelle de 70%/30% est plus probable. Perte de liaison sur les périphériques 10GbE avec les trames Jumbo activées Ne définissez pas le paramètre Receive_Buffers ou Transmit_Buffers en dessous de 256 si les trames Jumbo sont activées sur un périphérique Intel® 10GbE. La liaison risquerait d’être perdue. Échec de la connexion et instabilité possible du système Si des périphériques réseau non Intel compatibles avec la fonctionnalité de mise à l’échelle côté réception sont installés sur votre système, la valeur par défaut 0x0 du mot-clé de registre Microsoft Windows "RSSBaseCPU" peut avoir été modifiée pour pointer vers un processeur logique. Si ce mot-clé a été modifié, les périphériques reposant sur les contrôleurs Ethernet 10 Gigabit Intel® 82598 ou 82599 risquent de ne pas transmettre le trafic. Si vous tentez de modifier le pilote lorsque cet état est actif, cela peut entraîner l’instabilité du système. Définissez la valeur de RSSBaseCPU à 0x0 ou une valeur correspondant à un processeur physique, puis redémarrez le système pour résoudre le problème. Envoi continu de trames de pause PFC depuis les appareils reposant sur les contrôleurs Ethernet Intel® X520 Si vous disposez d'un appareil reposant sur le contrôleur Ethernet Intel® X520 connecté à un port de commutateur et que vous modifiez les paramètres de bande passante DCB sur le port de commutateur, l'appareil Ethernet Intel® X520 peut envoyer continuellement des trames de pause, entraînant ainsi une diffusion massive qui empêche le transfert des données vers et depuis les cibles de stockage utilisées. Pour résoudre ce problème, désactivez les ports X520, réactivez-les, puis reconnectez-vous aux volumes cibles iSCSI. Pour éviter ce problème, si les paramètres de bande passante DCB doivent être modifiés, effectuez l'une des actions suivantes : l Éteignez le serveur contenant l'appareil Ethernet Intel® X520 avant de modifier les paramètres de bande passante DCB. l Désactivez les ports de commutateur connectés à l'appareil reposant sur le contrôleur Intel X520. l Ne faites pas passer de trafic sur l'appareil reposant sur le contrôleur Intel X520. La carte Ethernet Intel® 10G 2P/4P X710-k bNDC n'établit pas de liaison et ne s'affiche pas dans le Gestionnaire de périphériques Windows Si vous installez une carte Ethernet Intel® 10G 2P X710-k bNDC ou une carte Ethernet Intel® 10G 4P X710-k bNDC sur un serveur-lame Dell EMC PowerEdge M630/M830 et que vous installez la lame dans un châssis M1000e, il se peut que la carte bNDC ne parvienne pas à établir de liaison et affiche un triangle jaune, ou qu'elle n'apparaisse pas du tout dans le Gestionnaire de périphériques Windows. Ceci vaut uniquement pour la version 1.0 du plan intermédiaire M1000e. La carte Ethernet Intel® 10G X520 LOM établit une liaison à 10 Gbit/s alors que l'option Full Duplex à 1 Gbit/s est sélectionnée Lorsqu'elle est connectée au moyen d'un câble direct, la carte Ethernet Intel® 10G X520 LOM se connectera toujours à 10 Gbit/s. Intel® X540-t et Dell Force10 n'établiront pas de liaison 100 Mbit/s Full duplex en cas de configuration manuelle aux deux extrémités Pour qu'une carte réseau reposant sur le contrôleur X540-t couplée à un composant Force10 s'exécute à 100 Mbit/s, les propriétés de négociation automatique des DEUX composants doivent être configurées sur ON (Activé). Lorsque vous essayez de déterminer la carte, le voyant d'activité clignote et le voyant de liaison est fixe Si vous utilisez la fonction Identify Adapter (Identifier la carte) sur les cartes suivantes, le voyant d'activité, plutôt que le voyant de liaison, clignote. Il se peut que le voyant de liaison affiche un voyant vert fixe pour les ports 10 G, même si aucune liaison réseau n'existe. l Tous les appareils Ethernet 10GbE Intel® X520 l Tous les appareils Ethernet 10GbE Intel® X540 l Tous les appareils Ethernet 10GbE Intel® X550 l Certains appareils Gigabit I350 LOM Intel® Interruption non masquable inattendue avec les NIC reposant sur les cartes 82599 Si vous définissez la taille de charge utile maximale du PCIe sur 256 octets dans votre BIOS système et que vous installez un NIC reposant sur une carte 82599, il se peut qu'une interruption non masquable (NMI) se produise lorsque le NIC atteint la liaison. Cela se produit lorsque l'emplacement physique ne prend pas en charge les charges de 256 octets, même si le BIOS les prend en charge. Pour résoudre le problème, déplacez la carte dans un emplacement autorisant les charges de 256 octets. Consultez la documentation de votre système pour en savoir plus sur les valeurs de charge. Problèmes connus pour le contrôleur réseau Intel® série 710 Certains appareils reposant sur le contrôleur Intel X710 affichent un ID de fournisseur intermédiaire de 0x0000 et peuvent afficher une chaîne de marquage générique. Le port 0 affiche l'ID de fournisseur intermédiaire adéquat et la chaîne de marquage correcte. Les appareils reposant sur le contrôleur Intel X710 peuvent maintenir la liaison sur tous les ports, tant que l'appareil est sous tension, quel que soit le mode de consommation de l'appareil ou du système. Bouton de diagnostic désactivé Lorsqu'ils font partie d'une association Intel® ANS, les appareils reposant sur le contrôleur Intel X710 ne prennent pas en charge la fonction de diagnostic. Cette prise en charge sera ajoutée dans une version ultérieure. Erreurs inattendues d'Intel® DCB dans le journal d'événements Windows Après la mise à jour des pilotes du contrôleur X710, il se peut que plusieurs erreurs Intel DBC apparaissent dans le journal d'événements Windows. Ces erreurs sont de faux positifs et peuvent être ignorées. Débit plus bas que prévu sur les appareils reposant sur les contrôleurs X710/XL710 Cela se produit si un appareil reposant sur le contrôleur X710 ou XL710 est installé sur un processeur à quatre emplacements. La réception et la transmission du trafic peuvent être nettement plus faibles qu'attendu. La configuration du taux d'interruption sur le paramètre High (Élevé) peut atténuer le problème. Problèmes connus des cartes réseau à quatre ports pour serveurs Rétrogradation Lors de la connexion à un commutateur Gigabit à l'aide d'un câble défectueux de catégorie 5 dont une des paires est brisé, la carte ne rétrograde pas de 1 giga à 100 Mbit/s. Pour que l'adaptateur rétrograde, il doit identifier deux paires brisés dans le câble. Le système ne démarre pas Il se peut que votre système n'ait pas suffisamment de ressources d'E/S et n'arrive pas à démarrer si vous installez plus de quatre cartes pour serveurs à quatre ports. Le déplacement des cartes dans un autre emplacement ou le rééquilibrage des ressources dans le BIOS système peut résoudre le problème. Le problème affecte les cartes suivantes : l Carte réseau Intel® Gigabit 4P I350-t Déclaration de conformité aux réglementations Produits de classe A de la FCC Produits 40 Gigabit Ethernet l l Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Carte réseau convergent Ethernet Intel® XL710-Q2 Produits 25 Gigabit Ethernet l l Carte mezzanine Ethernet Intel® 25G 2P XXV710 Carte réseau Ethernet Intel® 25G 2P XXV710 Produits 10 Gigabit Ethernet l l l l l l l l l l l l l l l l l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 2P X550-t Carte réseau Ethernet Intel® 10G 4P X550 rNDC Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte Ethernet Intel® 10G 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Carte réseau Ethernet Intel® 10G 4P X710-k bNDC Carte réseau Ethernet Intel® 10G 2P X710-k bNDC Carte réseau Ethernet Intel® 10G X710-k bNDC Carte réseau convergent Ethernet Intel® X710 Carte réseau convergent Ethernet Intel® X710-T Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Carte réseau Ethernet Intel® 10G X710 rNDC Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP Produits Gigabit Ethernet l l l l l l l Carte Intel® Gigabit 4P X550/I350 rNDC Carte Intel® Gigabit 4P I350-t rNDC Carte Intel® Gigabit 4P X540/I350 rNDC Carte Intel® Gigabit 4P X520/I350 rNDC Carte mezzanine Intel® Gigabit 4P I350-t Carte Intel® Gigabit 4P X710/l350 rNDC Carte Intel® Gigabit 4P I350 bNDC Produits de classe B de la FCC Produits 10 Gigabit Ethernet l l Carte réseau Ethernet Intel® 10G 2P X520 Carte réseau Ethernet Intel® 10G X520 LOM Produits Gigabit Ethernet l l Carte Intel® Gigabit 2P I350-t Carte réseau Intel® Gigabit 4P I350-t Conformité aux normes de sécurité Les normes de sécurité suivantes s'appliquent à tous les produits répertoriés ci-dessus. l UL 60950-1, 2e édition, 2011-12-19 (Équipement informatique - Sécurité - Partie 1 : Généralités) l CSA C22.2 No. 60950-1-07, 2e édition, 2011-12 (Équipement informatique - Sécurité - Partie 1 : Généralités) l EN 60950-1:2006/A11:2009/A1:2010/A12:2011 (Union européenne) l IEC 60950-1:2005 (2e édition); Am 1:2009 (International) l Directive DBT UE : 2006/95/EC Conformité CEM - Les normes suivantes peuvent s'appliquer : Produits de classe A : l l l l l l l l l l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) CAN ICES-3(A)/NMB-3(A) - Émissions rayonnées et conduites (Canada) CISPR 22 - Émissions par rayonnement et par conduction (International) EN55022 : 2010 - Émissions rayonnées et conduites (Union européenne) EN55024 : 2010 + A1:2001 + A2:2003 - (Immunité) (Union européenne) Directive CEM 2004/108/CE VCCI (Classe A) - Émissions rayonnées et conduites (Japon) CNS13438 - Émissions par rayonnement et par conduction (Taiwan) AS/NZS CISPR 22 - Émissions par rayonnement et par conduction (Australie/Nouvelle-Zélande) NRRA No. 2012-13 (2012.06.28), NRRA Notice No. 2012-14 (2012.06.28) (Corée) Produits de Classe B : l l l l l l l l l l l FCC Part 15 Classe B - Émissions rayonnées et conduites (États-Unis) CAN ICES-3(B)/NMB-3(B) - Émissions rayonnées et conduites (Canada) CISPR 22 - Émissions par rayonnement et par conduction (International) EN55022 : 2010 - Émissions rayonnées et conduites (Union européenne) EN55024 : 2010 - Immunité (Union européenne) EU - Directive CEM 2004/108/EC VCCI (Classe B) - Émissions rayonnées et conduites (Japon) (sauf fibre optique) CNS13438 (Classe B) - 2006 - Émissions rayonnées et conduites (Taïwan) (sauf fibre optique) AS/NZS CISPR 22 - Émissions par rayonnement et par conduction (Australie/Nouvelle-Zélande) KN22; KN24 - Émissions et immunité (Corée) NRRA No. 2012-13 (2012.06.28), NRRA Notice No. 2012-14 (2012.06.28) (Corée) Marques de conformité réglementaires Lorsque c’est exigé, ces produits sont fournis avec des marques de certification : l Marque d’homologation UL pour les États-Unis et le Canada l Marque CE l Logo EU WEEE l Marques FCC l Marque VCCI l Marque C-Tick australienne l Marque MSIP coréenne l Marque BSMI taïwanaise l Marque "EFUP" de la République populaire de Chine Informations de la FCC pour les utilisateurs d’appareils de classe A Les produits de classe A ci-dessus respectent les normes de la partie 15 de la FCC. Son utilisation est soumise aux deux conditions suivantes : 1. Cet appareil ne doit pas causer d’interférences nuisibles. 2. Cet appareil doit accepter les interférences reçues, y compris les interférences qui peuvent engendrer un comportement inapproprié. REMARQUE : cet appareil a été soumis à des tests qui ont attesté sa conformité aux limites d’émission d’énergie des appareils numériques de la classe A définies dans la Partie 15 des règles de la FCC (Federal Communications Commission). Ces limites sont conçues pour fournir une protection raisonnable contre les interférences nuisibles lorsque l’équipement fonctionne dans un environnement commercial. Cet équipement génère, utilise et peut émettre de l’énergie radioélectrique. S’il n’est pas installé et utilisé conformément aux instructions fournies, il peut causer des interférences nuisibles aux communications radio. L’utilisation de cet équipement dans des zones résidentielles provoquera probablement des interférences nuisibles, auquel cas l’utilisateur sera tenu de corriger les interférences à ses propres frais. ATTENTION : les modifications apportées à l'équipement qui n'auront pas été préalablement approuvées par Intel pourront entraîner l'annulation de votre autorisation d'utilisation de cet équipement. Conformité aux spécifications canadiennes (Innovation, Sciences et Développement économique Canada, anciennement Industrie Canada) CAN ICES-3(A)/NMB-3(A) Déclaration VCCI pour la Classe A Déclaration BSMI pour la Classe A Avis KCC pour la Classe A (Corée uniquement) Avis BSMI pour la Classe A (Taïwan) Informations de la FCC pour les utilisateurs d’appareils de classe B Cet appareil a été soumis à des tests qui ont attesté sa conformité aux limites d’émission d’énergie des appareils numériques de la classe B définies dans la Partie 15 des règles de la FCC (Federal Communications Commission). Ces limites sont conçues en vue d’offrir une protection raisonnable contre les interférences nuisibles dans le cadre d’installations résidentielles. Cet équipement génère, utilise et peut émettre de l’énergie radioélectrique. S’il n’est pas installé et utilisé conformément aux instructions fournies, il peut causer des interférences nuisibles aux communications radio. Il n’est cependant pas garanti que des interférences ne se produiront pas dans le cadre d’installations particulières. Si cet équipement crée des interférences nuisibles qui affectent la réception radio ou télévision, ce qui peut être déterminé en mettant l’équipement sous tension et puis hors tension, l’utilisateur est invité à tenter d’éliminer l’interférence d’une ou de plusieurs façons : l En réorientant ou déplaçant l’antenne de réception l En éloignant l’équipement du récepteur. l En branchant le matériel sur un circuit électrique différent de celui du récepteur. l En consultant le revendeur ou un technicien radio/TV expérimenté. ATTENTION : les modifications apportées à l'équipement qui n'auront pas été préalablement approuvées par Intel pourront entraîner l'annulation de votre autorisation d'utilisation de cet équipement. REMARQUE : cet appareil est conforme à la Section 15 des règlements de la FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) cet appareil ne provoquera pas d'interférences nuisibles, (2) cet appareil doit absorber les interférences qu'il reçoit y compris celles qui peuvent provoquer un fonctionnement inopiné. Avis de compatibilité électromagnétique Déclaration de conformité FCC Les produits suivants ont été testés et sont conformes aux normes de la FCC pour un usage privé ou en entreprise. Carte réseau PRO/1000 MT, PRO/1000 PT, PRO/1000 GT, Gigabit PT, Gigabit ET, I210-T1, I340-T2/T4, I350-T2/T4, carte réseau PRO/100 M pour PC de bureau, carte réseau PRO/100 S pour PC de bureau, carte réseau PRO/100 S pour serveurs et carte réseau deux ports PRO/100 S pour serveurs Conformité aux spécifications canadiennes (Innovation, Sciences et Développement économique Canada, anciennement Industrie Canada) CAN ICES-3 (B)/NMB-3 (B) Déclaration de conformité VCCI classe B (Japon) Avis KCC pour la Classe B (Corée uniquement) Logo EU WEEE Déclaration du fabricant Communauté européenne Déclaration du fabricant Intel Corporation déclare que l’équipement décrit dans ce document est conforme aux exigences de la directive du Conseil européen répertoriée ci-dessous : l Directive basse tension 2006/95/CE l Directive CEM 2004/108/CE l Directive européenne RoHS 2011/65/UE Ces produits respectent les dispositions de la directive européenne 1999/5/CE. Dette produkt er i overensstemmelse med det europæiske direktiv 1999/5/EC. Dit product is in navolging van de bepalingen van Europees Directief 1999/5/EC. Tämä tuote noudattaa EU-direktiivin 1999/5/EC määräyksiä. Ce produit est conforme aux exigences de la Directive Européenne 1999/5/EC. Dieses Produkt entspricht den Bestimmungen der Europäischen Richtlinie 1999/5/EC. Þessi vara stenst reglugerð Evrópska Efnahags Bandalagsins númer 1999/5/EC. Questo prodotto è conforme alla Direttiva Europea 1999/5/EC. Dette produktet er i henhold til bestemmelsene i det europeiske direktivet 1999/5/EC. Este produto cumpre com as normas da Diretiva Européia 1999/5/EC. Este producto cumple con las normas del Directivo Europeo 1999/5/EC. Denna produkt har tillverkats i enlighet med EG-direktiv 1999/5/EC. Cette déclaration est fondée sur la conformité des produits de classe A aux normes suivantes : EN 55022:2010 (CISPR 22 Classe A) Contrôle des émissions aux fréquences radio. EN 55024:2010 (CISPR 24) Immunité aux interférences électromagnétiques. EN 60950-1:2006/A11:2009A1:2010/A12:2011 Équipement informatique - Sécurité - Partie 1 : Généralités. EN 50581:2012 - Documentation technique pour l'évaluation des produits électriques et électroniques conformément aux restrictions relatives aux matières dangereuses. Cette déclaration est fondée sur la conformité des produits de classe B aux normes suivantes : EN 55022:2010 (CISPR 22 Classe B) Contrôle des émissions aux fréquences radio. EN 55024:2010 (CISPR 24) Immunité aux interférences électromagnétiques. EN 60950-1:2006/A11:2009/A1:2010/A12:2011 Équipement informatique - Sécurité - Partie 1 : Généralités. EN 50581:2012 - Documentation technique pour l'évaluation des produits électriques et électroniques conformément aux restrictions relatives aux matières dangereuses. AVERTISSEMENT : Dans un environnement domestique, les produits de classe A peuvent provoquer des interférences radio, auquel cas l'utilisateur peut être tenu de prendre des mesures adéquates. Partie responsable Intel Corporation, Mailstop JF3-446 5200 N.E. Elam Young Parkway Hillsboro, OR 97124-6497 (États-Unis) Téléphone 1-800-628-8686 Déclaration RoHS de Chine Produits laser de Classe 1 Les cartes serveur répertoriées ci-dessus peuvent contenir des périphériques laser utilisés à des fins de communication. Ces périphériques sont conformes aux exigences définies pour les produits laser de classe 1 et peuvent être utilisés en toute sécurité. Au cours des opérations normales, l’émission de ces périphériques laser n’excède pas les limites définies pour la protection des yeux et ne peut pas faire de mal. Pour que les opérations continuent à ne pas être nuisibles même si les circonstances deviennent anormales, assurezvous que le capot du connecteur laser fourni est bien en place ou qu’un câble à fibres optiques compatible est correctement connecté lorsque le produit est alimenté. Le périphérique laser doit être réparé UNIQUEMENT en usine et par le fabricant du périphérique ! AUCUN réglage, aucune réparation ou opération de maintenance ne doit être effectué autrement . ATTENTION : l'utilisation de contrôles ou d'ajustements de la performance ou des procédures autres que ceux spécifiés ici peut résulter en une exposition dangereuse aux radiations. Ces périphériques laser de Classe 1 sont : conformes à la norme CFR21, sous-chapitre J de la FDA/CDRH. Respectent la norme IEC 60825-1:2007. Fin de vie/Recyclage du produit Les exigences et systèmes de recyclage et de reprise en fin de vie des produits varient en fonction des pays. Contactez le revendeur ou distributeur de ce produit pour obtenir des informations sur le recyclage et/ou la reprise des produits. Assistance à la clientèle Web et sites Internet http://support.dell.com/ Techniciens d’assistance à la clientèle Si les procédures de dépannage décrites dans ce document ne vous aident pas à résoudre le problème, contactez Dell, Inc. pour obtenir une aide technique (consultez la section "Obtenir de l’aide" de la documentation du système). Avant d’appeler... Installez-vous devant votre ordinateur, exécutez le logiciel et munissez-vous de la documentation. Le technicien peut vous demander les informations suivantes : l Votre adresse et votre numéro de téléphone l Le nom et le numéro du modèle du produit qui fait l’objet de votre appel l Le numéro de série et l’étiquette de service du produit l Les noms et numéros de version des logiciels utilisés avec le produit l Le nom et le numéro de version du système d’exploitation utilisé l Le type de votre ordinateur (fabricant et numéro de modèle) l Les cartes d’extension ou additionnelles installées l La capacité mémoire de votre ordinateur. Spécifications des cartes Spécifications relatives aux cartes réseau Intel® 40 Gigabit Fonction Carte réseau convergent Ethernet Intel® XL710-Q2 Connecteur de bus PCI Express 3.0 Vitesse du bus x8 Mode de transmission/Connecteur QSFP+ Câblage 40GBase-SR4, Twinax DAC (7 m max.) Alimentation requise 6,5 W maximum à +12 V Dimensions (support exclu) 5,21 x 2,71 po 13,3 x 6,9 cm Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) MTBF 159 ans Vitesses disponibles 40 Gbit/s Modes de duplex Full uniquement Indicateurs lumineux Deux par port : Liaison et Activité Conformité aux normes IEEE 802.3ba SFF-8436 PCI Express 3.0 Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l l CISPR 22 - Émissions par rayonnement et par conduction (International) EN55022-1998 - Émissions rayonnées et conduites (Union européenne) EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande) Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) l l Spécifications relatives aux cartes filles réseau Intel® 40GbE (NDC) Fonction Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC Connecteur de bus PCI Express 3.0 Vitesse du bus x8 Mode de transmission/Connecteur QSFP+ Câblage 40GBase-SR4, Twinax DAC (7 m max.) Alimentation requise 6,2 W maximum à +12 V Dimensions (support exclu) 3,66 x 6,081 po 9,3 x 15,5 cm Température de fonctionnement 32 - 140 deg. F (0 - 60 deg. C) MTBF 112 ans Vitesses disponibles 40 Gbit/s Modes de duplex Full uniquement Indicateurs lumineux Deux par port : Liaison et Activité Conformité aux normes IEEE 802.3ba SFF-8436 PCI Express 3.0 Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l l CISPR 22 - Émissions par rayonnement et par conduction (International) EN55022-1998 - Émissions rayonnées et conduites (Union européenne) EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande) Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) l l Spécifications des cartes réseau Intel® 25 Gigabit Fonction Carte réseau Ethernet Intel® 25G 2P XXV710 Connecteur de bus PCI Express 3.0 Vitesse du bus x8 Mode de transmission/Connecteur SFP28 Câblage 25GBase-CR, Twinax DAC (3 m max) Alimentation requise 6,5 W maximum à +12 V Dimensions (support exclu) 2,70 x 2,02 po 6,86 x 5,12 cm Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) MTBF 239 ans Vitesses disponibles 25 Gbit/s Modes de duplex Full uniquement Indicateurs lumineux Deux par port : Liaison et Activité Conformité aux normes IEEE 802.3-2015 SFF-8431 PCI Express 3.0 Sécurité et réglementation Conformité aux normes de sécurité l UL/CSA 60950-1-07 2e édition l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55032-2015 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 2010 - (Immunité) (Union européenne) l Directives REACH, WEEE, RoHS (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l l AS/NZS CISPR - Émissions par rayonnement et par conduction (Australie/NouvelleZélande) KN32 - Émissions rayonnées et conduites (Corée) l KN35 - (Immunité) (Corée) l RoHS (Chine) Spécifications des cartes mezzanine Intel® 25 Gigabit Fonction Carte mezzanine Ethernet Intel® 25G 2P XXV710 Connecteur de bus À déterminer Vitesse du bus À déterminer Mode de transmission/Connecteur À déterminer Câblage À déterminer Alimentation requise À déterminer Dimensions (support exclu) À déterminer Température de fonctionnement À déterminer MTBF À déterminer Vitesses disponibles À déterminer Modes de duplex À déterminer Indicateurs lumineux À déterminer Liaison et Activité Conformité aux normes À déterminer Sécurité et réglementation Conformité aux normes de sécurité l À déterminer Conformité CEM l À déterminer Spécifications des cartes réseau Intel® 10 Gigabit Fonction Carte réseau Ethernet Intel® 10G 2P X540-t Carte réseau Ethernet Intel® 10G 2P X520 Carte réseau Ethernet Intel® 10G 2P X550-t Connecteur de bus PCI Express 2.0 PCI Express 2.0 PCI Express 3.0 Vitesse du bus x8 x8 x8 Mode de transmission/Connecteur 10GBase-T/RJ-45 Twinax cuivre/SFP+ 10GBase-T/RJ-45 10GBase-T (Catégorie 6A) 10 Gigabit Ethernet sur câble SFP+ Direct Attach cuivre (10GSFP+Cu) 10GBase-T (Catégorie 6A) Alimentation requise 15 W maximum en +12 V 6,2 W Maximum @ +3,3 V 13 W maximum à +12 V Dimensions (support exclu) 5,7 x 2,7 po 14,5 x 6,9 cm 5,7 x 2,7 po 14,5 x 6,9 cm 5,13 x 2,7 po 13,0 x 6,9 cm Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) MTBF 108 ans 83,9 ans À déterminer Vitesses disponibles 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s Modes de duplex Full uniquement Full uniquement Full uniquement Indicateurs lumineux Deux par port : Deux par port : Liaison et Activité Liaison et Activité Link (Liaison) Activité Conformité aux normes IEEE 802.1p IEEE 802.1Q IEEE 802.3an IEEE 802.3ac IEEE 802.3ad IEEE 802.3an IEEE 802.3x ACPI v1.0 PCI Express 2.0 IEEE 802.1p IEEE 802.1Q IEEE 802.3an IEEE 802.3ac IEEE 802.3ad IEEE 802.3x ACPI v1.0 PCI Express 2.0 IEEE 802.1p IEEE 802.1Q IEEE 802.3an IEEE 802.3ac IEEE 802.3ad IEEE 802.3x ACPI v1.0 PCI Express 3.0 Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) Câblage l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) REMARQUE : pour la carte réseau Intel® 10 Gigabit AT pour serveurs, en vue d’assurer la conformité avec les normes CISPR 24 et EN55024 (Union européenne), ce produit doit être utilisé uniquement avec des câbles blindés de catégorie 6a dotés de terminaisons correctes d’après les recommandations de la norme EN50174-2. Fonction Carte réseau convergent Ethernet Intel® X710-T Carte réseau convergent Ethernet Intel® X710 Carte réseau Ethernet X710DA2 pour serveurs et OCP Connecteur de bus PCI Express 2.0 PCI Express 3.0 PCI Express 3.0 Vitesse du bus x8 x8 x8 Mode de transmission/Connecteur SFP+ SFP+ À déterminer Twinax 10GBase-SR/LR Twinax 10GBase-SR/LR À déterminer Câblage Alimentation requise À déterminer 6,7 watts (maximum) à 12 V À déterminer Dimensions (support exclu) 6,578 x 4,372 po 16,708 x 11,107 cm 6,578 x 4,372 po 16,708 x 11,107 cm À déterminer Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) 41 - 131 deg. F (5 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) MTBF À déterminer 491 ans À déterminer Vitesses disponibles 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s 10 Gbit/s Modes de duplex Full uniquement Full uniquement Full uniquement Indicateurs lumineux Liaison/Activité 1Gig/10Gig Liaison/Activité 1Gig/10Gig Liaison/Activité 1Gig/10Gig Conformité aux normes PCI Express 3.0 SFF-8431 IEEE 802.3z IEEE 802.3ae PCI Express 3.0 SFF-8431 IEEE 802.3z IEEE 802.3ae Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) Spécifications des cartes mezzanine Intel® 10 Gigabit Fonction Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR Connecteur de bus PCI Express 2.0 Vitesse du bus x8 Alimentation requise 7,4 Watts (maximum) à 3,3 V 3,65 x 3,3 po Dimensions Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) MTBF 147 ans Vitesses disponibles 10 Gbit/s/1 Gbit/s Modes de duplex Full uniquement Conformité aux normes IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 2.0 Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l l CISPR 22 - Émissions par rayonnement et par conduction (International) EN55022-1998 - Émissions rayonnées et conduites (Union européenne) EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande) Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) l l Spécifications relatives aux cartes filles réseau Intel® 10GbE (NDC) Fonction Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC Carte réseau Ethernet Intel® 10G 4P X550 rNDC Connecteur de bus PCI Express 3.0 PCI Express 3.0 Vitesse du bus x8 x8 Mode de transmission/Connecteur Cuivre torsadé/RJ-45 Cuivre torsadé/RJ-45 Câblage Cat-5e Cat-5e Alimentation requise À déterminer 33,6 watts (maximum) à 12 V Dimensions À déterminer À déterminer Température de fonctionnement À déterminer À déterminer MTBF À déterminer À déterminer Vitesses disponibles 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s Modes de duplex Full uniquement Full uniquement Conformité aux normes IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 1.0a IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 1.0a Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) Fonction Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte Ethernet Intel® 10G 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G 2P X520-k bNDC Connecteur de bus PCI Express 2.0 PCI Express 2.0 PCI Express 2.0 Vitesse du bus x8 x8 x8 Mode de transmission/Connecteur Cuivre torsadé/RJ-45 SFP+ Cuivre/Fond de panier Câblage Cat-5e SFP+ SR/DA 10GBase-KR et 1000Base-KX 5,5 Watts (maximum) à 3,3 V 10,1 Watts (maximum) à 12 V 0,6 Watts à 3,3 V (AUX), 6,3 Watts à 1,2 V (VCORE) Dimensions 3,93 x 3,67 po 4,3 x 3,7 po 3,0 x 2,5 po Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) MTBF 68 ans 65 ans 147 ans Vitesses disponibles 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s Modes de duplex Full uniquement Full uniquement Full uniquement Conformité aux normes IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 1.0a IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 1.0a IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ap IEEE 802.3x ACPI v1.0 PCI Express 2.0 Alimentation requise Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) Fonction Carte réseau Ethernet Intel® 10G 4P X710-k bNDC Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC Connecteur de bus Dell EMC bNDC PCI Express 3.0 PCI Express 3.0 Vitesse du bus x8 x8 x8 Mode de transmission/Connecteur KX/KR SFP+ SFP+ Fond de panier Cat-5e Twinax 10GBase-SR/LR 3,3 watts à 3,3 V (AUX), 12,6 watts à 12 V (AUX) 10,7 watts maximum à +12 V 9,5 watts maximum à +12 V Alimentation requise Dimensions 3,000x2,449 po 7,62x6,220 cm 4,331x3,661 po 11,0x9,298 cm 4,331x3,661 po 11,0x9,298 cm Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) 32 - 131 deg. F (0 - 55 deg. C) MTBF 828 ans 108 ans 505 ans Vitesses disponibles 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s Modes de duplex Full uniquement Full uniquement Full uniquement Indicateurs lumineux Aucune Liaison/Activité Vitesse Liaison/Activité Vitesse Conformité aux normes PCI Express 3.0 IEEE 802.3ap PCI Express 3.0 SFF-8431 IEEE 802.3z IEEE 802.3ae PCI Express 3.0 SFF-8431 IEEE 802.3z IEEE 802.3ae Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) Câblage l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) Spécifications des cartes réseau Intel® Gigabit Fonction Carte réseau Intel® Gigabit 2P I350-t et Carte réseau Intel® Gigabit 4P I350-t Connecteur de bus PCI Express 2.0 Vitesse du bus x4 Mode de transmission/Connecteur Cuivre torsadé/RJ-45 Câblage 1000Base-T (Catégorie 3 ou Catégorie 5) Alimentation requise Carte réseau Intel® Gigabit 2P I350-t : 4,8 Watts @ 12 V Carte réseau Intel® Gigabit 4P I350-t : 6,0 Watts @ 12 V Dimensions (support exclu) 5,3 x 2,7 po 13,5 x 6,9 cm Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) MTBF 68 ans Vitesses disponibles 10/100/1000 Négociation automatique Modes de duplex Full ou Half duplex à 10/100 Mbit/s ; Full seulement à 1 000 Mbit/s Conformité aux normes IEEE 802.1p IEEE 802.1Q IEEE 802.3ab IEEE 802.3ac IEEE 802.3ad IEEE 802.3az IEEE 802.3u IEEE 802.3x IEEE 802.3z ACPI v1.0 PCI Express 2.0 Indicateurs lumineux Deux par port : Activités et vitesse Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) Spécifications des cartes mezzanine Intel® Gigabit Fonction Carte mezzanine Intel® Gigabit 4P I350-t Connecteur de bus PCI Express 2.0 Vitesse du bus x4 Alimentation requise 3,425 Watts (maximum) à 3,3 V Dimensions 3,65 x 3,3 po Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) MTBF 108 ans Vitesses disponibles Full uniquement à 1000 Mbit/s Modes de duplex Full à 1 000 Mbit/s Conformité aux normes IEEE 802.1p IEEE 802.1Q IEEE 802.3ab IEEE 802.3ac IEEE 802.3ad IEEE 802.3x ACPI v1.0 PCI Express 2.0 Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l l CISPR 22 - Émissions par rayonnement et par conduction (International) EN55022-1998 - Émissions rayonnées et conduites (Union européenne) EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande) Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) l l Spécifications relatives aux cartes filles réseau Intel® Gigabit Fonction Carte Intel® Gigabit 4P X710/I350 rNDC Carte Ethernet Intel® Gigabit 4P X550/I350 rNDC Carte Intel® Gigabit 4P I350-t rNDC Connecteur de bus PCI Express 2.0 PCI Express 2.0 PCI Express 2.0 Vitesse du bus x8 x8 x8 Mode de transmission/Connecteur Cuivre torsadé/RJ-45 Cuivre torsadé/RJ-45 Cuivre torsadé/RJ-45 Câblage Cat-5e Cat-5e Cat-5e Alimentation requise 10,7 w maximum à +12 V À déterminer À déterminer Dimensions (support exclu) 4,331 x 3,661 po 11,007 x 9,298 cm À déterminer À déterminer Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C) À déterminer À déterminer MTBF 108 ans À déterminer À déterminer Vitesses disponibles 10 Gbit/s/1 Gbit/s 10 Gbit/s/1 Gbit/s 1 Gbit/s Modes de duplex Full uniquement Full uniquement Full uniquement Conformité aux normes PCI Express 2.1 IEEE 802.3i IEEE 802.3ab IEEE 802.3u IEEE 802.3ad IEEE 802.3az IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 2.1 IEEE 802.1p IEEE 802.1Q IEEE 802.3ac IEEE 802.3ad IEEE 802.3ae IEEE 802.3x ACPI v1.0 PCI Express 2.1 Sécurité et réglementation Conformité aux normes de sécurité l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada) l EN 60 950 (Union européenne) l IEC 60 950 (International) Conformité CEM l FCC Part 15 - Émissions rayonnées et conduites (États-Unis) l ICES-003 - Émissions par rayonnement et par conduction (Canada) l CISPR 22 - Émissions par rayonnement et par conduction (International) l EN55022-1998 - Émissions rayonnées et conduites (Union européenne) l EN55024 - 1998 - (Immunité) (Union européenne) l CE - Directive CEM (89/336/EEC) (Union européenne) l VCCI - Émissions par rayonnement et par conduction (Japon) l CNS13438 - Émissions par rayonnement et par conduction (Taiwan) l AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande) l Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée) Normes l l l l l l l l l l l l l l IEEE 802.1p : Files de priorité (priorité du trafic) et niveaux de qualité de service IEEE 802.1Q : Identification de réseau local virtuel IEEE 802.3ab : Ethernet gigabit sur cuivre IEEE 802.3ac : Étiquetage IEEE 802.3ad : SLA (FEC/GEC/Agrégation de liens - mode statique) IEEE 802.3ad : Mode dynamique IEEE 802.3ae : Ethernet 10 Gbit/s IEEE 802.3an : 10GBase-T 10 Gbit/ps Ethernet sur paire torsadée non blindée IEEE 802.3ap : Fond de panier Ethernet IEEE 802.3u : Ethernet à haut débit IEEE 802.3x : Contrôle de flux IEEE 802.3z : Ethernet gigabit sur fibre optique ACPI : Advanced Configuration and Power Interface (Interface de configuration et d'énergie avancée) PCI Express : spécification du bus système : 32/64 bits, x1, x2, x4, x8, x16 Des informations supplémentaires sur les normes IEEE 802 sont disponibles à l'adresse http://www.ieee802.org. Réseaux locaux virtuels IEEE 802.3ac : Les réseaux locaux virtuels requièrent des commutateurs compatibles implicites (commutateur uniquement) ou explicites (IEEE 802.3ac). Les réseaux locaux virtuels IEEE 802.3ac permettent d'associer plusieurs réseaux par carte, car celle-ci et le commutateur utilisent une étiquette dans l'en-tête de paquet qui permet de trier les réseaux locaux virtuels. Les cartes réseau Intel Gigabit et 10 Gigabit prennent en charge les réseaux locaux virtuels implicites et explicites. Attributs X-UEFI Cette section contient des informations sur les attributs X-UEFI et leurs valeurs attendues. Liste des périphériques multi-contrôleur Les cartes réseau répertoriées ci-dessous contiennent plus d'un contrôleur. Sur ces cartes réseau, la configuration des paramètres à base de contrôleur n'affectera pas tous les ports. Seuls les ports associés au même contrôleur seront affectés. Les paramètres suivants s'appliquent à tous les ports d'un contrôleur donné : l Mode de virtualisation l Mode NParEP l Fonctions PCI virtuelles publiées Périphériques multi-contrôleurs Nombre de contrôleurs sur le périphérique Contrôleur 1 Contrôleur 2 Carte Ethernet Intel® 10G 4P X520/I350 rNDC 2 Ports 10G 1 et 2 Ports 1G 3 et 4 2 Ports 10G 1 et 2 Ports 1G 3 et 4 Carte réseau Ethernet Intel® 10G 4P X550 rNDC 2 Ports 10G 1 et 2 Ports 1G 3 et 4 Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC 2 Ports 10G 1 et 2 Ports 1G 3 et 4 2 Ports 10G 1 et 2 Ports 1G 3 et 4 Carte Intel® Gigabit 4P X520/I350 rNDC Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC Carte Intel® Gigabit 4P X540/I350 rNDC Carte Intel® Gigabit 4P X550/I350 rNDC Carte Ethernet Intel® 10G 4P X710/I350 rNDC Carte réseau Ethernet Intel® 10G X710 rNDC Carte Intel® Gigabit 4P X710/I350 rNDC Table des attributs X-UEFI Nom d'affichage Mode de virtualisation Nom X-UEFI VirtualizationMode Cartes prises en charge I350 X520 X540 X550 X710 XL710 XXV710 X X X X X X X Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Oui None/NPAR/SRIOV/NPAR + SR-IOV None/NPAR/SRIOV/NPAR + SR-IOV Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information Non Spécifie le paramètre de mode de virtualisation du contrôleur. "NPAR" et "NPAR + SR-IOV" sont uniquement pris en charge sur des périphériques X710 et XXV710. Ils ne sont pas pris en charge sur les systèmes d'exploitation client. Le paramètre d'attribut s'applique à tous les ports d'un contrôleur donné. Nom d'affichage Nom X-UEFI Cartes prises en charge Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information I350 X520 X540 X550 X710 XL710 XXV710 X X X X X X X Non 0-256 Non Nombre de fonctions virtuelles prises en charge sur ce port. X Non Variable/Fixe Non Décrit le mode de mise en œuvre du partitionnement et le mode d'utilisation de l'attribut PartitionState dans le contrôleur. Fixe est la seule valeur utilisée. Nombre de fonctions virtuelles prises en charge NumberVFSupported Interprétation de l'état de la partition PartitionStateInterpretation Prise en charge RDMA RDMASupport X X X X X X X Non Disponible/Indisponible Non Indique si le contrôleur prend en charge des protocoles RDMA. Indisponible est la seule valeur utilisée. Prise en charge SR-IOV SRIOVSupport X X X X X X X Non Disponible/Indisponible Non Indique si la fonctionnalité SR-IOV est prise en charge. Affectation des VF - Base VFAllocBasis X X X X X X X Non Périphérique/Port Non Définit le domaine dans lequel les fonctions virtuelles (VF) sont affectées. Port est la seule valeur utilisée. Affectation des VF - Multiple VFAllocMult X X X X X X X Non 1-255 Non Les fonctions virtuelles doivent être allouées à un port en multiples de ce nombre. Mode NParEP NParEP X Oui Désactivé/Activé Désactivé/Activé Non Le mode NParEP permet de créer plus de 8 partitions sur le périphérique. Il ne doit pas être activé si le système et le SE ne prennent pas en charge les périphériques avec plus de 8 fonctions PCI physiques. Le paramètre d'attribut s'applique à tous les ports d'un contrôleur donné. Boot Order BootOrderFirstFCoETarget X X X* Oui 0-4 0-4 Oui BootOrderSecondFCoETarget X X X* Oui 0-4 0-4 Oui Spécifiez cet emplacement de port dans l'ordre de démarrage FCoE 1-4 ou sur 0=ddésactivé. BootOrderThirdFCoETarget X X X* Oui 0-4 0-4 Oui BootOrderFourthFCoETarget X X X* Oui 0-4 0-4 Oui FirstFCoEBootTargetLUN X X X* Oui 0-255 0-255 Oui INTEL_SecondFCoEBootTargetLUN X X X* Oui 0-255 0-255 Non Le numéro d'unité logique (LUN) à utiliser sur la cible FCoE. La valeur du LUN doit être au format décimal. INTEL_ThirdFCoEBootTargetLUN X X X* Oui 0-255 0-255 Non * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. INTEL_FourthFCoEBootTargetLUN X X X* Oui 0-255 0-255 Non FirstFCoEFCFVLANID X X X* Oui 1-4094 1-4094 Oui Spécifier l'ID de VLAN de la cible FCoE. INTEL_SecondFCoEFCFVLANID X X X* Oui 1-4094 1-4094 Non * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. INTEL_ThirdFCoEFCFVLANID X X X* Oui 1-4094 1-4094 Non INTEL_FourthFCoEFCFVLANID X X X* Oui 1-4094 1-4094 Non Numéro d'unité logique (LUN) de démarrage ID de réseau local virtuel X X VirtualizationMode - NPAR ou NPAR + SR-IOV * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. Nom d'affichage Nom X-UEFI Cartes prises en charge I350 Cible du nom de port mondial (WWPN) X710 XL710 XXV710 Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information Spécifie le nom de port mondial (WWPN) de la première cible de stockage FCoE. X520 X540 X550 FirstFCoEWWPNTarget X X X* Oui XX:XX:XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX:XX:XX Oui INTEL_SecondFCoEWWPNTarget X X X* Oui XX:XX:XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX:XX:XX Non INTEL_ThirdFCoEWWPNTarget X X X* Oui XX:XX:XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX:XX:XX Non INTEL_FourthFCoEWWPNTarget X X X* Oui XX:XX:XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX:XX:XX Non * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. Bande passante de transmission max. de la partition n MaxBandwidth[Partition:n] X X Oui 1-100 1-100 Oui Représente la bande passante de transmission maximum de la partition sous la forme d'un pourcentage de la vitesse de liaison du port physique complet. La plage de la bande passante maximum est de 1 à 100 % pour chaque partition autorisée. Si la valeur de la bande passante maximale configurée à distance sur la partition n'est inférieure à la bande passante minimale sur la partition n, la bande passante minimale sera utilisée. Bande passante de transmission min. de la partition n MinBandwidth[Partition:n] X X Oui 1-100 1-100 Oui Représente la bande passante de transmission minimale de la partition sous la forme d'un pourcentage de la vitesse de liaison du port physique complet. La plage de la bande passante minimale est de 1 à 100 % pour chaque partition autorisée. La bande passante minimale pour toutes les partitions activées sur un port doit totaliser 100 %. Si les pourcentages de la bande passante minimale configurée à distance ne totalisent pas 100, le microprogramme les normalisera automatiquement à 100. LUN de démarrage FirstTgtBootLun X X X X X X X Oui 0-255 0-255 Oui Spécifie le numéro d'unité logique (LUN) de démarrage sur la première cible de stockage iSCSI. Secret CHAP FirstTgtChapPwd X X X X X X X Oui chaîne chaîne Oui Spécifie le mot de passe secret CHAP (Challenge-Handshake Authentication Protocol) de la première cible de stockage iSCSI. La valeur de chaîne est limitée aux caractères alphanumériques, ainsi que '.' (point), ':' (deux-points) et '-' (tiret). Adresse IP FirstTgtIpAddress X X X X X X X Oui X.X.X.X X.X.X.X Oui Spécifie l'adresse IP de la première cible iSCSI. Nom iSCSI FirstTgtIscsiName X X X X X X X Oui chaîne chaîne Oui Spécifie le nom IQN (iSCSI Qualified Name) de la première cible de stockage iSCSI. La valeur de chaîne est limitée aux caractères alphanumériques, ainsi que '.' (point), ':' (deux-points) et '-' (tiret). Port TCP FirstTgtTcpPort X X X X X X X Oui 1024-65535 1024-65535 Oui Spécifie le numéro de port TCP de la première cible iSCSI. ID CHAP IscsiInitiatorChapId X X X X X X X Oui chaîne chaîne Oui Spécifie l'ID CHAP (Challenge-Handshake Authentication Protocol) de la première cible de stockage iSCSI. La valeur de chaîne est limitée aux caractères alphanumériques, ChapAuthEnable Activé Nom d'affichage Nom X-UEFI Cartes prises en charge I350 X520 X540 X550 X710 XL710 XXV710 Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information ainsi que '.' (point), ':' (deux-points) et '-' (tiret). Authentification CHAP ChapAuthEnable X X X X X X X Oui Activé/Désactivé Activé/Désactivé Non Permet à l'initiateur d'utiliser l'authentification CHAP lors de la connexion à la cible iSCSI. Paramètres TCP/IP via DHCP TcpIpViaDHCP X X X X X X X Oui Désactivé/Activé Désactivé/Activé Non Contrôle la source de l'adresse IP de l'initiateur (affectation DHCP ou statique). Cette option est spécifique à IPv4. Version IP IpVer X X X X X X X Non IPv4 Non Contrôle si l'adressage réseau IPv4 ou IPv6 sera utilisé pour l'initiateur et les cibles iSCSI. Actuellement, seul l'adressage IPv4 est pris en charge. Authentification mutuelle CHAP ChapMutualAuth X X X X X X X Oui Désactivé/Activé Désactivé/Activé ChapAuthEnable Activé Non Active ou désactive l'authentification mutuelle CHAP. Pour utiliser l'authentification mutuelle CHAP, spécifiez un secret d'initiateur dans la page Paramètres de l'initiateur et configurez ce secret sur la cible. Paramètres iSCSI via DHCP IscsiViaDHCP X X X X X X X Oui Désactivé/Activé Désactivé/Activé TcpIpViaDHCP Activé Non Permet l'acquisition des paramètres de la cible iSCSI depuis DHCP. Nom iSCSI IscsiInitiatorName X X X X X X X Oui chaîne chaîne Oui Spécifie le nom IQN (iSCSI Qualified Name) de l'initiateur. Le paramètre d'attribut s'applique à tous les ports d'un contrôleur donné. Il est recommandé d'utiliser le même IscsiInitiatorName sur tous les ports d'un périphérique donné. Secret CHAP IscsiInitiatorChapPwd X X X X X X X Oui chaîne chaîne ChapAuthEnable Activé Oui Définit le secret (mot de passe) CHAP (Challenge-Handshake Authentication Protocol) de l'initiateur iSCSI. La valeur de chaîne est limitée aux caractères alphanumériques, ainsi que '.' (point), ':' (deux-points) et '-' (tiret). Passerelle par défaut IscsiInitiatorGateway X X X X X X X Oui X.X.X.X X.X.X.X TcpIpViaDHCP Désactivé Oui Spécifie l'adresse IP de la passerelle par défaut utilisée par l'initiateur iSCSI. Adresse IP IscsiInitiatorIpAddr X X X X X X X Oui X.X.X.X X.X.X.X TcpIpViaDHCP Désactivé Oui Spécifie l'adresse IP de l'initiateur iSCSI. Masque de sous-réseau IscsiInitiatorSubnet X X X X X X X Oui X.X.X.X X.X.X.X TcpIpViaDHCP Désactivé Oui Spécifie le masque de sous-réseau IPv4 de l'initiateur iSCSI. Faire clignoter les DEL BlnkLeds X X X X X X X Oui 0-15 0-15 Non Spécifie le nombre de secondes pendant lesquelles les DEL sur le port réseau physique doivent clignoter pour faciliter l'identification des ports. Adresse MAC FIP virtuelle VirtFIPMacAddr X X X* Oui XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX Oui Définit l'adresse MAC FIP pouvant être affectée par programmation pour FCoE. * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t de la famille de périphériques X550. Adresse MAC VirtMacAddr X X X X X X X Oui XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX Oui Définit l'adresse MAC pouvant être affectée Nom d'affichage Nom X-UEFI Cartes prises en charge I350 X520 X540 X550 X710 XL710 XXV710 Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) virtuelle Nom virtuel de nœud mondial (WWNN) Information par programmation pour le port. VirtWWN X X X* Oui XX:XX:XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX:XX:XX Oui Définit l'identifiant de nom de nœud World Wide Fibre Channel pour FCoE pouvant être affecté par programmation. Les 6 derniers octets doivent être conformes à l'adresse MAC FIP active. * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. Nom virtuel de port mondial (WWPN) VirtWWPN X X X* Oui XX:XX:XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX:XX:XX Oui Définit l'Identifiant de nom de port World Wide Fibre Channel pour FCoE pouvant être affecté par programmation. Les 6 derniers octets doivent être conformes à l'adresse MAC FIP active. * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. Prise en charge de l'amorçage FCoE FCoEBootSupport Adresse MAC FIP FIPMacAddr X X X X X X X* X X X Non Disponible/Indisponible Non Indique si la fonctionnalité Fibre Channel over Ethernet Boot est prise en charge. Non XX:XX:XX:XX:XX:XX Non Définit l'adresse MAC FIP permanente pour FCoE affectée pendant la fabrication. * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. FlexAddressing FlexAddressing X X X X X X X Non Disponible/Indisponible Non Indique si la fonctionnalité Dell FlexAddressing est prise en charge. Prise en charge de l'amorçage iSCSI iSCSIBootSupport X X X X X X X Non Disponible/Indisponible Non Indique si le démarrage iSCSI est pris en charge. Prise en charge de la version iSCSI Dual IP iSCSIDualIPVersionSupport X X X X X X X Non Disponible/Indisponible Non Indique la prise en charge des configurations simultanées IPv4 et IPv6 de l'initiateur iSCSI et des cibles iSCSI principales et secondaires. Indisponible est la seule valeur utilisée. Prise en charge du délestage iSCSI iSCSIOffloadSupport X X X X X X X Non Disponible/Indisponible Non Indique si la fonctionnalité de délestage iSCSI est prise en charge. Indisponible est la seule valeur utilisée. État de la liaison LinkStatus X X X X X X X Non Déconnecté/Connecté Non Indique l'état de la liaison physique des ports réseau signalé par le contrôleur. Adresse MAC MacAddr X X X X X X X Non XX:XX:XX:XX:XX:XX Non Indique l'adresse MAC permanente affectée pendant la fabrication. Prise en charge des partitions NIC NicPartitioningSupport X X X X X X X Non Disponible/Indisponible Non Indique si la fonctionnalité de partitionnement NIC est prise en charge. PassThrough de gestion BMC SE OSBMCManagementPassThrough X X X Non Disponible/Indisponible Non Indique si la fonctionnalité de PassThrough de gestion BMC SE est prise en charge. Nom d'affichage Nom X-UEFI Cartes prises en charge I350 X520 X540 X550 X710 XL710 XXV710 Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information ID de périphérique PCI PCIDeviceID X X X X X X X Non XXXX Non Indique l'ID de périphérique PCI du contrôleur. Prise en charge de l'amorçage PXE PXEBootSupport X X X X X X X Non Disponible/Indisponible Non Indique si la fonction d'amorçage PXE est prise en charge. Contrôle du flux de réception RXFlowControl X X X Non Disponible/Indisponible Non Indique si la fonctionnalité de contrôle du flux de réception (RX) est prise en charge. "Indisponible" est la seule valeur utilisée. Prise en charge TOE TOESupport X X X Non Disponible/Indisponible Non Indique si la fonctionnalité de moteur de délestage TCP/IP (TCP/IP Offload Engine) est prise en charge. Indisponible est la seule valeur utilisée. Contrôle du débit de transmission - Maximum TXBandwidthControlMaximum Non Disponible/Indisponible Non Indique si la fonctionnalité Contrôle du débit de transmission - Maximum est prise en charge. Contrôle du flux de transmission TXFlowControl Non Disponible/Indisponible Non Indique si la fonctionnalité du contrôle du flux de transmission est prise en charge. Indisponible est la seule valeur utilisée. Nom du nœud World Wide (WWNN) WWN Non XX:XX:XX:XX:XX:XX:XX:XX Non Indique l'identifiant de nom de nœud World Wide Fibre Channel pour FCoE. Affecté pendant la fabrication. X X X X X X X X X X* * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. Nom WWN du port WWPN X X X* Non XX:XX:XX:XX:XX:XX:XX:XX Non Indique l'identifiant de nom de port World Wide Fibre Channel pour FCoE. Affecté pendant la fabrication. * Uniquement pris en charge sur les cartes réseau Ethernet Intel® 10G 2P X550-t. Protocole d'amorçage existant LegacyBootProto X X X X X X X Oui Aucun/PXE/iSCSI principal/iSCSI secondaire/*FCoE) Aucun/PXE/iSCSI principal/iSCSI secondaire/*FCoE Non Sélectionne un protocole d'amorçage à utiliser en mode d'amorçage BIOS existant (non UEFI). * L"option FCoE s'affiche uniquement sur les périphériques pris en charge par FCoE ID de réseau local virtuel VLanId X X X X X X X Oui 0-4094 0-4094 Non Spécifie l'ID (balise) à utiliser en mode VLAN PXE. L'ID de VLAN doit être compris entre 0 et 4 094. Le VLAN PXE est désactivé lorsque cette valeur est définie sur 0. Wake On LAN WakeOnLan X X X X X X X Oui Désactivé/Activé/'N/A' Désactivé/Activé/'N/A' Non Active l'alimentation du système via un réseau LAN. Remarque : la configuration de la fonctionnalité Wake on LAN sur le système d'exploitation ne change pas la valeur de ce paramètre, mais change le comportement Wake on LAN dans les états d'alimentation contrôlés par le SE. Vitesse de liaison LnkSpeed X X X X X X X *Oui Négociation Négociation Non Spécifie la vitesse de liaison du port à utiliser lors du démarrage du protocole sélectionné. Nom d'affichage Nom X-UEFI Cartes prises en charge I350 X X520 X X540 X X550 X X710 Fonctions PCI virtuelles publiées NumberVFAdvertised X Fonctions PCI virtuelles publiées NumberVFAdvertised X Nombre de fonctions PCI physiques actuellement autorisées par port NumberPCIFunctionsEnabled X Nombre de fonctions PCI physiques prises en charge NumberPCIFunctionsSupported Partition n XL710 X XXV710 Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées automatique/1000 Mbit/s Full/10 Mbit/s Half/10 Mbit/s Full/100 Mbit/s Half/100 Mbit/s Full automatique/1000 Mbit/s Full/10 Mbit/s Half/10 Mbit/s Full/100 Mbit/s Half/100 Mbit/s Full Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information *L'attribut est modifiable sur les périphériques 1G (I350) uniquement. X Oui I350 : 1-8, X520/X540/X550 : 1-64, X710/XL710/XXV710 : 0-127 I350 : 1-8, X520/X540/X550 : 1-64, X710/XL710/XXV710 : 0-127 VirtualizationMode - SR-IOV Non Indique le nombre de fonctions PCI virtuelles (VF) à publier en mode non NPAR. Les valeurs disponibles varient selon les familles de produits. Sur les périphériques équipés de cartes réseau I350, X520, X540 et X550, la valeur représente le nombre total de VF PCI qui seront partagés entre tous les ports d'un contrôleur donné. Sur tous les autres périphériques, la valeur représente le nombre de VF PCI qui seront dédiés à chaque port. X Oui 0-128 0-128 VirtualizationMode -NPAR+ SR-IOV Non Indique le nombre de fonctions PCI virtuelles (VF) à publier sur ce port en mode NPAR. Cet attribut est présent uniquement dans le navigateur HII. Les fonctions virtuelles en mode NPAR ne peuvent être affectées qu'à la première partition d'un port. Utilisez l'attribut VFDistribution pour la configuration à distance. X X Non 1-8 Non Indique le nombre de fonctions PCI physiques actuellement activées sur ce port. X X X Non 1-8 Non Indique le nombre de fonctions PCI physiques prises en charge sur ce port. Cette valeur peut varier en fonction de la prise en charge et de la configuration de NParEP. PartitionState[Partition:n] X X X Non Activé/Désactivé Non Indique l'état d'activation actuel de la partition. Adresse MAC virtuelle VirtMacAddr[Partition:n] X X X Oui Adresse MAC MacAddr[Partition:n] X X X Non XX:XX:XX:XX:XX:XX Non Indique l'adresse MAC permanente affectée pendant la fabrication. Mode NIC NicMode[Partition:n] X X X Non Désactivé/Activé Non Spécifie l'utilisation de la partition pour le trafic Ethernet L2. Activé est la seule valeur utilisée. ID de périphérique PCI PCIDeviceID[Partition:n] X X X Non XXXX Non Indique l'ID de périphérique PCI de la partition. Numéro de port PortNumber[Partition:n] X X X Non 1-4 Non Indique le port auquel la partition appartient, où n représente le nombre de partitions. Distribution des VF VFDistribution X X X Oui Non Définit la distribution des VF sur les PF dans le domaine spécifié par VFAllocBasis. Une valeur apparaît dans la liste séparée par des deux-points de chaque fonction physique qui XX:XX:XX:XX:XX:XX X:0:0:0:...:0:0 (le nombre de zéros dépend du nombre de partitions actuellement activées sur le port) XX:XX:XX:XX:XX:XX X:0:0:0:...:0:0 (le nombre de zéros dépend du nombre de partitions actuellement activées sur le port) Indique l'adresse MAC pouvant être affectée par programmation pour la partition. VirtualizationMode - NPAR + SR-IOV Nom d'affichage Nom X-UEFI Cartes prises en charge I350 X520 X540 X550 X710 XL710 XXV710 Configurable par l'utilisateur Valeurs configurables par l'utilisateur Valeurs pouvant être affichées Dépendances pour les valeurs Optimisation de l'identité d'E/S (iDRAC 8/9) Information peut être potentiellement présente dans le domaine d'affectation. Les valeurs de gauche à droite dans la liste s'appliquent aux numéros de fonction du plus petit au plus grand dans le domaine. Avertissements Contrat de licence du logiciel CONTRAT DE LICENCE DU LOGICIEL INTEL (licence finale) IMPORTANT - À LIRE AVANT TOUTE TENTATIVE DE COPIE, D’INSTALLATION OU D’UTILISATION. Veuillez ne pas utiliser ou charger ce logiciel et tout programme associé (regroupés sous la désignation "Logiciel") tant que vous n’avez pas lu attentivement les conditions suivantes. En chargeant ou en utilisant le Logiciel, vous acceptez les termes de ce contrat. Si vous êtes en désaccord avec les termes de ce contrat, veuillez ne pas installer ou utiliser le Logiciel. CONTRATS DE LICENCE Veuillez noter : l Si vous êtes un administrateur réseau, reportez-vous à la "Licence de site" ci-dessous. l Si vous êtes un utilisateur final, reportez-vous à la "Licence utilisateur unique" ci-dessous. LICENCE DE SITE. Vous pouvez copier le Logiciel sur les ordinateurs de votre organisation afin que les employés puissent l’utiliser et vous pouvez sauvegarder un nombre raisonnable de copies du Logiciel, conformément à ces conditions : 1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel. L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette licence. 2. Vous n’êtes pas autorisé(e) à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du Logiciel, sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non autorisée du Logiciel. 3. Vous n’êtes pas autorisé(e) à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler. 4. Vous n’êtes pas autorisé(e) à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de l’utiliser simultanément. 5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une licence accompagnant ces portions. LICENCE UTILISATEUR UNIQUE. Vous pouvez copier le Logiciel sur un seul ordinateur pour une utilisation personnelle et non commerciale, et vous pouvez effectuer une copie de sauvegarde du Logiciel, conformément à ces conditions : 1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel. L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette licence. 2. Vous n’êtes pas autorisé(e) à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du Logiciel, sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non autorisée du Logiciel. 3. Vous n’êtes pas autorisé(e) à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler. 4. Vous n’êtes pas autorisé(e) à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de l’utiliser simultanément. 5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une licence accompagnant ces portions. PROPRIÉTÉ DU LOGICIEL ET COPYRIGHT (DROITS D’AUTEUR). Intel ou ses fournisseurs demeurent les propriétaires de toutes les copies du Logiciel. Le logiciel est protégé par la loi sur le copyright, les lois en vigueur aux États-Unis et dans d’autres pays, ainsi que par les dispositions de traités internationaux. Vous n’êtes pas autorisés à retirer la mention de copyright du Logiciel. Intel peut modifier le Logiciel ou des éléments référencés dans ce document, à tout moment et sans préavis, mais n’est pas dans l’obligation de mettre à jour le Logiciel ni d’offrir une assistance. Sauf stipulation expresse contraire, Intel exclut tout droit, explicite ou implicite, vis à vis des brevets, copyrights et marques Intel, et tout autre droit de propriété intellectuelle. Vous pouvez transférer le Logiciel uniquement si le bénéficiaire accepte d’être lié par ces termes et si vous ne conservez aucune copie du Logiciel. GARANTIE LIMITÉE DU SUPPORT. Si le logiciel a été remis par Intel sur un support physique, Intel garantit que celuici est exempt de défauts matériels pendant une période de quatre-vingt-dix jours à compter de la date de livraison par Intel. Si un tel défaut est détecté, renvoyez le support à Intel qui pourra choisir de le remplacer ou d’employer une autre méthode de livraison. EXCLUSION DE TOUTE AUTRE GARANTIE. À L’EXCEPTION DES CAS CI-DESSUS, LE LOGICIEL EST FOURNI "EN L’ÉTAT", SANS GARANTIE EXPRESSE OU IMPLICITE D’AUCUNE SORTE, NOTAMMENT TOUTE GARANTIE DE QUALITÉ MARCHANDE, D’ABSENCE DE CONTREFAÇON OU D’ADÉQUATION À UN USAGE PARTICULIER. Intel ne garantit pas la précision ni l’exhaustivité des informations, des textes, des graphiques, des liens ou d’autres éléments contenus dans le Logiciel et ne peut en être tenu responsable. LIMITATION DE RESPONSABILITÉ. EN AUCUN CAS INTEL OU SES FOURNISSEURS NE POURRONT ÊTRE TENUS POUR RESPONSABLES DE TOUT DOMMAGE, DE QUELQUE NATURE QUE CE SOIT (Y COMPRIS, MAIS DE MANIÈRE NON LIMITATIVE, TOUTE PERTE DE BÉNÉFICES, INTERRUPTION D’ACTIVITÉ OU PERTE D’INFORMATIONS), RÉSULTANT DE L’UTILISATION OU DE L’IMPOSSIBILITÉ D’UTILISER LE LOGICIEL, ET CE MÊME SI INTEL A ÉTÉ PRÉVENU DE L’ÉVENTUALITÉ DE TELS DOMMAGES. CERTAINES JURIDICTIONS N’AUTORISENT PAS L’EXCLUSION OU LA LIMITATION DE RESPONSABILITÉ POUR LES GARANTIES IMPLICITES OU LES DOMMAGES INDIRECTS OU ACCESSOIRES, DE SORTE QUE LA LIMITATION CI-DESSUS PEUT NE PAS VOUS ÊTRE APPLICABLE. VOUS POUVEZ ÉGALEMENT DISPOSER D’AUTRES DROITS QUI VARIENT DE JURIDICTION EN JURIDICTION. RÉSILIATION DE CE CONTRAT. Intel peut résilier ce contrat à tout moment si vous n’en respectez pas les termes. Dans ce cas, vous devez immédiatement détruire le Logiciel et retourner toutes les copies dudit Logiciel à Intel. LOIS APPLICABLES. Toute réclamation établie dans le cadre de ce contrat sera régie par les lois de l’État de Californie (États-Unis), à l’exception de ses principes de conflit des lois et de la convention des Nations Unies sur les contrats pour la vente de biens. Vous n’êtes pas autorisés à exporter le Logiciel en infraction des lois et des régulations d’exportation applicables. Intel n’est contraint par aucun autre contrat à moins que celui-ci ne soit établi par écrit et signé par un représentant habilité d’Intel. LIMITATION DES DROITS DU GOUVERNEMENT. Le Logiciel est fourni avec des "DROITS LIMITÉS". L’utilisation, la duplication ou la diffusion par le gouvernement est soumise à des restrictions comme indiqué dans les clauses FAR52.227-14 et DFAR252.227-7013 et seq. ou son successeur. L’utilisation du Logiciel par le gouvernement constitue la reconnaissance des droits de propriété de Intel mentionnés dans ce document. Le sous-traitant ou le fabricant est Intel. Licences tierces Des parties de cette version peuvent inclure des logiciels distribués sous les licences suivantes. Open Toolkit Library (OpenTK) Licence The Open Toolkit Library Copyright (c) 2006 - 2009 The Open Toolkit library. L'autorisation est accordée gratuitement par les présentes à toute personne obtenant une copie de ce logiciel et des fichiers de documentation associés (le "logiciel") d'utiliser le logiciel sans restriction, y compris, sans limitation, le droit d'utiliser, de copier, de modifier, de fusionner, de publier, de distribuer, d'accorder des sous-licences et/ou de vendre des copies du logiciel, et d'autoriser les personnes à qui le logiciel est fourni à faire de même, sous réserve des conditions suivantes : La mention de copyright ci-dessus et cette notification d'autorisation doivent être incluses dans toutes les copies ou portions substantielles du logiciel. LE LOGICIEL EST FOURNI "EN L'ÉTAT" SANS GARANTIE D'AUCUNE SORTE, EXPLICITE NI IMPLICITE, Y COMPRIS, SANS QUE CE SOIT UNE LIMITATION, LA GARANTIE DE POSSIBILITÉ DE COMMERCIALISATION, D'ADAPTATION À UN OBJECTIF PARTICULIER ET DE NON-VIOLATION. EN AUCUN CAS LES AUTEURS OU DÉTENTEURS DU COPYRIGHT NE POURRONT ÊTRE TENUS POUR RESPONSABLES EN CAS DE PLAINTE, DOMMAGES OU AUTRE RISQUE, QUE CE SOIT LORS D'UNE ACTION CONTRACTUELLE, PRÉJUDICE OU AUTRE, DÉCOULANT DE OU LIÉ AU LOGICIEL OU À SON UTILISATION OU EN RAPPORT AVEC LE LOGICIEL. Tiers * The Open Toolkit Library comprend des parties de la bibliothèque de classes Mono, qui sont couvertes par la licence ci-après : Copyright (c) 2004 Novell, Inc. L'autorisation est accordée gratuitement par les présentes à toute personne obtenant une copie de ce logiciel et des fichiers de documentation associés (le "logiciel") d'utiliser le logiciel sans restriction, y compris, sans limitation, le droit d'utiliser, de copier, de modifier, de fusionner, de publier, de distribuer, d'accorder des sous-licences et/ou de vendre des copies du logiciel, et d'autoriser les personnes à qui le logiciel est fourni à faire de même, sous réserve des conditions suivantes : La mention de copyright ci-dessus et cette notification d'autorisation doivent être incluses dans toutes les copies ou portions substantielles du logiciel. LE LOGICIEL EST FOURNI "EN L'ÉTAT" SANS GARANTIE D'AUCUNE SORTE, EXPLICITE NI IMPLICITE, Y COMPRIS, SANS QUE CE SOIT UNE LIMITATION, LA GARANTIE DE POSSIBILITÉ DE COMMERCIALISATION, D'ADAPTATION À UN OBJECTIF PARTICULIER ET DE NON-VIOLATION. EN AUCUN CAS LES AUTEURS OU DÉTENTEURS DU COPYRIGHT NE POURRONT ÊTRE TENUS POUR RESPONSABLES EN CAS DE PLAINTE, DOMMAGES OU AUTRE RISQUE, QUE CE SOIT LORS D'UNE ACTION CONTRACTUELLE, PRÉJUDICE OU AUTRE, DÉCOULANT DE OU LIÉ AU LOGICIEL OU À SON UTILISATION OU EN RAPPORT AVEC LE LOGICIEL. * Les conversions Half-to-Single et Single-to-Half sont couvertes par la licence suivante : Copyright (c) 2002, Industrial Light & Magic, une division de Lucas Digital Ltd. LLC. Tous droits réservés. La redistribution et l'utilisation sous forme de code source ou sous forme binaire, avant ou sans modification, sont autorisées sous réserve que les conditions suivantes soient remplies : l La redistribution du code source doit conserver la mention de copyright ci-dessus, cette liste de conditions et l'exclusion de responsabilité qui suit. l La redistribution sous forme binaire doit reproduire dans la documentation et/ou les autres documents fournis avec la distribution la mention de copyright ci-dessus, cette liste de conditions et l'exclusion de responsabilité qui suit. l Ni le nom de Industrial Light & Magic, ni celui de ses contributeurs ne peut être utilisé pour soutenir ou promouvoir les produits dérivés de ce logiciel sans une autorisation écrite spécifique préalable. CE LOGICIEL EST FOURNI "EN L'ÉTAT" PAR LES DÉTENTEURS DU COPYRIGHT ET LES CONTRIBUTEURS, ET TOUTE GARANTIE EXPRESSE OU IMPLICITE Y COMPRIS, SANS LIMITATION, LA GARANTIE IMPLICITE DE POSSIBILITÉ DE COMMERCIALISATION ET D'ADAPTATION À UN OBJECTIF PARTICULIER, EST EXCLUE. EN AUCUN CAS LE DÉTENTEUR DU COPYRIGHT OU SES CONTRIBUTEURS NE POURRONT ÊTRE TENUS POUR RESPONSABLES DE QUELQUE DOMMAGE DIRECT, INDIRECT, INCIDENT, SPÉCIAL, EXEMPLAIRE OU CONSÉCUTIF (Y COMPRIS, SANS LIMITATION, L'APPROVISIONNEMENT EN MARCHANDISES OU SERVICES DE SUBSTITUTION ; LA PERTE D'UTILISATION, DE DONNÉES OU DE PROFITS ; OU L'INTERRUPTION D'ACTIVITÉ) QUELLE QU'EN SOIT LA CAUSE ET DANS LE CADRE DE QUELQUE THÉORIE DE RESPONSABILITÉ QUE CE SOIT, PAR CONTRAT, RESPONSABILITÉ STRICTE OU DÉPENDS (Y COMPRIS LA NÉGLIGENCE OU DES CONCEPTS SIMILAIRES) DÉCOULANT, DE QUELQUE MANIÈRE QUE CE SOIT, DE L'UTILISATION DE CE LOGICIEL, MÊME EN CAS D'AVERTISSEMENT RELATIF À LA POSSIBILITÉ DE TEL DOMMAGE. RSA Data Security-MD5 Message RSA Data Security Copyright (C) 1991-2, RSA Data Security, Inc. Créé en 1991. Tous droits réservés. Une licence permettant la copie et l'utilisation de ce logiciel est accordée sous condition d'identification par le libellé "RSA Data Security, Inc. MD5 Message-Digest Algorithm" dans tous les documents mentionnant ou faisant référence à ce logiciel ou cette fonction. La licence permet également de créer et d'utiliser des œuvres dérivées à condition que ces œuvres soient identifiées comme "dérivées de RSA Data Security, Inc. MD5 Message-Digest Algorithm" dans tous les documents mentionnant les œuvres dérivées ou y faisant référence. RSA Data Security, Inc. ne fait aucune garantie quant à la qualité marchande de ce logiciel ou son adéquation à un usage particulier. Le logiciel est fourni "tel quel", sans garantie expresse ou implicite d'aucune sorte. Ces avis doivent être conservés dans toutes les copies de toute partie de ce document et/ou du logiciel. Restrictions et clauses exonératoires de responsabilité Les informations contenues dans ce document pourront faire l’objet de modifications sans préavis. Copyright © 2008-2018, Intel Corporation. Tous droits réservés. Marques commerciales utilisées dans ce document : Dell EMC et le logo Dell EMC sont des marques commerciales de Dell Inc. Intel est une marque déposée d'Intel Corporation ou de ses filiales aux États-Unis et/ou dans d'autres pays. * Les autres marques et noms de produit utilisés dans ce document font référence aux entités revendiquant les marques et les noms de leurs produits. Intel renonce à tout intérêt propriétaire dans les marques et noms de produits qui ne lui appartiennent pas. Restrictions et clauses exonératoires de responsabilité Les informations contenues dans le présent document, y compris l’ensemble des instructions, avertissements ainsi que les approbations et les homologations de réglementation, ont été soumises par le fournisseur et n’ont été ni vérifiées ni testées de façon indépendante par Dell. Dell EMC ne pourrait être tenu pour responsable des dommages causés suite au respect ou au non-respect de ces instructions. Toutes les déclarations ou revendications relatives aux propriétés, capacités, vitesses ou qualifications du dispositif mentionné dans le présent document sont communiquées par le revendeur et non pas par Dell EMC. Dell EMC n'est pas en mesure de certifier l'exactitude de ces déclarations, d'en garantir l'exhaustivité ou de les justifier. Veuillez vous adresser à votre fournisseur pour toute question relative à ces déclarations. Contrôle des exportations Le client reconnaît que ces produits, qui peuvent inclure des technologies ou des logiciels, sont sujets aux lois et réglementations relatives aux douanes et à l’exportation des États-Unis et peuvent également être sujets aux lois et réglementations relatives aux douanes et à l’exportation du pays dans lequel les produits sont fabriqués et/ou reçus. Le client accepte de respecter ces lois et réglementations. En vertu de la loi des États-Unis, les produits ne peuvent être vendus, loués ou cédés de quelque manière que ce soit à des utilisateurs finaux ou des pays faisant l'objet de restrictions. De plus, les produits ne peuvent être vendus, loués, transférés ou utilisés par un utilisateur engagé dans des activités liées aux armes de destruction massive, y compris mais sans s’y limiter, les activités liées à la conception, au développement, à la production ou à l’utilisation d’armes, de matériaux, ou de bâtiments nucléaires, de missiles, de projets liés aux missiles, ou d’armes chimiques ou biologiques. 9 mars 2018