Dell Intel PRO Family of Adapters Manuel du propriétaire

Ajouter à Mes manuels
172 Des pages
Dell Intel PRO Family of Adapters Manuel du propriétaire | Fixfr
Guide d’utilisation des cartes réseau Intel®
Restrictions et clauses exonératoires de responsabilité
Les informations sur Intel® Boot Agent, Intel® Ethernet iSCSI Boot, Intel® FCoE/DCB se trouvent dans le guide
Remote Boot and Remote Storage for Ethernet Intel® Adapters and Devices (Démarrage à distance et stockage à
distance pour les cartes et périphériques Ethernet Intel®).
Les informations contenues dans ce document pourront faire l’objet de modifications sans préavis.
Copyright © 2008-2016, Intel Corporation. Tous droits réservés.
Marques commerciales utilisées dans ce texte : Dell et le logo DELL sont des marques commerciales de la société
Dell. Intel est une marque commerciale d’Intel Corporation, déposées aux États-Unis et dans d’autres pays.
* Les autres marques et noms de produit utilisés dans ce document font référence aux entités revendiquant les
marques et les noms de leurs produits. Intel renonce à tout intérêt propriétaire dans les marques et noms de produits
qui ne lui appartiennent pas.
Restrictions et clauses exonératoires de responsabilité
Les informations contenues dans le présent document, y compris l’ensemble des instructions, avertissements ainsi
que les approbations et les homologations de réglementation, ont été soumises par le fournisseur et n’ont été ni
vérifiées ni testées de façon indépendante par Dell. Dell décline toute responsabilité en cas de dommage résultant du
respect ou du non-respect de ces instructions.
Toutes les déclarations ou revendications relatives aux propriétés, capacités, vitesses ou qualifications du dispositif
mentionné dans le présent document sont communiquées par le revendeur et non pas par Dell. Dell n’est pas en
mesure de certifier l’exactitude de ces déclarations, d’en garantir l’exhaustivité ou de les justifier. Veuillez vous
adresser à votre fournisseur pour toute question relative à ces déclarations.
Contrôle des exportations
Le client reconnaît que ces produits, qui peuvent inclure des technologies ou des logiciels, sont sujets aux lois et
réglementations relatives aux douanes et à l’exportation des États-Unis et peuvent également être sujets aux lois et
réglementations relatives aux douanes et à l’exportation du pays dans lequel les produits sont fabriqués et/ou reçus.
Le client accepte de respecter ces lois et réglementations. En vertu de la loi des États-Unis, les produits ne peuvent
être vendus, loués ou cédés de quelque manière que ce soit à des utilisateurs finaux ou des pays faisant l'objet de
restrictions. De plus, les produits ne peuvent être vendus, loués, transférés ou utilisés par un utilisateur engagé dans
des activités liées aux armes de destruction massive, y compris mais sans s’y limiter, les activités liées à la conception,
au développement, à la production ou à l’utilisation d’armes, de matériaux, ou de bâtiments nucléaires, de missiles, de
projets liés aux missiles, ou d’armes chimiques ou biologiques.
14 mars 2016
Présentation
Bienvenue sur le Guide de l'utilisateur des cartes et périphériques Ethernet Intel®. Ce guide couvre l'installation du
matériel et du logiciel, les procédures de configuration et contient des conseils de dépannage pour les cartes réseau
Intel®, les connexions et d'autres périphériques.
Cartes réseau 40 Gigabit prises en charge
l
l
Carte Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Carte réseau convergent Ethernet Intel® XL710-Q2
REMARQUE : le débit total pris en charge par la carte réseau Intel® XL710 est de 40 Gbit/s, même lorsqu'elle
est associée à deux connexions de 40 Gbit/s.
Cartes réseau 10 Gigabit prises en charge
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte réseau Ethernet Intel® 10G 2P X520
Carte Ethernet Intel® 10G X520 LOM
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Carte Ethernet Intel® 10G 2P X520-k bNDC
Carte Ethernet Intel® 10G 4P X710-k bNDC
Carte Ethernet Intel® 10G 2P X710-k bNDC
Carte Ethernet Intel® 10G X710-k bNDC
Carte réseau convergent Intel® X710
Carte Ethernet Intel® 10G 4P X710/l350 rNDC
Carte Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte Ethernet Intel® 10G X710 rNDC
REMARQUE : Le premier port d'une carte réseau X710 affiche la chaîne de marquage correcte. Tous les autres
ports du même périphérique affichent une chaîne de marquage générique.
Cartes réseau Gigabit et périphériques pris en charge
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350 bNDC
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350-t bNDC
Fond de panier Connexion Ethernet Intel® I354 1.0 GbE
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Installation de la carte réseau
Si vous installez une carte réseau, commencez à l’étape 1.
Si vous mettez à niveau le logiciel pilote, commencez à l'étape 4.
1. Consultez la section Configuration minimale requise.
2. Insérez la carte PCI Express, la carte mezzanine ou la carte fille réseau dans votre serveur.
3. Connectez soigneusement le ou les câbles réseau en cuivre, le ou les câbles réseau à fibre optique ou les
câbles directs.
4. Installation des pilotes réseau et d'autres logiciels
l Instructions sous Windows
l Instructions sous Linux
5. Test de la carte réseau.
Configuration minimale requise
Compatibilité matérielle
Avant d’installer la carte, vérifiez que le système satisfait à la configuration minimale suivante :
l Base IA-64 (compatible x86 64 bits)
l Un emplacement PCI Express* ouvert (voir les spécifications de votre carte pour connaître la compatibilité des
emplacements)
l Dernière version du BIOS de votre système
Systèmes d’exploitation pris en charge
Les logiciels et pilotes sont pris en charge sur les systèmes d’exploitation 64 bits suivants :
l Microsoft* Windows Server* 2012 R2
l Microsoft Windows Server 2012
l Microsoft Windows Server 2008 R2
l Microsoft Windows* 10
l Microsoft Windows* 8.1
l Microsoft Windows* 7
l
VMWare* ESXi* 6.0 U2
l
VMWare ESXi 5.5 U3
Red Hat* Enterprise Linux* (RHEL) 7.2
RHEL 7,1
RHEL 6,7
Novell* SUSE* Linux Enterprise Server (SLES) 12 SP1
SLES 11 SP4
l
l
l
l
l
Spécifications des câbles
Cartes réseau Intel Gigabit
l
l
1000BASE-SX sur fibre optique de 850 nanomètres :
l Fibre multimode de 50 microns : longueur maximale égale à 550 mètres.
l Fibre multimode de 62,5 microns : longueur maximale égale à 275 mètres.
1000BASE-T ou 100BASE-TX avec câble en cuivre à 4 paires torsadées de catégorie 5 ou 5e :
l Veillez à utiliser des câbles de catégorie 5 conformes aux spécifications de câblage de la norme TIA568. Pour obtenir de plus amples informations sur ces spécifications, visitez le site Web de l’association
Telecommunications Industry Association : www.tiaonline.org.
l La longueur maximale est de 100 mètres.
l Le câblage de catégorie 3 ne fonctionne qu’à 10 Mbit/s.
Cartes réseau Intel 10 Gigabit
l
l
l
10GBASE-SR/LC sur fibre optique de 850 nanomètres :
l Fibre multimode de 50 microns : longueur maximale égale à 300 mètres.
l Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres.
10GBASE-T sur les câblages cuivre à 4 paires torsadées de catégories 6, 6a ou 7 :
l La longueur maximum est de 55 mètres pour la catégorie 6.
l La longueur maximum est de 100 mètres pour la catégorie 6a.
l La longueur maximum est de 100 mètres pour la catégorie 7.
10 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l La longueur maximale est de 10 mètres.
Cartes Intel 40 Gigabit
l
l
40GBASE-SR/LC sur fibre optique de 850 nanomètres :
l Fibre multimode de 50 microns : longueur maximale égale à 300 mètres.
l Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres.
40 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l La longueur maximale est de 7 mètres.
Mises à jour du système d’exploitation (SE)
Certaines fonctionnalités requièrent des versions particulières d’un système d’exploitation. Pour plus d’informations,
consultez les sections relatives à ces fonctionnalités. Vous pouvez télécharger les corrections des logiciels
nécessaires depuis les sites d’assistance suivants :
l Service Packs de Microsoft Windows Server : support.microsoft.com
l Red Hat Linux : www.redhat.com
l SUSE Linux : http://www.novell.com/linux/suse/
l ESX : http://www.vmware.com/
Adresses MAC Ethernet
Cartes à port unique
L'adresse MAC doit être indiquée sur la carte au moyen d'une étiquette.
Cartes multiports
Les cartes multiports comportent plusieurs adresses MAC. L'adresse du premier port (Port A ou 1) est imprimée sur
une étiquette située sur la carte.
Guide d’installation rapide des cartes réseau Intel®
Installer la carte Intel PCI Express
1. Mettez l’ordinateur hors tension et débranchez le cordon d’alimentation.
2. Retirez le panneau de l’ordinateur et le panneau du connecteur de carte correspondant à votre carte.
3. Insérez le connecteur au bord de la carte dans le connecteur PCI Express, et attachez solidement le support
sur le châssis.
4. Replacez le couvercle de l’ordinateur et branchez le cordon d’alimentation.
REMARQUE : pour savoir comment identifier les connecteurs PCI Express qui accueillent vos cartes réseau,
reportez-vous au guide de votre système Dell.
Brancher le câble réseau
1. Brancher le connecteur réseau.
2. Branchez l’autre extrémité du câble au partenaire de liaison compatible.
3. Démarrez votre ordinateur et suivez les instructions d’installation de votre système d’exploitation.
Installer les pilotes
Systèmes d’exploitation Windows*
Vous devez disposer des droits d’administration sur le système d’exploitation pour installer les pilotes.
1.
2.
3.
4.
Installez la carte dans l’ordinateur et démarrez-le.
Téléchargez le dernier Dell Update Package (DUP) sur le site de l'Assistance client.
Exécutez le fichier DUP et cliquez sur le bouton Install (Installer).
Suivez les instructions affichées à l’écran.
Linux*
Il existe trois méthodes d’installation des pilotes Linux :
l Installation à partir du code source
l Installation à partir d'un fichier KMOD
l Installer à l’aide de KMP RPM
Reportez-vous à la section Linux de ce guide pour des informations plus spécifiques.
Autres systèmes d’exploitation
Pour installer d’autres pilotes, consultez le site Web d’assistance à la clientèle : http://www.support.dell.com.
Installation de la carte réseau
Insérer la carte PCI Express dans le serveur
REMARQUE : en cas de remplacement d’une carte existante par une nouvelle carte, vous devez réinstaller le
pilote.
1. Mettez le serveur hors tension et débranchez le cordon d’alimentation avant d’enlever le capot.
ATTENTION : mettez le serveur hors tension et débranchez-le avant d’enlever le capot. Tout
manquement à cette consigne peut entraîner des blessures et endommager la carte ou le
serveur.
2. Retirez le support du couvercle d'un emplacement PCI Express.
REMARQUE : certains systèmes possèdent des connecteurs PCI Express x8 physiques qui prennent en
charge uniquement des vitesses qui sont en fait inférieures. Consultez le manuel de votre système pour
identifier le connecteur.
3. Insérez la carte dans un emplacement PCI Express compatible (voir les spécifications de votre carte). Appuyez
sur la carte jusqu’à ce qu’elle soit correctement insérée dans son emplacement.
Vous pouvez installer une petite carte PCI Express dans un emplacement PCI Express plus grand.
ATTENTION : certaines cartes PCI Express peuvent être dotées d’un connecteur court ce qui les
rend plus fragiles que les cartes PCI. Une force excessive pourrait endommager le connecteur.
Insérez la carte dans l’emplacement en appuyant doucement.
4. Répétez les étapes 2 et 3 pour chacune des cartes réseau à installer.
5. Replacez le capot du serveur et branchez le cordon d’alimentation.
6. Mettez l’ordinateur sous tension.
Connexion du câble réseau
Branchez le câble réseau approprié, comme décrit dans les sections suivantes.
Connecter le câble réseau UTP
Insérez le câble réseau RJ-45 à paires torsadées, comme indiqué ci-dessous.
Carte à port unique
Carte à 2 ports
Carte à 4 ports
Type de câblage à utiliser :
l 10GBASE-T sur les câblages cuivre à 4 paires torsadées de catégories 6, 6a ou 7 :
l La longueur maximum est de 55 mètres pour la catégorie 6.
l La longueur maximum est de 100 mètres pour la catégorie 6a.
l La longueur maximum est de 100 mètres pour la catégorie 7.
REMARQUE : pour la carte réseau Intel® 10 Gigabit AT pour serveurs, en vue d’assurer la conformité
avec les normes CISPR 24 et EN55024 (Union européenne), ce produit doit être utilisé uniquement
avec des câbles blindés de catégorie 6a dotés de terminaisons correctes d’après les recommandations
de la norme EN50174-2.
l
Pour 1000BASE-T ou 100BASE-TX, utilisez un câble cuivre à 4 paires torsadées de catégories 5 ou 5e :
l Veillez à utiliser des câbles de catégorie 5 conformes aux spécifications de câblage de la norme TIA568. Pour obtenir de plus amples informations sur ces spécifications, visitez le site Web de l’association
Telecommunications Industry Association : www.tiaonline.org.
l La longueur maximale est de 100 mètres.
l Le câblage de catégorie 3 ne fonctionne qu’à 10 Mbit/s.
ATTENTION : en cas d’utilisation d’un câble de moins de quatre paires, vous devez configurer
manuellement la vitesse et le duplex de la carte et le partenaire de liaison. De plus, avec des
câbles à deux et trois paires, la carte ne peut qu’opérer à des vitesses allant jusqu’à 100 Mbit/s.
l
l
l
Avec 100BASE-TX, utilisez un câble de catégorie 5.
Avec 10Base-T, utilisez un câble de catégorie 3 ou 5.
Si vous souhaitez utiliser cette carte dans un environnement résidentiel (quelle que soit la vitesse), utilisez un
câble de catégorie 5. Si le câble passe entre des pièces ou à travers des murs ou des plafonds, il doit être
ignifuge pour assurer la protection contre les incendies.
Dans tous les cas :
l La carte doit être connectée à un partenaire de liaison compatible et configurée de préférence pour négocier
automatiquement la vitesse et le mode duplex pour les cartes Intel Gigabit.
l Les cartes réseau Intel Gigabit et 10 Gigabit pour serveurs utilisant des connexions en cuivre acceptent
automatiquement les connexions MDI ou MDI-X. La fonctionnalité MDI-X automatique des cartes réseau Intel
Gigabit à connexions en cuivre permet la connexion directe de deux cartes sans faire appel à un câble de
jonction.
Connexion du câble réseau en fibre optique
ATTENTION : les ports fibre optique utilisent un appareil laser de la classe 1. Quand ils ne sont pas
utilisés, couvrez-les toujours avec le capuchon. En cas de panne anormale, vous risquez de subir des
lésions cutanées ou oculaires si vous vous trouvez à proximité des ports exposés.
Retirez le panneau du connecteur à fibre optique et mettez-le sur le côté. Insérez un câble fibre optique dans les ports
du support de la carte réseau, tel qu’illustré ci-dessous.
La plupart des connecteurs et des ports sont marqués pour faciliter leur orientation. Si le câble que vous utilisez n’est
pas marqué, veillez à l’orienter correctement (port de transmission connecté au port de réception du partenaire de
liaison et vice versa).
La carte réseau doit être connectée à un partenaire de liaison compatible ou à un commutateur Gigabit compatible
IEEE 802.3z fonctionnant sur la même longueur d’onde laser que la carte.
Les câbles de conversion pour d’autres types de connecteur (p. ex., un connecteur SC à LC) peuvent être utilisés si le
câblage est conforme aux spécifications optiques de la carte, y compris les limites de longueur.
Insérez le câble à fibre optique comme indiqué ci-dessous.
Exigences de connexion
l
l
l
40GBASE-SR4/MPO sur fibre optique de 850 nanomètres :
l OM3 de 50/125 microns : longueur maximale égale 100 mètres.
l OM4 de 50/125 microns : longueur maximale égale 150 mètres.
10GBASE-SR/LC sur fibre optique de 850 nanomètres :
l Fibre multimode de 50 microns : longueur maximale égale à 300 mètres.
l Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres.
1000BASE-SX/LC sur fibre optique de 850 nanomètres :
l Fibre multimode de 50 microns : longueur maximale égale à 550 mètres.
l Fibre multimode de 62,5 microns : longueur maximale égale à 275 mètres.
Périphériques SFP+ avec câble optique enfichable
Les cartes réseau serveur Ethernet Intel® prennent en charge uniquement les câbles en fibre optique Intel® et/ou les
câbles de branchement direct à limitation active et passive conformes aux spécifications SFF-8431 v4.1 et SFF-8472
v10.4. Lorsque les périphériques SFP+ avec contrôleur 82599 sont branchés dos à dos, ils doivent être réglés sur le
même paramètre de vitesse avec Intel® PROSet pour Windows ou ethtool. Si vous attribuez des paramètres de vitesse
différents, les résultats peuvent varier.
Fabricant Type
Références
Dell
SFP+ SR 1G/10G double débit (avec étrier)
R8H2F, Y3KJN,
3G84K
Dell
TRIPLE RATE 1 G/10 G/40 G QSFP+ SR (avec étrier) (1 G non pris en charge sur
les cartes XL710)
TCPM2, 27GG5,
P8T4W
LA LISTE DES MODULES ET CÂBLES OPTIQUES DE FABRICANTS TIERS CI-DESSUS N’EST FOURNIE QUE POUR INDIQUER LEURS
CARACTÉRISTIQUES ET LEUR COMPATIBILITÉ POTENTIELLE. ELLE NE CONSTITUE NI UNE RECOMMANDATION, NI UN AVAL, NI UN
PARRAINAGE DE PRODUITS TIERS PAR INTEL. INTEL N’AVALISE NI NE PROMEUT LES PRODUITS FABRIQUÉS PAR DES TIERS ET LA
RÉFÉRENCE À CES DERNIERS N’EST PROPOSÉE QU’À TITRE D’INFORMATION SUR CERTAINS MODULES ET CÂBLES OPTIQUES AUX
CARACTÉRISTIQUES CI-DESSUS. IL PEUT AINSI EXISTER D’AUTRES FABRICANTS OU FOURNISSEURS QUI FABRIQUENT OU
PROPOSENT DES MODULES ET CÂBLES OPTIQUES AUX CARACTÉRISTIQUES SIMILAIRES OU CORRESPONDANT AUX
DESCRIPTIONS. LES CLIENTS DOIVENT DONC EXERCER LEUR PROPRE JUGEMENT POUR L’ACHAT DE MODULES OU DE CÂBLES DE
TIERS DE LEUR CHOIX. C’EST AINSI AUX CLIENTS UNIQUEMENT QU’IL INCOMBE DE DÉTERMINER SI LE PRODUIT ET/OU LE
PÉRIPHÉRIQUE CONVIENT AINSI QUE D’EN CHOISIR LE FABRICANT. LES MODULES ET CÂBLES OPTIQUES AUXQUELS IL EST FAIT
RÉFÉRENCE CI-DESSUS N’ENTRENT PAS DANS LA GARANTIE D’INTEL NI DANS SES CONDITIONS DE SÀV. INTEL REJETTE AINSI
TOUTE RESPONSABILITÉ AINSI QUE TOUTE GARANTIE EXPRESSE OU IMPLICITE RELATIVE À LA VENTE ET/OU À L’UTILISATION DE
CES PRODUITS DE TIERS OU AUX CHOIX EFFECTUÉ PAR LES CLIENTS.
Connexion du câble réseau Direct Attach Twinaxial
Insérez le câble réseau twinax comme indiqué ci-dessous.
Type de câblage :
l 40 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l La longueur maximale est de 7 mètres.
l
10 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l La longueur maximale est de 10 mètres.
Installation d'une carte mezzanine dans le serveur-lame
Consultez la documentation de votre serveur pour obtenir des instructions détaillées sur l'installation d'une carte
mezzanine.
1. Arrêtez le serveur-lame et retirez-le du châssis, puis enlevez le couvercle.
ATTENTION : le serveur-lame doit être arrêté. Autrement, vous vous mettez en danger et risquez
d’endommager la carte ou le serveur.
2. Levez le levier de verrouillage et insérez la carte dans un logement disponible compatible avec les cartes
mezzanine. Poussez la carte dans le logement jusqu’à ce qu’elle soit fermement enfoncée.
REMARQUE : un commutateur ou un module de connexion directe doit être présent sur la même
matrice que la carte dans le châssis afin de fournir une connexion physique. Par exemple, si la carte
mezzanine est insérée dans la matrice B, un commutateur doit également être présent dans la matrice B
du châssis.
3.
4.
5.
6.
Répétez l’étape 2 pour chaque carte que vous souhaitez installer.
Abaissez le levier de verrouillage jusqu’à ce qu’il s’enclenche en position sur la ou les cartes.
Replacez le couvercle du serveur-lame et remettez la lame dans le châssis du serveur.
Mettez l’ordinateur sous tension.
Installation d'une carte fille réseau dans un serveur
Consultez la documentation de votre serveur pour obtenir des instructions détaillées sur la manière d'installer une
carte bNDC ou rNDC.
1. Mettez le serveur hors tension et retirez son capot.
ATTENTION : le serveur doit être arrêté. Autrement, vous vous mettez en danger et risquez
d'endommager la carte ou le serveur.
2. Repérez le connecteur de la carte fille réseau de votre serveur. Consultez la documentation de votre serveur
pour obtenir davantage de détails.
3. Encastrez la carte fille réseau dans le connecteur.
4. Resserrez les vis de la carte fille réseau pour la maintenir en place.
5. Remplacez le capot du serveur.
Mise en place
Installation des pilotes de réseau Windows
Avant de commencer
Pour installer les pilotes et le logiciel correctement, vous devez disposer de droits d’administrateur sur l’ordinateur.
Téléchargez le dernier Dell Update Package sur le site de l'Assistance client.
Utilisation du Dell Update Package (DUP)
Le Dell Update Package (DUP) est un package exécutable qui procèdera à la mise à jour des pilotes réseau sur votre
système.
REMARQUES :
l Si vous installez un pilote sur un ordinateur équipé de cartes Intel, veillez à mettre à jour toutes les
cartes et tous les ports à l’aide des mêmes pilotes et du même logiciel Intel® PROSet pour assurer un
fonctionnement correct de toutes les cartes.
l Si le démarrage Fibre Channel over Ethernet (FCoE) est activé sur un équipement du système, vous ne
serez pas en mesure de mettre à niveau vos pilotes. Vous devez désactiver le lancement automatique
du FCoE avant de mettre à niveau les pilotes Ethernet.
Syntaxe
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe [/<option1>[=<value1>]] [/<option2>[=<value2>]]...
Descriptif des options de ligne de commande
Aucune
Si vous ne spécifiez aucune option de ligne de commande, le package vous guidera tout au long
du processus d'installation.
/? ou /h
Affiche les informations d'utilisation du Dell Update Package.
/s
Supprime toutes les interfaces utilisateur graphiques du Dell Update Package.
/i
Lance une nouvelle installation des pilotes inclus dans le Dell Update Package.
REMARQUE : l'option /s est requise
/e=<chemin
d'accès>
Extrait la totalité du Dell Update Package vers le dossier défini sous <chemin d'accès>.
REMARQUE : l'option /s est requise
/drivers=<chemin Extrait uniquement les composants de pilote du Dell Update Package vers le dossier défini sous
d'accès>
<chemin d'accès>.
REMARQUE : l'option /s est requise
/driveronly
Installe ou met à jour uniquement les composants de pilote du Dell Update Package.
REMARQUE : l'option /s est requise
/passthrough
(Avancé) Envoie directement le texte suivant l'option /passthrough vers le logiciel d'installation
fournisseur du Dell Update Package. Ce mode supprime toutes les interfaces utilisateur
graphiques éventuellement fournies, sans inclure nécessairement celles du logiciel fournisseur.
/capabilities
(Avancé) Renvoie une description codée des fonctionnalités du Dell Update Package prises en
charge.
REMARQUE : l'option /s est requise
/l=<chemin
d'accès>
Définit un chemin d'accès spécifique pour le fichier journal du Dell Update Package.
/f
Remplace une légère erreur de dépendance renvoyée par le Dell Update Package.
REMARQUE : cette option NE peut PAS être utilisée simultanément avec les options
/passthrough ou /capabilities
REMARQUE : l'option /s est requise et cette option NE peut PAS être utilisée
simultanément avec les options /passthrough ou /capabilities
Exemples
Mise à jour du système en mode silencieux
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s
Nouvelle installation en mode silencieux
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /i
Extractions des contenus de la mise à jour vers le dossier C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /e=C:\mydir
Extraction des composants de pilote vers le dossier C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /drivers=C:\mydir
Installation des composants de pilote uniquement
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /driveronly
Remplacement de l'emplacement du fichier journal par défaut par C:\mon chemin
d'accès avec espaces\log.txt
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /l="C:\mon chemin d'accès avec espaces\log.txt"
Mise à jour forcée, même en cas d'erreurs de qualification « mineures »
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /f
Rétrogradation des pilotes
Vous pouvez utiliser les options /s et /f pour rétrograder vos pilotes. Par exemple, si les pilotes 17.0.0 sont chargés que
vous souhaitez les rétrograder vers 16.5.0, tapez ce qui suit :
Network_Driver_XXXXX_WN64_16.5.0_A00.exe /s /f
Installation par ligne de commande pour les pilotes de base et
Intel® PROSet
Installation du pilote
L'utilitaire d'installation de pilote setup64.exe permet une installation sans assistance des pilotes de base à partir d'une
ligne de commande.
Cet utilitaire peut être utilisé pour installer le pilote de base, le pilote intermédiaire et toutes les applications de gestion
pour les périphériques pris en charge.
Options de ligne de commande de setup64.exe
La définition des paramètres sur la ligne de commande permet d’activer et de désactiver les applications de gestion. Si
un paramètre n’est pas spécifié, seuls les composants existants sont mis à jour.
Setup64.exe prend en charge les paramètres de ligne de commande suivants :
Paramètre Définition
BD
Pilote de base
"0", ne pas installer le pilote de base.
"1", installer le pilote de base (par défaut).
ANS
Services réseaux avancés
"0", ne pas installer ANS (par défaut). Si ANS est déjà installé, il sera désinstallé.
"1", installer ANS. La propriété ANS nécessite DMIX=1.
REMARQUE : si le paramètre ANS est défini sur ANS=1, Intel® PROSet et ANS seront tous les
deux installés.
DMIX
PROSet pour le Gestionnaire de périphériques Windows
"0", ne pas installer la fonctionnalité Intel® PROSet (par défaut). Si la fonctionnalité Intel® PROSet est
déjà installée, elle sera désinstallée.
"1" - Installer la fonctionnalité Intel® PROSet. La propriété DMIX nécessite BD=1.
REMARQUE : si DMIX=0, ANS ne sera pas installé. Si DMIX=0 et Intel® PROSet, ANS et FCoE
sont déjà installés, Intel® PROSet, ANS et FCoE seront désinstallés.
SNMP
Agent SNMP Intel
"0", ne pas installer SNMP (par défaut). Si SNMP est déjà installé, il sera désinstallé.
"1", installer SNMP. La propriété SNMP nécessite BD=1.
REMARQUE : bien que la valeur par défaut du paramètre SNMP soit 1 (installer), l’agent SNMP
sera installé uniquement si les conditions suivantes sont remplies :
l L’agent SNMP Intel est déjà installé. Dans ce cas, l’agent SNMP sera mis à jour.
l Le service SNMP de Windows est installé. Dans ce cas, la fenêtre SNMP s’ouvre et vous
pouvez annuler l’installation si vous ne souhaitez pas l’installer.
FCOE
Fibre Channel over Ethernet
"0", ne pas installer FCoE (par défaut). Si FCoE est déjà installé, il sera désinstallé.
"1", installer FCoE. La propriété FCoE nécessite DMIX=1.
REMARQUE : même si le paramètre FCoE=1 est transmis, FCoE ne sera pas installé si le
système d’exploitation et les adaptateurs installés ne prennent pas en charge FCoE.
iSCSI
iSCSI
"0", ne pas installer iSCSI (par défaut). Si iSCSI est déjà installé, il sera désinstallé.
"1", installer FCoE. La propriété iSCSI nécessite DMIX=1.
LOG
[nom du fichier journal]
LOG vous permet d’entrer le nom de fichier du fichier journal de l’installation. Le nom par défaut est
C:\UmbInst.log.
XML
[nom du fichier XML]
XML vous permet d’entrer le nom de fichier de sortie XML.
-a
Extraire les composants nécessaires à l'installation du pilote de base sur C:\Program
Files\Intel\Drivers. Le répertoire vers lequel ces fichiers seront extraits peut être modifié, à moins
Paramètre Définition
que le mode silencieux (/qn) ne soit spécifié. Si ce paramètre est spécifié, le programme d'installation
se ferme une fois que le pilote de base est extrait. Tout autre paramètre sera ignoré.
-f
Force une rétrogradation des composants dont l’installation est en cours.
REMARQUE : si la version installée est plus récente que la version actuelle, ce paramètre doit
être défini.
-v
Affiche la version du paquetage d’installation actuel.
/q[r|n]
/q --- options d’installation en mode silencieux
/l[i|w|e|a]
-u
r
Installation discrète de l’interface graphique utilisateur (affiche les messages d’avertissement
critiques uniquement)
n
Installation en mode silencieux
/l --- option de fichier journal pour l’installation de DMIX et de SNMP. Les options d’enregistrement sont
les suivantes :
i
Enregistrement des messages d’état.
w
Enregistrement des avertissements non fatals.
e
Enregistrement des messages d’erreur.
a
Enregistrement du démarrage de toutes les actions.
Désinstaller les pilotes.
REMARQUE : vous devez inclure un espace entre les paramètres.
Exemples d’installation à partir d’une ligne de commande
Prenons pour hypothèse que le fichier setup64.exe se trouve dans le répertoire racine du CD, D:\.
1. Comment installer le pilote de base :
D:\Setup64.exe DMIX=0 ANS=0 SNMP=0
2. Installation du pilote de base avec l’option LOG :
D:\Setup64.exe LOG=C:\installBD.log DMIX=0 ANS=0 SNMP=0
3. Installation d'Intel® PROSet et ANS en mode silencieux :
D:\Setup64.exe DMIX=1 ANS=1 /qn
4. Installation d'Intel® PROSet sans ANS en mode silencieux :
D:\Setup64.exe DMIX=1 ANS=0 /qn
5. Installation des composants lorsque ANS est désélectionné :
D:\Setup64.exe DMIX=1 ANS=0 /qn /liew C:\install.log
L’option de journalisation /liew fournit un fichier journal pour l’installation de DMIX.
REMARQUE : pour installer la prise en charge des associations et des réseaux VLAN sur un système sur lequel
les pilotes de base des cartes et Intel® PROSet pour le Gestionnaire de périphériques Windows sont installés,
entrez la ligne de commande D:\Setup64.exe ANS=1.
Windows Server Core
Outre la méthode ci-dessus, sur Windows Server Core, il est également possible d'installer le pilote de base en
utilisant l'utilitaire Plug and Play, PnPUtil.exe.
Installation d’Intel® PROSet
Intel® PROSet pour le Gestionnaire de périphériques Windows est un utilitaire de configuration avancé qui fournit des
fonctionnalités de configuration et de diagnostic additionnelles au Gestionnaire de périphérique. Pour plus
d’informations sur son installation et son utilisation, consultez Utilisation d’Intel® PROSet pour le Gestionnaire de
périphériques Windows.
REMARQUE : vous devez installer Intel® PROSet pour le Gestionnaire de périphériques Windows pour pouvoir
utiliser des associations Intel® ANS et des réseaux VLAN.
Utilisation de la carte
Configuration de la vitesse et du mode duplex
Présentation
Les paramètres de vitesse de liaison et de mode duplex permettent de choisir la manière dont la carte envoie et reçoit
des paquets de données dans le réseau.
En mode par défaut, une carte réseau Intel utilisant des connexions en cuivre tente de négocier automatiquement avec
son partenaire de liaison pour déterminer la meilleure configuration. Si aucune liaison n’est établie avec le partenaire
de liaison en utilisant la négociation automatique, vous devez configurer manuellement la carte et le partenaire de
liaison de manière identique pour pouvoir établir la liaison et transmettre des paquets. Cette opération ne doit être
exécutée que pour établir une liaison avec un commutateur ancien qui ne prend pas en charge la négociation
automatique ou utilisant une vitesse ou un mode duplex particuliers.
La négociation automatique est désactivée en sélectionnant une vitesse distincte et le mode duplex dans les
propriétés de la carte réseau.
REMARQUES :
l Lorsqu'une carte fonctionne en mode NPar, les paramètres de vitesse sont limités à la partition racine de
chaque port.
l les cartes à fibres optiques fonctionnent uniquement en Full duplex et à leur vitesse native.
Les paramètres disponibles lorsque la négociation automatique est désactivée sont :
l 40 Gbit/s Full duplex (requiert un partenaire de liaison prenant en charge le mode full duplex et configuré en
conséquence). La carte peut envoyer et recevoir des paquets simultanément.
l 10 Gbit/s Full duplex (requiert un partenaire de liaison prenant en charge le mode full duplex et configuré en
conséquence). La carte peut envoyer et recevoir des paquets simultanément.
l 1 Gbit/s Full duplex (requiert un partenaire de liaison prenant en charge le mode full duplex et configuré en
conséquence). La carte peut envoyer et recevoir des paquets simultanément. Vous devez configurer ce mode
manuellement (voir ci-dessous).
l 10 Mbit/s ou 100 Mbit/s Full duplex (requiert un partenaire de liaison configuré pour le mode full duplex). La
carte peut envoyer et recevoir des paquets simultanément. Vous devez configurer ce mode manuellement (voir
ci-dessous).
l 10 Mbit/s ou 100 Mbit/s Half duplex (requiert un partenaire de liaison configuré en mode half duplex).
L’adaptateur effectue une opération à la fois. Soit il envoie, soit il reçoit. Vous devez configurer ce mode
manuellement (voir ci-dessous).
La configuration du partenaire de liaison doit correspondre à celle que vous avez choisie.
REMARQUES :
l Bien que la feuille de paramètres de certaines cartes réseau (paramètres des propriétés du pilote)
donne comme option 10 Mbit/s et 100 Mbit/s en Half duplex ou Full duplex, l'utilisation de ces
paramètres n'est pas recommandée.
l Seul un administrateur réseau expérimenté devrait forcer manuellement la vitesse et le mode duplex.
l Vous ne pouvez pas modifier la vitesse et le mode duplex des cartes Intel utilisant un câble à fibre
optique.
Les cartes réseau Intel 10 Gigabit prenant en charge la vitesse 1 gigabit permettent de configurer le paramètre de
vitesse. Si cette option n’est pas présente, votre carte fonctionne uniquement à sa vitesse native.
Configuration manuelle des paramètres du mode duplex et de la vitesse
La configuration est propre au pilote de votre système d'exploitation. Pour définir un mode Vitesse de liaison et duplex,
reportez-vous à la section ci-dessous correspondant à votre système d’exploitation.
ATTENTION : les paramètres du commutateur doivent toujours concorder avec ceux de la carte. La
carte sera sensiblement moins performante ou ne fonctionnera pas correctement si ses paramètres
diffèrent de ceux du commutateur.
Windows
La négociation automatique est activée par défaut. Ne modifiez ce paramètre pour correspondre à la vitesse et au
mode duplex de votre partenaire de liaison qu'en cas de problèmes de connexion.
1. Double-cliquez sur la carte réseau que vous voulez configurer dans le Gestionnaire de périphériques
Windows.
2. Sous l’onglet Link Speed (Vitesse de liaison), sélectionnez une vitesse et un mode duplex appropriés dans le
menu déroulant Speed and Duplex (Vitesse et duplex).
3. Cliquez sur OK.
Des instructions plus spécifiques sont disponibles dans l’Aide Intel® PROSet.
Linux
Reportez-vous à la rubrique Pilote Linux* pour famille de cartes réseau Intel® Gigabit pour des informations sur la
configuration de la vitesse et du mode duplex sur les systèmes Linux.
Test de la carte réseau
Le logiciel de diagnostic d’Intel vous permet de tester la carte pour détecter les problèmes éventuels de matériel, de
câblage ou de connexion réseau.
Tests pour Windows
Intel® PROSet permet d’exécuter quatre types de test de diagnostic.
l Test de connexion : Ce test vérifie la connectivité du réseau en envoyant un ping au serveur DHCP, au serveur
WINS et à la passerelle.
l Tests de câble : Ces tests fournissent des informations sur les propriétés du câble.
REMARQUE : le test de câble n'est pas pris en charge sur toutes les
cartes. Il est uniquement disponible sur les cartes qui le prennent en
charge.
l
Tests de matériel : détermine si la carte fonctionne correctement.
REMARQUE : les tests de matériel échouent si la carte est configurée pour le démarrage iSCSI.
Pour accéder à ces tests, sélectionnez la carte dans le Gestionnaire de périphériques Windows, cliquez sur l’onglet
Liaison, puis cliquez sur Diagnostics. Une fenêtre Diagnostics affiche des onglets pour chaque type de test. Cliquez
sur l’onglet approprié pour exécuter un test.
La disponibilité des tests varie en fonction du matériel et du système d’exploitation.
Diagnostics DOS
Utilisez l’utilitaire de test DIAGS pour tester les cartes réseaux sous DOS.
Diagnostics Linux
Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des
informations statistiques. La version 1.6 d'ethtool ou une version ultérieure est requise pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
REMARQUE : ethtool 1.6 ne prend en charge qu’un nombre limité d’options ethtool. Il est possible d’activer la
prise en charge d’un ensemble de fonctionnalités ethtool plus complet en effectuant la mise à jour vers la toute
dernière version d’ethtool.
Tests du répondeur
La carte Intel peut envoyer des messages de test à une autre carte Ethernet sur le même réseau. Ce test est disponible
dans DOS via l'utilitaire diags.exe disponible sur la page de l'Assistance client.
Agrégation de cartes
La fonctionnalité Associations ANS du composant Services réseaux avancés d'Intel® (Intel® ANS) vous permet de tirer
parti de plusieurs cartes d'un système en les regroupant. Intel® ANS peut utiliser des fonctionnalités comme
l'équilibrage de la charge et la tolérance aux pannes pour optimiser le débit et la fiabilité.
La fonctionnalité d'association de cartes est fournie via le pilote intermédiaire Intel® ANS. La fonctionnalité utilise ce
pilote intermédiaire pour regrouper des cartes physiques en une association qui agit comme une seule et même carte
virtuelle. Intel® ANS sert d'encapsuleur autour d'un ou plusieurs pilotes de base en fournissant une interface entre le
pilote de base et la pile de protocoles réseau. Ce faisant, le pilote intermédiaire contrôle sur quelle interface physique
des paquets spécifiques sont envoyés, ainsi que d’autres propriétés essentielles de la fonctionnalité d’agrégation.
Il existe plusieurs modes d'agrégation pouvant être configurés pour être utilisés par les associations de cartes
Intel® ANS.
Configuration de l’association de cartes
Avant de pouvoir configurer l’association de cartes sous Windows*, vous devez installer le logiciel Intel® PROSet.
Pour de plus amples informations sur la configuration de l’association de cartes, consultez la documentation de votre
système d’exploitation.
Systèmes d’exploitation pris en charge
Les liens suivants permettent d’accéder à des informations sur la configuration d’associations avec le système
d’exploitation utilisé :
l Windows
REMARQUE : pour configurer des associations sous Linux, utilisez le module Channel Bonding disponible
dans les noyaux Linux pris en charge. Pour davantage d’informations, consultez la documentation sur le
Channel Bonding disponible dans la source de noyau sous Documentation/networking/bonding.txt.
Utilisation des associations des services réseau avancés Intel® et des VLAN dans
une machine virtuelle invitée
Les associations des services réseau avancés Intel® (Intel® ANS) et les VLAN sont pris en charge par les machines
virtuelles invitées suivantes uniquement :
Machine virtuelle
hôte/invitée
Microsoft Windows Server 2008
R2 VM
Microsoft Windows
Server 2012 R2 VM
Microsoft Windows
Server 2012 R2 VM
Microsoft Windows
Hyper-V
Pas d'associations ou de VLAN
LBFO
LBFO
Hyperviseurs Linux
(Xen ou KVM)
Associations des services réseau
avancés et VLAN
LBFO
LBFO
ANS, VLAN
ANS, VLAN
VMware ESXi
Associations des services réseau
avancés et VLAN
LBFO
LBFO
ANS, VLAN
ANS, VLAN
Cartes prises en charge
Les options d’association sont prises en charge sur les cartes réseau Intel pour serveurs. Certaines cartes d’autres
fabricants sont également prises en charge. Si vous utilisez un ordinateur Windows, les cartes affichées dans Intel®
PROSet peuvent faire partie d’une association.
REMARQUE : pour pouvoir utiliser l'association de cartes, votre système doit être doté d'au moins une carte
réseau Intel® pour serveurs. De plus, toutes les cartes de l’association doivent être liées au même commutateur
ou concentrateur.
Conditions pouvant empêcher l'agrégation d'un périphérique
Lors de la création ou de la modification d'une association, il est possible que la liste des types d'association
disponibles ou la liste des périphériques disponibles ne comprenne pas tous les types d'association ou périphériques.
Cela peut être dû à une ou plusieurs conditions, comprenant :
l Le système d’exploitation ne prend pas en charge le type d'association souhaité.
l Le périphérique ne prend pas en charge le type d'association souhaité ou ne prend pas du tout en charge
l'agrégation de cartes.
l Les périphériques que vous voulez agréger utilisent des versions de pilote différentes.
l Vous tentez d'agréger un périphérique Intel PRO/100 avec un périphérique Intel 10GbE.
l Vous pouvez ajouter des périphériques compatibles avec la technologie d'administration active Intel® à des
associations AFT (Tolérance aux pannes de la carte), SFT (Tolérance aux pannes du commutateur) et ALB
(Équilibrage de la charge). Tous les autres types d’association ne sont pas pris en charge. Le périphérique
compatible avec la technologie d’administration active Intel doit être désigné comme carte principale de
l’association.
l L'adresse MAC du périphérique a été remplacée par le paramètre avancé de l'Adresse administrée localement.
l La fonctionnalité Fibre Channel over Ethernet (FCoE) Boot a été activée sur le périphérique.
l Le paramètre "Contrôlé par le SE" est activé sous l'onglet Centre de données de ce périphérique.
l Le périphérique est associé à une carte réseau virtuelle.
l Le périphérique fait partie d'une association LBFO (Load Balancing and Failover, équilibrage de la charge et
reprise) Microsoft*.
Notes de configuration
l
l
l
l
l
l
l
Tous les types d’association ne sont pas disponibles sur tous les systèmes d’exploitation.
Veillez à utiliser les derniers pilotes disponibles sur toutes les cartes.
NDIS 6.2 introduit de nouvelles structures de données RSS et interfaces C'est pourquoi il n'est pas possible
d'activer le RSS sur les associations composées d'un mélange de cartes prenant en charge le RSS NDIS 6.2 et
de cartes qui ne le prennent pas en charge.
Si vous utilisez une carte réseau Intel® 10GbE pour serveurs et une carte réseau Intel® Gigabit sur le même
ordinateur, le pilote de la carte réseau Gigabit doit être exécuté en même temps que le pilote de la carte
Intel® 10GbE.
Si une association est liée à une carte réseau virtuelle Hyper-V, la carte principale ou la carte secondaire ne
peuvent pas être changées.
Certaines fonctionnalités, telles que le délestage matériel, sont automatiquement désactivées lorsque des
cartes non Intel font partie de l’association, afin d’assurer un ensemble de fonctionnalités communes.
Les périphériques sur lesquels le moteur de délestage TCP (TOE) est activé ne peuvent être ajoutés à une
association ANS et ne seront pas répertoriés dans la liste des cartes disponibles.
Pour activer l’agrégation avec Broadcom Advanced Control Suite 2 :
1. Chargez les pilotes de base et Broadcom Advanced Control Suite 2 (utilisez toujours les
logiciels les plus récents de www.support.dell.com)
2. Sélectionnez le périphérique Broadcom et ouvrez l’onglet Avancé
3. Désactivez Receive Side Scaling
4. Allez à Allocation des ressources et sélectionnez TCP Offload Engine (TOE)
5. Cliquez sur Configurer et cochez TCP Offload Engine (TOE) dans la section Configuration NDIS
Pour activer l’association avec Broadcom Advanced Control Suite 3 :
1. Chargez les pilotes de base et Broadcom Advanced Control Suite 3 (utilisez toujours les
logiciels les plus récents de www.support.dell.com)
2. Sélectionnez le périphérique Broadcom et désélectionnez TOE dans l’onglet Configurations.
3. Cliquez sur Apply (Appliquer).
4. Choisissez l’entrée NDIS du périphérique Broadcom et désélectionnez Receive Side Scaling
dans l’onglet Configurations.
5. Cliquez sur Apply (Appliquer).
l
STP (Spanning tree protocol) doit être désactivé sur les ports de commutateur connectés à des cartes
appartement à une association afin d’éviter toute perte de données lorsque la carte principale est remise en
service (basculement). Le délai d'activation est désactivé par défaut. Autrement, un délai d’activation peut être
configuré sur les cartes pour éviter toute perte de données lorsque le protocole STP est utilisé. Définissez le
délai d’activation dans l’onglet Avancé des propriétés de l’association.
l
l
l
l
l
l
l
l
l
l
l
l
l
Le FCoE/DCB sera automatiquement désactivé quand une carte est ajoutée à une association avec des cartes
non compatibles FCoE/DCB.
Les associations ANS de périphériques VF sont prises en charge à l’intérieur d’un invité Windows 2008 R2
exécuté sur un hyperviseur Open Source.
Vous pouvez ajouter des périphériques compatibles avec la technologie d’administration active Intel® à des
associations AFT (Tolérance aux pannes de la carte), SFT (Tolérance aux pannes du commutateur) et ALB
(Équilibrage de la charge). Tous les autres types d’association ne sont pas pris en charge. Le périphérique
compatible avec la technologie d’administration active Intel doit être désigné comme carte principale de
l’association.
Avant de créer une association, d’ajouter ou de supprimer des membres d’une association ou de modifier les
paramètres avancés d’un membre d’une association, veillez à ce que tous les membres de l’association aient
été configurés de façon similaire. Parmi les paramètres à vérifier se trouvent les réseaux VLAN, le balisage des
paquets QS, les paquets étendus et les différents délestages. Ces paramètres sont disponibles dans l’onglet
Paramètres avancés. Faites particulièrement attention avec les cartes de modèles et de versions différents, car
leurs capacités varient.
Si des membres d’une association implémentent des fonctionnalités IANS de façon différente, les
fonctionnalités de basculement et de l’association peuvent en être affectées. Pour éviter les problèmes
d’implémentation des associations :
l Créez des associations utilisant des cartes de types et de modèles similaires.
l Rechargez l’association après l’ajout d’une carte ou la modification de toute fonctionnalité avancée.
Pour recharger une association, vous pouvez par exemple sélectionner une nouvelle carte principale.
Bien qu’une perte temporaire de connectivité réseau ait lieu lors de la reconfiguration de l’association,
l’association conserve son schéma d’adressage réseau.
ANS vous permet de créer des associations constituées d’une seule carte. Une association à une carte ne
permet pas de tirer parti des fonctionnalités de l’agrégation de cartes, mais elle vous permet d’ajouter à chaud
une autre carte à l’association sans la perte de connectivité qui se produit lors de la création d’une nouvelle
association.
Avant d’ajouter à chaud un nouveau membre à une association, assurez-vous que la liaison du membre est
interrompue. En effet, si un port est ajouté au canal d’un commutateur avant que la carte ne soit ajoutée à
chaud à l’association ANS, des déconnexions se produiront car le commutateur transmettra le trafic au port
avant que le nouveau membre ne soit configuré. Une situation inverse, où le membre est ajouté d’abord à
chaud à l’association ANS puis au canal du commutateur, est également problématique car ANS transmettra le
trafic au membre avant que le port ne soit ajouté au canal du commutateur et une déconnexion se produira.
Les cartes réseau Intel 10 Gigabit pour serveurs peuvent être associées à des cartes réseau Intel Gigabit et
certains modèles pour serveurs d’autres fabricants. Si vous utilisez un ordinateur Windows, les cartes affichées
dans l’assistant d’agrégation d’Intel® PROSet peuvent faire partie d’une association.
Les ports de réseau utilisant OS2BMC ne doivent pas être associés avec les ports ayant OS2BMC désactivé.
Un redémarrage est nécessaire lorsque des modifications ont été apportées, telles que la modification d’un
paramètre avancé du pilote de base ou la création d’une association ou d’un VLAN, sur le port réseau utilisé
pour l’installation RIS.
Les cartes Intel qui ne prennent pas en charge Intel® PROSet peuvent encore être intégrées dans une
association. Cependant, elles sont limitées de la même manière que les cartes d’autres marques qu’Intel.
Reportez-vous à la rubrique Agrégation de cartes de différents fabricants pour plus d’informations.
Si vous créez une association utilisant du matériel de différents fabricants, vous devez vérifier manuellement
que les paramètres RSS de toutes les cartes sont identiques.
Le tableau ci-dessous fournit un résumé de la prise en charge des agrégations de cartes de différents
fabricants.
Agrégation de cartes de différents
fabricants avec un pilote
d’agrégation Intel (iANS/PROSet)
Intel
Broadcom
Mode d’agrégation pris en charge
Prise en
charge du
délestage
Autre prise en
charge de
délestage et
RSS
AFT SFT ALB/RLB SLA LACP
LSO
CSO
TOE
RSS
Intel PCI Express Périphérique
Broadcom
avec TOE
désactivé
Oui
Oui
Oui
Oui
Oui
Oui
Oui
Non
Non
Intel PCI Express Périphérique
Non Non
Non
Non
Non
Non
Non
Non
Non
Broadcom
avec TOE activé
Associations LBFO (Load Balancing and Failover) Microsoft*
Les associations Intel ANS et les VLAN ne sont pas compatibles avec les associations LBFO (Load Balancing and
Failover) de Microsoft. Intel® PROSet bloquera l’ajout d’un membre d'une association LBFO à une association Intel
ANS ou à un VLAN. Vous ne devez pas ajouter à une association LBFO un port qui fait déjà partie d'une association
Intel ANS ou d’un VLAN, car cela pourrait déstabiliser le système. Si vous utilisez le membre d'une association ANS ou
un VLAN dans une association LBFO, réalisez la procédure suivante pour restaurer votre configuration :
1. Redémarrez le système.
2. Supprimez l'association LBFO. Bien que la création de l'association LBFO ait échoué, après un redémarrage, le
Gestionnaire de serveur indique que LBFO est activé et l'interface LBFO est présente dans l'interface graphique
‘NIC Teaming’.
3. Supprimez les associations ANS et les VLAN se trouvant dans l'association LBFO et recréez-les. Il s'agit d'une
étape facultative (toutes les liaisons sont restaurées lorsque l'association LBFO est supprimée) mais fortement
recommandée.
REMARQUE : Si vous ajoutez un port sur lequel la technologie d'administration active Intel est activée à une
association LBFO, ne configurez pas le port en mode de veille dans l'association LBFO. Si vous configurez le
port en mode de veille, il est possible que vous perdiez la fonctionnalité d'administration active.
Modes d’agrégation
Les différents modes d’association existants peuvent être regroupés dans les catégories suivantes :
Tolérance aux pannes
Fournit la redondance de la connexion réseau en désignant un contrôleur principal et en utilisant les contrôleurs
restants comme contrôleurs de secours. Ce mode est conçu pour assurer la disponibilité du serveur sur le réseau.
Lorsque la carte principale désignée par l’utilisateur perd la liaison, le pilote iANS "bascule" le trafic sur la carte
secondaire disponible. Dès que la liaison de la carte principale est rétablie, le pilote iANS "bascule" à nouveau le trafic
sur la carte principale. Pour plus d’informations, reportez-vous à la rubrique Carte principale et carte secondaire. Le
pilote iANS utilise la tolérance basée sur la liaison et des paquets de sondage sur la liaison pour détecter les pannes
de connexion réseau.
l Tolérance basée sur la liaison - Le pilote d’agrégation vérifie l’état de la liaison des interfaces réseau locales
appartenant aux membres de l’association. La tolérance basée sur la liaison fournit le basculement et la
reprise pour les pannes de liaison immédiates uniquement.
l Sondage - Le sondage est un autre mécanisme utilisé pour maintenir l’état des cartes dans une association
tolérante aux pannes. Des paquets de sondage sont envoyés pour établir un trafic connu et minimal entre les
cartes d’une association. À chaque intervalle de sondage, chaque carte de l’association envoie un paquet de
sondage aux autres cartes de l’association. Le sondage fournit le basculement et la reprise pour les pannes de
liaison immédiates, ainsi que pour les pannes de réseau externes sur le chemin d’accès réseau unique des
paquets de sondage entre les cartes membres.
Les associations de type "tolérance aux pannes" comprennent les associations Tolérance aux pannes de la carte
(AFT) et les associations Tolérance aux pannes du commutateur (SFT).
Équilibrage de la charge
Fournit l’équilibrage de la charge de transmission en partageant le trafic IP sortant entre toutes les cartes d’interface
réseau, tout en permettant d’écarter le trafic d’une carte qui tomberait en panne. L’Équilibrage de la charge de
réception équilibre le trafic entrant.
Les associations de type "équilibrage de la charge" comprennent les associations Technologie ALB d’équilibrage de
la charge.
REMARQUE : si votre réseau est configuré pour utiliser un réseau VLAN, veillez à ce que l’association à
équilibrage de la charge soit configurée pour utiliser le même réseau VLAN.
Agrégation des liens
Combine plusieurs canaux physiques en un seul canal logique. L’agrégation des liens est similaire à l’équilibrage de
la charge.
Les associations de type "agrégation des liens" comprennent les associations Agrégation de liens statiques et les
associations et IEEE 802.3ad: mode dynamique
IMPORTANT
l Pour obtenir des performances optimales, vous devez désactiver le protocole STP (Spanning
Tree Protocol) sur tous les commutateurs du réseau si vous utilisez les modes d’agrégation AFT,
ALB ou Agrégation de liens statiques.
l Lorsque vous créez une association, une instance de carte virtuelle est créée. Sous Windows, la
carte virtuelle est affichée dans le Gestionnaire de périphériques et dans les Connexions réseau
et accès à distance. Chaque instance de carte virtuelle apparaît en tant que "Intel Advanced
Network Services Virtual Adapter". N’essayez pas de modifier (sauf pour changer la
configuration du protocole) ou de supprimer les instances de carte virtuelle en utilisant le
Gestionnaire de périphérique ou les Connexions réseau et accès à distance. Cela pourrait
provoquer des anomalies.
l Avant de créer une association, d’ajouter ou de supprimer des membres d’une association ou de
modifier les paramètres avancés d’un membre d’une association, veillez à ce que tous les
membres de l’association aient été configurés de façon similaire. Parmi les paramètres à vérifier
se trouvent les réseaux VLAN, le balisage des paquets QS, les paquets étendus et les différents
délestages. Ces paramètres sont disponibles sous l’onglet Advanced (Avancé) d’Intel® PROSet.
Faites particulièrement attention avec les cartes de modèles et de versions différents, car leurs
capacités varient.
Si des membres d’une association implémentent des fonctionnalités avancées de façon différente, les fonctionnalités
de basculement et de l’association en seront affectées. Pour éviter les problèmes d’implémentation des associations :
l Utilisez les derniers pilotes disponibles sur toutes les cartes.
l Créez des associations utilisant des cartes de types et de modèles similaires.
l Rechargez l’association après l’ajout d’une carte ou la modification de toute fonctionnalité avancée. Pour
recharger une association, vous pouvez par exemple sélectionner une nouvelle carte principale. Bien qu’une
perte temporaire de connectivité réseau ait lieu lors de la reconfiguration de l’association, l’association
conserve son schéma d’adressage réseau.
Carte principale et carte secondaire
Les modes d’agrégation de cartes (AFT, SFT, ALB (avec RLB)) ne requérant pas de commutateur disposant de
capacités similaires utilisent une carte principale. Pour l’ensemble de ces modes, à l’exception du mode RLB, la carte
principale est la seule carte qui reçoit le trafic. Le mode RLB est activé par défaut sur une association ALB.
En cas d’interruption de la carte principale, une autre carte prend le relais. Si vous utilisez plus de deux cartes et que
vous souhaitez que la prise de relais soit effectuée par une carte spécifique en cas de panne de la carte principale,
vous devez spécifier une carte secondaire. Si un périphérique avec la technologie d’administration active Intel activée
fait partie d’une association, il doit être désigné comme la carte principale de l’association.
Il existe deux types de cartes principales et secondaires :
l Carte principale par défaut : si vous ne spécifiez pas de carte principale, le logiciel choisit la carte ayant les
capacités (modèle et vitesse) les plus élevées comme carte principale par défaut. En cas de basculement sur
indisponibilité, une autre carte devient la carte principale. Dans la plupart des modes, lorsque le problème
relatif à la carte originale est résolu, le trafic n’est pas transféré automatiquement vers la carte (originale)
principale par défaut. Cependant, la carte rejoint l’association mais n’est plus la carte principale.
l Carte principale/secondaire désignée : vous pouvez spécifier une carte désignée dans Intel® PROSet. Dans
une situation normale, la carte principale gère l’ensemble du trafic. La carte secondaire reçoit le trafic en cas de
panne de la carte principale. Si la carte principale désignée tombe en panne et que celle-ci redevient active
ultérieurement, elle reprend automatiquement le contrôle. La spécification des cartes principale et secondaire
n’apporte aucun avantage aux associations dynamiques SLA et IEEE 802.3ad, mais impose à l’association
d’utiliser l’adresse MAC de la carte principale.
Pour spécifier une carte principale ou une carte secondaire sous Windows
1. Dans la boîte de dialogue Propriétés de l’association, cliquez sur l’onglet Settings (Paramètres), puis sur
Modify Team (Modifier l’association).
2. Cliquez sur l’onglet Adapters (Cartes réseau), et sélectionnez une carte.
3. Cliquez sur Set Primary (Désigner comme carte principale) ou sur Set Secondary (Désigner comme carte
secondaire).
REMARQUE : vous devez spécifier une carte principale avant de pouvoir spécifier une carte secondaire.
4. Cliquez sur OK.
Le paramètre "Désignée" de la carte apparaît dans la colonne Priorité de l’onglet Team Configuration (Configuration
de l’association) d’Intel® PROSet. Un "1" indique une carte principale désignée, un "2" indique une carte secondaire
désignée.
Basculement et restauration automatique
Lorsqu’une liaison est coupée, en raison d’une panne de port ou de câble, les types d’association qui fournissent une
tolérance aux pannes continuent d’envoyer et de recevoir le trafic. Le basculement est le transfert initial du trafic de la
liaison coupée à la liaison opérationnelle. La restauration automatique se produit lorsque la carte initiale reprend la
liaison. Vous pouvez utiliser le paramètre Délai d’activation (situé dans l’onglet Avancé des propriétés de l’association
dans le Gestionnaire de périphériques) pour spécifier combien de temps la carte de basculement attend avant de
devenir active. Si vous ne voulez pas que l’association effectue une restauration automatique lorsque la carte initiale
retrouve la liaison, vous pouvez désactiver le paramètre Autoriser la restauration automatique (situé dans l’onglet
Avancé des propriétés de l’association dans le Gestionnaire de périphériques).
Dispositif de tolérance aux pannes de la carte (AFT : Adapter Fault Tolerance)
Le Dispositif de tolérance aux pannes de la carte (AFT) fournit la reprise automatique dans le cas d’un échec de
liaison dû à une défaillance de la carte réseau, du câble, du commutateur ou du port, en redistribuant la charge du
trafic sur une carte de secours.
Les défaillances sont détectées automatiquement et le trafic est redistribué dès qu’une défaillance est détectée.
L’objectif de la fonctionnalité AFT est d’assurer une redistribution rapide de la charge pour éviter des déconnexions
pendant les sessions de l’utilisateur. Le dispositif de tolérance aux pannes AFT prend en charge de deux à huit cartes
par association. Seul un membre actif de l’association transmet et reçoit le trafic. En cas de défaillance de la connexion
principale (câble, carte ou port), une carte secondaire (de secours) prend automatiquement le relais. Si la connexion
de la carte principale désignée par l’utilisateur est rétablie après un basculement, la carte principale reprend
automatiquement le contrôle. Pour de plus amples informations, reportez-vous à la rubrique Cartes principales et
secondaires.
Le mode AFT est configuré par défaut lors de la création d’une association. Ce mode n’offre pas l’équilibrage de la
charge.
REMARQUES :
l Les associations AFT nécessitent que le commutateur ne soit pas configuré pour l’agrégation et que le
protocole "Spanning Tree" soit désactivé pour le port de commutateur connecté à la carte réseau ou au
contrôleur réseau intégré sur le serveur.
l Tous les membres d’une association AFT doivent être connectés au même sous-réseau.
Tolérance aux pannes du commutateur (SFT : Switch Fault Tolerance)
Le mode Tolérance aux pannes du commutateur (SFT) ne prend en charge que deux cartes d’interface réseau
connectées à deux commutateurs différents dans une association. En mode SFT, une carte est la carte principale et
une autre la carte secondaire. Lors d’un fonctionnement normal, la carte secondaire est en mode de veille. En mode
de veille, la carte est inactive et attend de prendre le relais. Elle ne transmet et ne reçoit aucun trafic réseau. En cas
d’interruption de la connectivité de la carte principale, la carte secondaire prend automatiquement le relais. Lorsque
des associations SFT sont créées, le délai d’activation est automatiquement défini sur 60 secondes.
En mode SFT, les deux cartes constituant l’association peuvent posséder des vitesses différentes.
REMARQUE : la prise en charge de l’agrégation de cartes SFT ne requiert aucune configuration du
commutateur, mais le protocole "Spanning Tree" doit être activé.
Surveillance de la configuration
Permet de définir la surveillance entre l’association SFT et jusqu’à cinq adresses IP. Il est ainsi possible de détecter
l’échec de liaison au delà du commutateur. Vous pouvez vérifier la disponibilité de la connexion pour plusieurs clients
considérés comme problématiques. Si la connexion entre la carte principale et toutes les adresses IP surveillées est
perdue, l’association bascule sur la carte secondaire.
Technologie d’équilibrage de la charge adaptative/charge de réception (ALB/RLB)
La technologie ALB d’équilibrage de la charge est une méthode de distribution dynamique de la charge du trafic des
données sur plusieurs canaux physiques. L’objectif de la technologie ALB est d’améliorer la bande passante globale
et les performances des stations finales. En mode ALB, plusieurs liaisons sont fournies entre le serveur et le
commutateur, et le pilote intermédiaire exécuté sur le serveur est responsable de la fonction d’équilibrage de la
charge. L’architecture ALB utilise la connaissance des informations de couche 3 pour assurer une distribution optimale
de la charge de transmission du serveur.
L’architecture ALB est mise en œuvre en désignant l’un des canaux physiques comme étant le canal principal et les
autres des canaux secondaires. Les paquets quittant le serveur peuvent utiliser n’importe quel canal physique, mais
les paquets entrant ne peuvent utiliser que le canal principal. Lorsque la fonctionnalité d’équilibrage de la charge de
réception (RLB) est activée, elle équilibre le trafic de réception IP. Le pilote intermédiaire analyse les charges de
transmission des deux cartes et équilibre le taux entre les deux cartes en fonction des adresses de destination. Les
associations de cartes configurées pour ALB et RLB offrent aussi les avantages de la tolérance aux pannes.
REMARQUES :
l Les associations ALB nécessitent que le commutateur ne soit pas configuré pour l’agrégation et que le
protocole "Spanning Tree" soit désactivé pour le port de commutateur connecté à la carte réseau sur le
serveur.
l La technologie ALB n’équilibre pas le trafic si des protocoles tels que NetBEUI et IPX* sont utilisés.
l Les associations ALB peuvent comporter des cartes de vitesses différentes. La charge est équilibrée en
fonction des capacités de la carte et de la bande passante du canal.
l Tous les membres des associations ALB et RLB doivent être connectés au même sous-réseau.
Équilibrage de charge sur machines virtuelles
L’équilibrage de charge sur machines virtuelles (Virtual Machine Load Balancing, VMLB) assure l’équilibrage des
charges de trafic de transmission et de réception sur l’ensemble des VM liées à l’association de cartes ainsi que la
tolérance aux pannes du port commutateur, du câble ou de la carte.
Le pilote analyse la charge de transmission et de réception sur chaque carte membre et équilibre le trafic entre les
différentes cartes de l’association. Pour une association VMLB, chaque machine virtuelle est associée à un membre
de l’association pour son trafic TX et RX.
Si une seule NIC virtuelle est associée ou bien si Hyper-V est retiré, l’association VLMB se comportera comme une
association AFT.
REMARQUES :
l La technologie VMLB n’équilibre pas les charges liées aux protocoles non acheminés tels que NetBEUI
et à certains trafics IPX*.
l La technologie WMLB prend en charge de deux à huit ports de carte par association.
l Les associations VLMB peuvent comporter des cartes de vitesses différentes. La charge est équilibrée
en fonction du plus petit dénominateur commun des capacités des cartes et de la bande passante du
canal.
l il n’est pas possible d’utiliser dans une association VMLB une carte réseau où la technologie
d’administration active Intel est activée.
Agrégation de liens statiques
Le mode Agrégation de liens statique (SLA) ressemble énormément au mode ALB. Ce mode combine plusieurs
canaux physiques en un seul canal logique.
Ce mode fonctionne avec les commutateurs suivants :
l
l
l
commutateurs compatibles avec Cisco EtherChannel avec le mode de mise en canal défini sur "marche"
les commutateurs Intel capables d’agrégation de liens
les autres commutateurs compatibles avec la norme 802.3ad statique
Le pilote d’agrégation de cartes Intel prend en charge l’Agrégation de liens statiques pour :
l Fast EtherChannel (FEC) : FEC est une technologie d’agrégation de liens développée principalement pour
agréger la bande passante entre les commutateurs fonctionnant en mode Fast Ethernet. Plusieurs ports de
commutateur peuvent être regroupés pour offrir une meilleure bande passante. L’agrégation de ces ports
s’appelle Fast EtherChannel. Le logiciel du commutateur traite ces ports groupés comme un port logique
unique. Un nœud final, tel qu’un serveur haute vitesse, peut être connecté au commutateur en utilisant FEC.
L’agrégation de liens FEC fournit l’équilibrage de la charge d’une manière fort similaire à ALB, et utilise
notamment le même algorithme dans le flux de transmission. L’équilibrage de la charge de réception est une
fonctionnalité du commutateur.
La vitesse de transmission ne dépassera jamais la vitesse de base de la carte à n’importe quelle adresse
(selon les spécifications). Les associations doivent avoir la même capacité que le commutateur. Les
associations de cartes configurées pour l’agrégation de liens statiques offrent également les avantages de la
tolérance aux pannes et de l’équilibrage de charge. Ce mode ne nécessite pas la définition d’une carte
principale.
l
Gigabit EtherChannel (GEC) : L’agrégation de liens GEC est essentiellement identique à l’agrégation de liens
FEC.
REMARQUES :
l Toutes les cartes d’une association Agrégation de liens statiques doivent opérer à la même vitesse et
être connectées à un commutateur compatible avec le mode Agrégation de liens statiques. Si les
capacités de vitesse des cartes d’une association de type Agrégation de liens statiques diffèrent, la
vitesse de l’association est dépendante du commutateur.
l L’Agrégation de liens statiques nécessite que le commutateur soit configuré pour l’Agrégation de liens
statiques et que le protocole "Spanning Tree" soit désactivé.
l Il n’est pas possible d’utiliser dans une association SLA une carte réseau où la technologie
d’administration active Intel est activée.
IEEE 802.3ad : Agrégation de liens dynamique
La norme IEEE 802.3ad est la norme IEEE. Les associations peuvent comporter de deux à huit cartes. Vous devez
utiliser des commutateurs compatibles 802.3ad (en mode dynamique, l’agrégation peut comprendre plusieurs
commutateurs). Les associations de cartes configurées pour IEEE 802.3ad offrent également les avantages de la
tolérance aux pannes et de l’équilibrage de charge. En mode 802.3ad, l’équilibrage de la charge peut s’appliquer à
tous les protocoles.
Le mode dynamique prend en charge plusieurs agrégateurs. Les agrégateurs sont formés en fonction de la vitesse
des ports connectés à un commutateur. Par exemple, une association peut contenir des cartes fonctionnant à 1 Gbit/s
et à 10 Gbit/s, mais deux agrégateurs seront formés, un pour chaque vitesse. De plus, si une association contient des
ports de 1 Gbit/s connectés à un même commutateur et une combinaison de ports de 1 Gbit/s et de 10 Gbit/s connectés
à un deuxième commutateur, trois agrégateurs seront formés : un contenant tous les ports connectés au premier
commutateur, un contenant les ports de 1 Gbit/s connectés au deuxième commutateur et le troisième contenant les
ports de 10 Gbit/s connectés au deuxième commutateur.
REMARQUES :
l La prise en charge de l’agrégation de cartes IEEE 802.3ad requiert une configuration du commutateur
(agrégation de liens) et le protocole "Spanning Tree" doit être désactivé.
l Une fois que vous choisissez un critère d’agrégation, il reste effectif jusqu’à ce que toutes les cartes de
l’association agrégée perdent leur liaison.
l Sur certains commutateurs, les cartes cuivre et fibre ne peuvent appartenir à la même agrégation dans
une configuration IEEE 802.3ad. Si des cartes cuivre et fibre sont installées sur un système, le
commutateur peut configurer les cartes cuivre dans une agrégation et les cartes fibre dans une autre. Si
vous remarquez ce comportement, utilisez uniquement des cartes cuivre ou uniquement des cartes à
fibre optique dans un même système pour obtenir des performances optimales.
l Il n’est pas possible d’utiliser dans une association DLA une carte réseau où la technologie
d’administration active Intel est activée.
Avant de commencer
l
l
l
l
Vérifiez que le commutateur prend intégralement en charge la norme IEEE 802.3ad.
Vérifiez la dépendance des ports du commutateur dans la documentation. Certains commutateurs nécessitent
un pairage pour démarrer sur un port principal.
Vérifiez le paramétrage de vitesse et de mode duplex pour vous assurer que la carte et le commutateur
fonctionnent en Full duplex, qu’il soit forcé ou négocié automatiquement. La carte et le commutateur doivent
posséder tous les deux la même configuration de vitesse et de mode duplex. L’exigence de Full duplex fait
partie des spécifications de la norme IEEE 802.3ad : http://standards.ieee.org/. Si nécessaire, modifiez le
paramètre de vitesse et de duplex avant de lier la carte au commutateur. Bien que vous puissiez changer les
paramètres de vitesse et de mode duplex après la création de l’association, Intel vous recommande de
déconnecter les câbles jusqu’à ce que les paramètres soient appliqués. Dans certains cas, il se peut que les
commutateurs ou les serveurs ne reconnaissent pas correctement les nouveaux paramètres de vitesse et de
mode duplex s’ils ont été modifiés alors que la liaison était active sur le réseau.
Si vous configurez un réseau local virtuel, consultez les remarques de compatibilité concernant les réseaux
locaux virtuels dans votre documentation. Les commutateurs ne prennent pas tous en charge simultanément
les associations 802.3ad dynamiques et les réseaux locaux virtuels. Si vous décidez de configurer des réseaux
locaux virtuels, configurez les paramètres des associations et des réseaux locaux virtuels sur les cartes avant
de les relier au commutateur. La fonctionnalité des réseaux locaux virtuels peut être affectée si leur
configuration a lieu après que le commutateur a créé une agrégation active.
Agrégation de cartes de différents fabricants
L'agrégation de cartes de différents fabricants (MVT) permet l'agrégation de cartes Intel associées à celles d'autres
fabricants.
Si vous utilisez un ordinateur Windows, les cartes affichées dans l’assistant d’association d’Intel® PROSet peuvent
faire partie d’une association.
Considérations sur la conception des agrégations de matériel de différents
fabricants
l
l
l
l
l
Pour utiliser MVT, l’association de cartes doit comporter au moins une carte Intel ou une connexion intégrée
dans l’association, qui peut être définie comme carte principale.
Une association de matériel utilisant du matériel de différents fabricants peut être créée pour tout type
d’association.
Tous les membres d’une association MVT doivent fonctionner sur un ensemble commun de fonctions (plus petit
dénominateur commun).
Dans le cas des associations contenant des cartes d’autres fabricants, vérifiez manuellement si le paramètre
des trames de ces cartes est identique aux paramètres des cartes Intel.
Si vous ajoutez une carte réseau d’un autre fabricant (non Intel) dans une association, ses paramètres RSS
doivent correspondre à ceux des cartes Intel de l’association.
Réseaux locaux virtuels
Présentation
REMARQUE : les utilisateurs Windows* doivent installer Intel® PROSet pour le Gestionnaire de périphériques
Windows et Advanced Networking Services pour pouvoir utiliser les réseaux VLAN.
Le terme VLAN (Virtual Local Area Network, ou Réseau local virtuel) désigne un ensemble de périphériques qui
communiquent comme s’ils se trouvaient sur le même réseau local physique. Tout groupe de ports (y compris
l’ensemble des ports d’un commutateur) peut être considéré comme étant un réseau local virtuel. Les segments de
réseaux locaux ne sont pas restreints par le matériel qui les connecte physiquement.
Les réseaux locaux virtuels permettent de regrouper des
ordinateurs dans des groupes de travail logiques. Cette
configuration simplifie la gestion du réseau lorsque les clients
se connectent à des serveurs répartis dans un bâtiment, un
campus ou une entreprise.
Les réseaux locaux virtuels sont généralement constitués de
collègues appartenant à un même service, mais situés dans
des emplacements différents, de groupes d’utilisateurs
utilisant le même protocole de communication ou d’une
équipe travaillant sur un même projet.
En utilisant des réseaux VLAN, vous pouvez :
l améliorer les performances du réseau ;
l limiter les diffusions massives ;
l faciliter les mises à jours de la configuration du réseau local (ajouts, déplacements et modifications) ;
l limiter les problèmes de sécurité ;
l faciliter votre tâche de gestion.
Autres considérations
l
l
l
l
l
Configuration de SR-IOV pour une sécurité réseau renforcée : dans un environnement virtualisé, la fonction
virtuelle peut être sujette à un comportement malveillant sur les cartes Intel(R) pour serveurs prenant en charge
SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le
commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports
compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames
inattendues et potentiellement malveillantes.
Les réseaux VLAN ne sont pas pris en charge sur Microsoft* Windows* 10. Chaque réseau VLAN créé avec la
version 20.1, 20.2 ou 20.3 sur Windows 10 sera corrompue et ne pourra pas être mise à niveau vers la
version 20.4. Le programme d'installation de la version 20.4 peut supprimer les réseaux VLAN existants.
Pour appartenir à des réseaux locaux virtuels IEEE, la carte doit être connectée à un commutateur prenant en
charge la norme de réseau virtuel IEEE 802.1Q.
Les réseaux locaux virtuels peuvent coexister avec les associations (si la carte les prend tous les deux en
charge). Dans ce cas, définissez d’abord l’association, puis les réseaux locaux virtuels.
Un seul VLAN non étiqueté peut être configuré par carte ou association. Vous devez disposer d’au moins un
VLAN étiqueté avant de pouvoir installer un VLAN non étiqueté.
IMPORTANT : si vous utilisez des réseaux locaux virtuels IEEE 802.1Q, l’ID des réseaux doit être la même
sur le commutateur et les cartes des réseaux locaux virtuels.
REMARQUE : les VLAN Intel ANS ne sont pas compatibles avec les associations Load Balancing and Failover
(LBFO) de Microsoft. Intel® PROSet bloquera l’ajout d’un membre de LBFO à un VLAN Intel ANS. Vous ne
devez pas ajouter à une association LBFO un port qui fait déjà partie d’un VLAN Intel ANS, sous peine de
déstabiliser le système.
Configuration des réseaux locaux virtuels dans Microsoft* Windows*
Sous Microsoft* Windows*, vous devez utiliser Intel® PROSet pour installer et configurer les réseaux locaux virtuels.
Pour plus d'informations, sélectionnez Intel® PROSet dans la Table des matières (volet de gauche) de cette fenêtre.
REMARQUES :
l Les réseaux VLAN ne sont pas pris en charge sur Microsoft* Windows* 10. Chaque réseau VLAN créé
avec la version 20.1, 20.2 ou 20.3 sur Windows 10 sera corrompue et ne pourra pas être mise à niveau
vers la version 20.4. Le programme d'installation de la version 20.4 peut supprimer les réseaux VLAN
existants.
l si vous modifiez un paramètre sur l’onglet Avancé de l’un des VLAN, les paramètres de tous les VLAN
qui utilisent ce port sont également modifiés.
l Dans la plupart des environnements, Intel® PROSet prend en charge un maximum de 64 réseaux
locaux virtuels par port réseau ou association.
l Les réseaux VLAN ANS ne sont pas pris en charge sur les cartes et associations sur lesquelles les files
d'attente d'ordinateurs virtuels sont activées. Cependant, le filtrage de VLAN avec files d'attente
l
d'ordinateurs virtuels est pris en charge par l'interface de VLAN Microsoft Hyper-V. Pour de plus amples
informations, consultez Cartes réseau virtuelles Microsoft Hyper-V sur les agrégations et réseaux locaux
virtuels.
Vous pouvez avoir plusieurs balises de VLAN sur une partition enfant et son parent. Ces paramètres
sont indépendants les uns des autres et peuvent être différents ou identiques. Le seul cas où la balise
VLAN du parent et de l'enfant DOIT être identique est si vous voulez que les partitions parent et enfant
soient capables de communiquer l'une avec l'autre par ce VLAN. Pour de plus amples informations,
consultez Cartes réseau virtuelles Microsoft Hyper-V sur les agrégations et réseaux locaux virtuels.
Fonctionnalités avancées
REMARQUE : les options disponibles sur l'onglet Avancé dépendent de la carte réseau et du système. Toutes
les options ne sont pas affichées pour toutes les cartes réseau.
Trames Jumbo
Les trames Jumbo sont des trames Ethernet dont la taille est supérieure à 1 518 octets. Vous pouvez utiliser les trames
Jumbo pour réduire le taux d'utilisation de l'unité centrale et pour augmenter le débit. Toutefois, la latence peut
augmenter.
REMARQUES :
l
Les trames Jumbo sont prisent en charge à une vitesse de 1 000 Mbit/s et plus. L’utilisation de trames
Jumbo à des vitesses de 10 ou 100 Mbit/s n'est pas pris en charge et pourrait résulter en une baisse des
performances ou une perte de liaison.
l
Le matériel réseau bout en bout doit prendre en charge cette capacité, faute de quoi des paquets seront
perdus.
Certaines cartes Intel prenant en charge les trames Jumbo ont une taille de trame limitée à 9 238 octets,
avec une taille MTU correspondante de 9 216 octets.
l
Les trames Jumbo peuvent être implémentées simultanément avec les réseaux locaux virtuels et l'agrégation de
cartes.
REMARQUE : si une carte avec l'option trames Jumbo activée est ajoutée à une association existante avec
l'option trames Jumbo désactivée, la nouvelle carte fonctionnera avec cette option désactivée. Le réglage de
l'option trames Jumbo de la nouvelle carte ne changera pas dans Intel® PROSet, mais il utilisera le réglage des
autres cartes de l'association.
Pour configurer les trames Jumbo sur le commutateur, contactez l'administrateur réseau ou consultez le guide de
l'utilisateur du commutateur.
Restrictions des trames Jumbo :
l
l
l
l
l
l
Les trames Jumbo ne sont pas prises en charge dans les associations utilisant du matériel de différents
fabricants (MVT).
Seuls les protocoles IP (TCP, UDP) sont pris en charge.
Les trames Jumbo nécessitent des commutateurs compatibles avec le transfert de trames Jumbo. Pour de plus
amples informations, contactez le fabricant du commutateur.
Le paramètre des trames Jumbo à l'intérieur d'une machine virtuelle doit être identique ou inférieur au réglage
du port physique.
Si des trames Ethernet de taille standard (64 à 1518 octets) sont utilisées, il n’y a aucun avantage à configurer
des trames Jumbo.
Le paramètre des trames Jumbo sur le commutateur doit être supérieur d'au moins 8 octets à celui des cartes
des systèmes d'exploitation Microsoft* Windows*, et au moins 22 octets plus grand pour tous les autres
systèmes d'exploitation.
Pour de plus amples informations sur la configuration de trames Jumbo sous Windows, reportez-vous à l'aide en ligne
d'Intel® PROSet pour le Gestionnaire de périphériques Windows.
Pour savoir comment configurer les trames Jumbo sous Linux*, consultez Pilote Linux pour les cartes réseau Intel®.
Qualité de service
Qualité de service (QoS) permet à la carte réseau d’envoyer et de recevoir des trames balisées 802.3ac, qui
comprennent les trames balisées 802.1p prioritaires et 802.1Q VLAN. Pour mettre en œuvre la fonctionnalité QS, la
carte doit être connectée à un commutateur prenant en charge QS et configuré en conséquence. Les trames balisées
prioritaires permettent aux applications traitant des événements en temps réel, d’optimiser l’utilisation de la largeur de
bande du réseau. Les paquets à priorité élevée sont traités avant les paquets à faible priorité.
Pour mettre en œuvre la fonctionnalité QS, la carte doit être connectée à un commutateur prenant en charge la qualité
de service 802.1p et configuré en conséquence.
Le balisage QS peut être activé ou désactivé dans l’onglet Avancé d’Intel® PROSet pour le Gestionnaire de
périphériques Windows.
Une fois QS activé dans Intel® PROSet, vous pouvez spécifier des degrés de priorité en fonction du balisage de
trames IEEE 802.1p/802.1Q.
Pontage de centre de données
Le pontage de centre de données (DCB) est une collection d’extensions basées sur des normes à l’Ethernet
classique. Il fournit une couche de transport sans perte pour les centres de données. Celle-ci autorise la convergence
des LAN et SAN sur une infrastructure Unified Fabric unique.
De plus, le Pontage de centre de données (DCB) assure la qualité de service de la configuration du matériel. Il utilise
la balise de priorité VLAN (802.1p) pour filtrer le trafic. De ce fait, le trafic peut être classé en 8 priorités différentes. Il
active également le contrôle du flux basé sur les priorités (802.1Qbb) susceptibles de limiter ou d'éliminer la perte de
paquets lors des pics de réseau. Il est possible d'allouer de la bande passante à chacune de ces priorités, avec une
mise en application au niveau du matériel (802.1Qaz).
Le microprogramme de la carte met en œuvre les agents de protocole LLDP et DCBX, selon 802.1AB et 802.1Qaz
respectivement. L'agent DCBX basé sur le microprogramme fonctionne uniquement en mode « Willing state» et peut
accepter les paramètres issus d'un pair équipé de DCBX. La configuration logicielle des paramètres DCBX via
dcbtool/lldptool n'est pas prise en charge.
Enregistrement et restauration des paramètres de configuration d’une
carte
L’outil de ligne de commande Enregistrer et restaurer (Save and Restore) vous permet de copier les paramètres
actuels des cartes et des associations dans un fichier externe (par exemple, sur un lecteur USB) pour les sauvegarder.
En cas de défaillance du disque dur, vous pouvez restaurer la plupart des anciens paramètres.
Le système sur lequel vous restaurez les paramètres de configuration réseau doit avoir une configuration identique à
celui sur lequel la sauvegarde a été effectuée.
REMARQUES :
l Seuls les paramètres des cartes (y compris ceux concernant les associations ANS et les réseaux locaux
virtuels) sont enregistrés. Les pilotes des cartes ne sont pas enregistrés.
l Effectuez une seule restauration à l’aide du script. La configuration pourrait être instable en cas de
restauration répétée.
l L’opération de restauration nécessite le même système d’exploitation que lorsque la configuration a été
enregistrée.
l Intel® PROSet pour le gestionnaire de périphériques Windows* doit être installé pour que le script
SaveRestore.ps1 fonctionne.
l
Pour les systèmes fonctionnant avec un SE en 64 bits, s'assurer d'exécuter la version 64 bits de
Windows PowerShell, et non la version 32 bits (x86), lors de l'exécution du script SaveRestore.ps1.
Syntaxe de ligne de commande
SaveRestore.ps1 –Action save|restore [-ConfigPath] [-BDF]
SaveRestore.ps1 prend en charge les options de ligne de commande suivantes :
Option
Description
-Action
Requis. Valeurs valides : save | restore.
L'option save enregistre les paramètres des cartes et des associations si ceux-ci sont différents des
paramètres par défaut. Lorsque vous restaurez le fichier de sauvegarde, tous les paramètres qui ne
sont pas contenus dans le fichier prennent leur valeur par défaut.
L'option restore restaure les paramètres.
-ConfigPath Facultatif. Spécifie le chemin et le nom de fichier du fichier principal d'enregistrement de la
configuration. S'ils ne sont pas spécifiés, il s'agit du chemin et du nom de fichier par défaut du script
(saved_config.txt).
-BDF
Facultatif. Les noms par défaut des fichiers de configuration sont saved_config.txt et Saved_
StaticIP.txt.
Si vous spécifiez -BDF lors d'une restauration, le script tente de restaurer la configuration en fonction
des valeurs de PCI Bus:Device:Function:Segment de la configuration enregistrée. Si vous avez
supprimé, ajouté ou déplacé une carte réseau vers un autre connecteur, il est possible que le script
applique les paramètres enregistrés à un périphérique différent.
REMARQUES :
l Si le système restauré n'est pas identique au système enregistré, il est possible que le script ne
restaure aucun paramètre lorsque l'option -BDF est spécifiée.
l Les périphériques de fonction virtuelle ne prennent pas en charge l'option -BDF.
l Si vous utilisez Windows pour définir les pourcentages NPar minimum et maximum de bande
passante, vous devez spécifier /bdf au cours d'un enregistrement et restaurer pour conserver
ces paramètres.
Exemples
Exemple d’enregistrement
Pour enregistrer les paramètres des cartes sur un périphérique à support amovible, procédez comme suit :
1. Ouvrez une invite de commande Windows PowerShell.
2. Recherchez le répertoire dans lequel se trouve le fichier SaveRestore.ps1 (habituellement c:\Program
Files\Intel\DMIX).
3. Entrez la commande suivante :
SaveRestore.ps1 –Action Save –ConfigPath e:\settings.txt
Exemple de restauration
Pour restaurer les paramètres des cartes à partir d’un fichier se trouvant sur un périphérique à support amovible,
procédez comme suit :
1. Ouvrez une invite de commande Windows PowerShell.
2. Recherchez le répertoire dans lequel se trouve le fichier SaveRestore.ps1 (habituellement c:\Program
Files\Intel\DMIX).
3. Entrez la commande suivante :
SaveRestore.ps1 –Action Restore –ConfigPath e:\settings.txt
Partitionnement NIC
Le partitionnement de carte réseau (NIC) (NPar) permet aux administrateurs réseau de créer plusieurs partitions pour
chaque port physique d'une carte réseau, et de définir différentes allocations de bande passante sur chaque partition.
Pour le réseau et le système d'exploitation, chaque partition apparaît comme un port physique distinct sur la carte. Ceci
facilite la réduction du nombre de ports de commutation et la complexité du câblage tout en préservant la
segmentation et l'isolation du réseau. De plus, l'allocation flexible de bande passante par partition permet une
utilisation efficace de la liaison.
NPar est disponible sous Linux et Windows Server, ainsi que sous les versions de Windows Server Core à partir de
2008 R2.
NPar prend un charge un maximum de 8 partitions sur les cartes suivantes.
l Carte Ethernet Intel® 10G 4P X710/I350 rNDC
l Carte Ethernet Intel® 10G 4P X710-k bNDC
l Carte Ethernet Intel® 10G 2P X710-k bNDC
l Carte Ethernet Intel® 10G X710-k bNDC
l Carte réseau convergent Intel® X710
REMARQUES :
l Les cartes réseau prennent en charge NPar en mode NIC (LAN) uniquement.
l Les technologies suivantes ne fonctionnent que sur la première partition de chaque port :
l PXE Boot
l iSCSIboot
l Paramètres de vitesse de liaison et de duplex
l Contrôle de flux
l Options de gestion de l’alimentation
l SR-IOV
l Traitement des NVGRE
l Les limitations de ressources sous Microsoft Windows peuvent affecter le nombre de ports affichés. Si
plusieurs cartes sont installées sur un système et que NPar ou NParEP est activé sur ces cartes, le
Gestionnaire de périphériques Windows peut ne pas afficher tous les ports.
l Sur un périphérique X710 dans un système Microsoft Windows Server 2008 R2 avec NParEP activé, le
pilote se charge uniquement sur les huit premières fonctions physiques. Le deuxième ensemble de
huit fonctions physiques s'accompagne du code 10 jaune d'erreur dans le Gestionnaire de
périphériques Windows. Il s'agit d'une limite du système d'exploitation.
Mode NParEP
Le mode NParEP est une combinaison de NPar et de PCIe ARI. Il augmente le nombre maximum de partitions à 16
par carte réseau.
Prise en charge de la plate-forme NParEP
Connecteur PCI Express
Plate-forme
Dell
Emplacement pour carte fille réseau pour
rack
1
2
3
4
C4130
oui
oui
R230
non non
R330
non non
R430
oui
oui
R530
oui
R530XD
oui
5
oui
oui
non non
oui
non
6
7
8
9
10
Connecteur PCI Express
Plate-forme
Dell
Emplacement pour carte fille réseau pour
rack
1
2
3
4
5
6
R630
oui
oui
oui
oui
R730
oui
oui
oui
R730XD
oui
oui
R830
oui
R930
oui
7
oui
oui
oui
oui oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui oui
T130
non non non non
T330
non non non oui
T430
non non oui
oui
oui
oui
T630
oui
oui
oui
oui oui
non oui
8
9
10
Connecteur mezzanine
Plate-forme Dell
Emplacement pour carte fille réseau lame B
C
FC430
FC630
oui
FC830
oui
M630
oui
M630 pour VRTX oui
M830
oui
M830 pour VRTX oui
Les plates-formes ou connecteurs pris en charge sont indiqués par un "oui". Mention « non » : non pris en charge.
Cellule vide : non applicable.
Configuration du mode NPar
Configuration du mode NPar depuis le gestionnaire de démarrage
Lorsque vous démarrez le système, appuyez sur la touche F2 pour afficher le menu System Setup (Configuration du
système). Sélectionnez Device Settings (Paramètres du périphérique) dans la liste sous le menu principal
Configuration du système, puis sélectionnez votre carte réseau dans la liste pour accéder au menu de configuration
du périphérique. Sélectionnez Device Level Configuration (configuration du niveau du périphérique) dans la liste
sous la page de configuration principale. Ceci affiche les paramètres de Virtualisation sous Device Level
Configuration (configuration du niveau du périphérique).
Il existe quatre options dans la liste déroulante Virtualization Mode (mode de virtualisation).
l None : la carte fonctionne normalement
l NPar : autorise jusqu'à 8 partitions sur la carte. Si vous sélectionnez le mode de virtualisation NPar, vous voyez
alors l'option d'activer le mode NParEP, qui étend le nombre de partitions par carte au total de 16 en associant
NPar avec PCIe ARI.
REMARQUES :
l Lorsqu'une carte réseau fonctionne en mode NPar, elle est limitée à 8 partitions au total. Une
carte à deux ports disposera de quatre partitions par port. Une carte à quatre ports disposera de
deux partitions par port.
l Le mode NParEP ne peut être activé que lorsque le mode NPar a été lui-même activé.
l Lorsqu'une carte réseau fonctionne en mode NParEP, elle est limitée à 16 partitions au total. Une
carte à deux ports disposera de huit partitions par port. Une carte à quatre ports disposera de
quatre partitions par port.
l
l
SR-IOV : active SR-IOV sur le port
NPar+SR-IOV : autorise jusqu'à 8 partitions (fonctions physiques) pour la carte et active SR-IOV.
REMARQUES :
l SR-IOV est limité à la partition racine de chaque port.
l Lorsqu'une carte fonctionne en mode NPar, les paramètres de virtualisation (SR-IOV)
s'appliquent à tous les ports de la carte et à toutes les partitions de chaque port. Les
modifications apportées aux paramètres de virtualisation sur un port sont appliqués à tous les
ports de la carte.
Lorsque vous avez terminé la sélection, cliquez sur le bouton Back (Retour) pour retourner à la page de
Configuration principale. Cliquez sur le nouvel élément intitulé NIC Partitioning Configuration (Configuration des
partitions de carte d'interface réseau) dans la liste de configuration pour passer à la page de Configuration des
partitions de la carte réseau, qui affiche la liste des partitions NPar (ou NParEP) de la carte.
La page Global Bandwidth Allocation permet de spécifier l'allocation de bande passante minimale et maximale
garantie pour chaque partition d'un port. Minimum TX Bandwidth est la bande passante de transmission de données
minimale garantie que la partition se verra allouer, en pourcentage de la vitesse totale de liaison du port physique. La
bande passante allouée n'est jamais inférieure au niveau spécifié ici. La plage de valeurs valides s'étend de :
1 à ((100 moins le nombre de partitions sur le port physique) plus 1).
Par exemple, si un port physique comporte 4 partitions, la plage serait :
1 à ((100 - 4) + 1 = 97)
Le pourcentage de bande passante maximale représente la largeur de bande d'émission maximale allouée à la
partition en pourcentage de la vitesse totale de liaison du port physique. La plage des valeurs acceptable va de 0 à
100. Cette valeur peut être utilisée comme limiteur si vous choisissez qu'une partition donnée ne doit pas pouvoir
consommer 100 % de la bande passante disponible d'un port. La somme de toutes les valeurs de bande passante
maximale n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port.
Cliquez sur le bouton Back (Retour) après avoir alloué la bande passante pour retourner à la page de configuration
des partitions de la carte réseau. Sur cette page, vous pouvez cliquer sur l'un des éléments de la liste Partition n
Configuration (Configuration de la partition n) sous Global Bandwidth Allocation (Affectation globale de la bande
passante). S'affiche alors une page d'information de configuration sur un port particulier. Vous pouvez afficher le mode
NIC, PCI ; l'ID de périphérique, l'adresse MAC et l'adresse MAC virtuelle (le cas échéant) de toutes les partitions d'un
port donné en cliquant sur les éléments de la liste de configuration de partition.
Lorsque vous avez terminé la configuration de toutes les partitions sur un port, retournez à la page principale
configuration, cliquez sur le bouton Finish, puis sur le bouton OK dans la boîte de dialogue Success (Saving Changes)
(Réussite (Enregistrement des modifications)).
Répétez le processus de configuration des partitions pour tous les ports de votre carte réseau.
REMARQUE : une fois NPar activé sur l'une des partitions d'un port, il apparaît comme activé pour toutes les
autres partitions de ce port. Si le premier paramètre de NPar incluait l'activation du mode NParEP, le mode
NParEP apparaîtra également activé pour toutes les autres partitions de ce port.
Après avoir configuré toutes les partitions de tous les ports de toutes les cartes réseau du serveur, retournez au menu
principal de configuration système, et cliquez sur le bouton Finish. Cliquez ensuite sur Yes pour quitter le menu de
configuration du système et redémarrer le système pour appliquer les modifications.
Lorsque le processus de démarrage du système est terminé, NPar reste activé jusqu'à ce que vous le désactiviez
explicitement en désactivant l'option lors d'une séquence de démarrage suivante.
Configuration du mode NPar sous Microsoft Windows*
Il est possible de configurer une partition de port de carte réseau dans Windows de la même manière qu'un port de
carte réseau. Exécutez le Gestionnaire de périphériques, sélectionnez et ouvrez les feuilles de propriétés des
partitions pour configurer les options.
Activation du protocole NPar
L'activation du protocole NPar se fait à partir de l'onglet Advanced (Avancé) de la feuille des propriétés Gestionnaire
de périphériques.
Options de démarrage
L'onglet Boot Options (Options de démarrage) vous avertit que le périphérique est en mode NPar et que les
paramètres de protocole de prédémarrage existants ne peuvent être configurés que sur la partition racine. Un clic sur
le bouton Properties (Propriétés) lance la feuille de propriétés de la partition racine de la carte réseau.
Options de gestion de l’alimentation
Les paramètres de gestion de l'alimentation ne sont autorisés que sur la première partition de chaque port physique.
Si vous sélectionnez l'onglet Power Management (Gestion de l'alimentation) dans la feuille de propriété du
Gestionnaire de périphériques lorsqu'une partition autre que la première est sélectionnée, la boîte de dialogue de
gestion de l'alimentation indique qu'il est impossible de configurer les paramètres de gestion de l'alimentation sur la
connexion en cours. Un clic sur le bouton Properties (Propriétés) lance la feuille de propriétés de la partition racine de
la carte réseau.
REMARQUE : les options de démarrage et les paramètres de gestion de l'alimentation ne sont disponibles que
sur la partition racine de chaque port physique.
Contrôle de flux
Il est possible de modifier les paramètres de contrôle de flux pour n'importe quelle partition d'un port donné.
Cependant, lorsqu'un changement est apporté aux paramètres de contrôle de flux d'une partition associée à un port
sur une carte réseau fonctionnant en mode NPar, la nouvelle valeur est appliquée à toutes les partitions de ce port.
Le contrôle de flux est accessible en sélectionnant l'onglet Advanced (Avancé) d'Intel® PROSet, puis le bouton
Properties (Propriétés), puis en sélectionnant Flow Control (Contrôle de flux) dans la liste des options de la liste
Settings (Paramètres) dans la boîte de dialogue affichée.
Identification des associations de ports
La boîte de dialogue d'informations sur le matériel des feuilles de propriétés d'Intel® PROSet facilite l'identification du
port physique associé à une partition donnée. Un bouton Identify Adapter (Identifier la carte) sur l'onglet Link Speed
(Vitesse de liaison) permet de faire clignoter le témoin lumineux ACK/Link du port associé à la partition active.
Configuration de la bande passante des partitions
La boîte de dialogue Bandwidth Configuration (Configuration de la bande passante) indique le port pour lequel les
paramètres sont en cours, au-dessus de la liste des partitions de ce port et de leurs allocations de bande passante
actuelles (Min%, Max%). Le bouton Bandwidth Configuration de l'onglet Link Speed (Vitesse de liaison) des feuilles
de propriétés d'Intel® PROSet permet d'accéder à la configuration de la bande passante des partitions.
La bande passante allouée à chaque partition du port n'est jamais inférieure à la valeur définie sous Min%. Pour
toutes les partitions d'un même port physique, le pourcentage de la bande passante minimale doit être réglé à zéro
pour toutes les partitions, ou la somme du pourcentage de bande passante minimale de toutes les partitions doit être
égale à 100, la plage des pourcentages de bande passante minimale étant comprise entre 1 et (100-n) %, où n
représente le nombre de partitions d'un port particulier. Par exemple, pour un port comportant quatre partitions
définies :
P1=0
P2=0
P1=10
P2=20
P1=20
P2=80
P3=0
P3=30
P3=0
P4=0
P4=40
P4=0
Correct Correct Incorrect
Les valeurs valides pour Max% sont la valeur du “Min%” de cette partition jusqu'à “100”. Par exemple, si la valeur
Min% de la Partition 1 est 50 %, la plage de valeur Max% de cette partition est “50”-“100”. Si vous paramétrez la valeur
Max% d'une partition pour dépasser 100 % en incrémentant la valeur à l'aide du spinner, une erreur s'affiche et la
valeur Max% est décrémentée jusqu'à 100 %. La somme des valeurs Max% de toutes les partitions d'un port donné est
illimitée.
Pour modifier la valeur de Min% ou de Max%, sélectionnez une partition dans la liste, et utilisez les flèches vers le haut
et vers le bas sous "Selected Partition Bandwidth Percentages" (Pourcentage de bande passante des partitions
sélectionnées).
Paramètres de vitesse de liaison et de duplex
Le paramètre de vitesse et de duplex d'un port donné est modifiable depuis n'importe quelle partition associée à ce
port. Cependant, du fait que toutes les partitions d'un port donné d'une carte fonctionnant en mode NPar partagent le
même module enfiché dans ce port, la modification du paramètre de vitesse et de duplex applique la nouvelle valeur à
toutes les partitions d'un même port physique.
La modification du paramètre de vitesse et de duplex d'un port sur une carte fonctionnant en mode NPar provoque le
rechargement du pilote pour chaque partition associée à ce port, ce qui peut entraîner la perte momentanée de la
liaison.
Diagnostics en ligne
Les diagnostics en ligne peuvent être effectués en mode NPar sans que la carte ne perde la liaison. Les diagnostics
suivants sont disponibles pour toutes les partitions d'un port donné lorsque la carte fonctionne en mode NPar :
l EEPROM
l Register (Registre)
l Test d'intégrité NVM
l Connexion
Diagnostics hors ligne
Les diagnostics hors ligne ne sont pas pris en charge lorsqu'une carte fonctionne en mode NPar. Les tests de
bouclage et les tests de câble hors ligne ne sont pas autorisés en mode NPar.
Règles d'agrégation NPar
Il ne peut pas exister deux partitions membres d'une agrégation ANS qui soient associées au même port physique. Si
vous essayez d'ajouter une partition à une agrégation existante au moyen de l'onglet Teaming (Agrégation de cartes)
des feuilles de propriétés d'Intel® PROSet pour une carte réseau fonctionnant en mode NPar, le système vérifie si la
partition à ajouter est associée au même port physique qu'un membre préexistant de l'agrégation.
Lorsqu'une carte est ajoutée à une association, la modification des paramètres de la carte et de l'association peut
entraîner une perte temporaire de la connectivité.
Virtualisation
Les paramètres de virtualisation (Virtual Machine Queues et SR-IOV) sont accessibles dans les feuilles de propriétés
d'Intel® PROSet en sélectionnant l'onglet Avancé, puis "Virtualisation" dans la liste des paramètres.
Lorsqu'une carte fonctionne en mode NPar, seule la première partition de chaque port physique peut être configurée
au moyen des paramètres de virtualisation.
REMARQUE : Microsoft* Hyper-V* doit être installé sur le système pour que les paramètres de virtualisation
soient disponibles. En l'absence d'Hyper-V*, l'onglet Virtualisation de PROSet ne s'affiche pas.
Configuration du mode NPar sous Linux*
Reportez-vous au fichier Readme du pilote pour Linux pour davantage d'informations sur l'utilisation.
Sortie du mode NPar
Le mode NPar est désactivé dans le menu de configuration du système lors d'un redémarrage.
Redémarrez le système et appuyez sur la touche F2 pour afficher le menu System Setup. Sélectionnez Device
Settings (Paramètres du périphérique) dans la liste sous le menu principal Configuration du système, puis
sélectionnez votre carte réseau dans la liste pour accéder au menu de configuration du périphérique. Sélectionnez
Device Level Configuration (configuration du niveau du périphérique) dans la liste sous la page de configuration
principale. Ceci affiche les paramètres de Virtualisation sous Device Level Configuration (configuration du niveau du
périphérique).
Dans la liste Virtualization Mode (Mode de virtualisation), sélectionnez "None". Cliquez ensuite sur le bouton Back
pour retourner à la page de configuration principale. Puis cliquez sur le bouton Finish pour enregistrer les
modifications et redémarrer le système. NPar n'est plus actif après ce redémarrage.
REMARQUE : lorsque NPar a été désactivé et que le redémarrage est terminé, tous les autres paramètres
associés à la virtualisation, tels que NParEP ou SR-IOV sont également désactivés.
Virtualisation réseau à l'aide de l'Encapsulation générique de routage
(Generic Routing Encapsulation, NVGRE)
La virtualisation réseau à l'aide de l'Encapsulation générique de routage (Generic Routing Encapsulation, NVGRE)
augmente l'efficacité du routage du trafic réseau dans un environnement virtualisé ou de Cloud. Certaines cartes
réseau Ethernet Intel® effectuent la virtualisation réseau en utilisant le traitement Encapsulation générique de routage
(NVGRE), la délestant ainsi du système d'exploitation. Cette fonctionnalité réduit le taux d'utilisation de l'UC.
REMARQUE : lorsqu'un port est en mode NPar, NVGRE (le paramètre Délestage de tâche encapsulée) est
disponible uniquement sur la première partition du port.
Réveil à distance
La fonction de réveil à distance permet de sortir votre serveur de l'état de veille ou hors tension. Si la fonction Wake On
LAN est activée, lorsque votre système est mis hors tension, l'interface réseau utilise l'énergie de la mise en veille et
surveille les paquets spécialement conçus. Si elle reçoit un tel paquet, elle réveille le serveur.
Advanced Configuration and Power Interface (ACPI)
L’interface ACPI prend en charge de nombreux états d’alimentation. Chaque état représente un niveau d’alimentation
différent, de l’alimentation intégrale jusqu’à la désactivation complète de l’alimentation, chaque état intermédiaire
comportant différents niveaux d’alimentation partielle.
États de l’alimentation ACPI
État de
Description
l’alimentation
S0
Sous tension et entièrement fonctionnel
S1
Le système est en mode d’économie d’énergie (mode de veille). L’horloge de l’unité centrale est
arrêtée, mais la mémoire vive est alimentée et actualisée.
S2
Similaire à l’état S1, mais l’alimentation de l’unité centrale est coupée.
S3
Mode d’attente (suspend to RAM). La plupart des composants sont arrêtés. La mémoire vive reste
fonctionnelle.
S4
Mode de veille prolongée (suspend to disk). Le contenu de la mémoire est transféré sur le disque dur
puis rechargé en mémoire vive lorsque le système est réveillé.
S5
Hors tension
Cartes prises en charge
Toutes les cartes de cette version prennent en charge la fonction Wake On LAN. Les cartes suivantes la prennent en
charge sur le port A :
l Carte réseau Intel® Gigabit 2P I350-t (port A uniquement)
l Carte réseau Intel® Gigabit 4P I350-t (port A uniquement)
REMARQUES :
l Les systèmes ne prennent pas tous en charge tous les paramètres de réveil. Il est possible que certains
paramètres du BIOS ou du système d’exploitation doivent être activés pour que le système se réveille.
Cela est particulièrement vrai avec le réveil depuis un état S5 (appelé également réveil depuis un état
d’arrêt).
l Lorsqu'un port fonctionne en mode NPar, WoL est disponible uniquement sur la première partition de
chaque port.
Activation de la fonction Wake From Power Off
Si vous souhaitez réveiller votre système à l'état hors tension, vous devez activer la fonction Wake From Power Off
dans les paramètres de configuration du système.
1. Allez à Configuration du système.
2. Choisissez un port et passez à la configuration.
3. Spécifiez Wake on LAN.
Modèles d’adresse de sortie de veille
Le réveil à distance peut être déclenché par différents types de paquets pouvant être sélectionnés par l’utilisateur, et
n’est pas limité au format du paquet magique. Pour de plus amples informations sur les types de paquets pris en
charge, reportez-vous à la section Paramètres du système d’exploitation.
La capacité de sortie de veille des cartes Intel est basée sur des modèles envoyés par le système d’exploitation. Vous
pouvez configurer le pilote avec les paramètres suivants en utilisant Intel® PROSet pour Windows. Pour les systèmes
Linux*, la fonctionnalité WOL est possible via l’utilitaire ethtool*. Pour de plus amples informations sur ethtool, veuillez
consulter le site Web suivant : http://sourceforge.net/projects/gkernel.
l Wake on Directed Packet : accepte seulement les modèles contenant l’adresse Ethernet de la carte dans l’entête Ethernet, ou contenant l’adresse IP affectée à la carte dans l’en-tête IP.
l Wake on Magic Packet : accepte seulement les modèles contenant 16 répétitions consécutives de l’adresse
MAC de la carte.
l Wake on Directed Packet et Wake on Magic Packet : acceptent les modèles Wake on Directed Packet et Wake
on Magic Packet.
Le paramètre "Wake on Directed Packet" permet également à la carte d’accepter des modèles du protocole de
résolution d’adresse ARP (Address Resolution Protocol) interrogeant l’adresse IP affectée à la carte. Si plusieurs
adresses IP sont affectées à une carte, le système d’exploitation peut demander un réveil sur modèles ARP
interrogeant l’une des adresses affectées. Cependant, le réveil de la carte ne se produira qu’en réponse à des
paquets ARP interrogeant la première adresse IP de la liste, généralement la première adresse affectée à la carte.
Problèmes d’installation physique
Connecteur
Certaines cartes mères prennent uniquement en charge le réveil à distance (ou le réveil à distance depuis l’état S5) à
partir d’un connecteur particulier. Consultez la documentation fournie avec votre système pour obtenir des détails sur
la prise en charge du réveil à distance.
Alimentation
Les cartes réseau Intel PRO les plus récentes utilisent une tension de 3,3 volts et certaines une tension de 12 volts.
Elles sont indexées pour s’adapter dans ces deux types de connecteurs.
Le bloc d’alimentation d’attente de 3,3 volts doit être en mesure de fournir au moins 0,2 A à chaque carte Intel PRO
installée. Vous pouvez désactiver la fonctionnalité de réveil à distance des cartes à l’aide de l’utilitaire BootUtil afin de
réduire la consommation à 50 milliampères (0,05 A) par carte.
Paramètres du système d’exploitation
Produits Microsoft Windows
Windows Server prend en charge l’interface ACPI. Ces systèmes d’exploitation ne prennent pas en charge le réveil à
distance d’un état hors tension (S5). Seul le réveil du mode de veille est pris en charge. Lors de la fermeture du
système, les périphériques ACPI sont arrêtés, y compris les cartes réseau Intel PRO. Cela désarme la fonctionnalité de
réveil à distance des cartes. Cependant, sur certains ordinateurs compatibles ACPI, le BIOS peut comporter un
paramètre vous permettant de contourner le système d’exploitation et de réveiller les cartes d’un état S5. Si le réveil
d’un état S5 n’est pas pris en charge dans la configuration de votre BIOS, seul un réveil du mode de veille est possible
en utilisant ces systèmes d’exploitation sur des ordinateurs ACPI.
L’onglet Power Management (Gestion de la consommation) d’Intel® PROSet comprend, pour certaines cartes, un
paramètre appelé Wake on Magic Packet d’un état hors tension. Pour autoriser explicitement le réveil depuis la
fermeture avec un paquet magique en mode APM, cochez cette case pour activer ce paramètre. Consultez l’aide
d’Intel® PROSet pour de plus amples informations.
Dans les versions de Windows compatibles ACPI, les paramètres avancés d’Intel® PROSet comprennent un
paramètre appelé Wake on Settings. Ce paramètre permet de contrôler le type de paquets utilisés pour réveiller le
système à partir du mode de veille. Consultez l’aide d’Intel® PROSet pour de plus amples informations.
Si Intel® PROSet n'est pas installé, vous devez procéder comme suit :
1. Ouvrez le Gestionnaire de périphériques. Cliquez sur l'onglet Power Management (Gestion de la consommation),
cochez « Allow this device to bring the computer out of standby » (Autoriser ce périphérique à sortir l'ordinateur du
mode Veille).
2. Sur l'onglet Advanced (Avancé), activez la fonction « Wake on Magic Packet ».
Pour le réveil d'un état S5 sans Intel® PROSET, sur l'onglet Avancé, activez la fonction "PME".
Autres systèmes d’exploitation
Le réveil à distance est aussi pris en charge par Linux.
Optimisation des performances
Vous pouvez configurer les paramètres avancés de la carte réseau Intel pour optimiser la performance du serveur.
Les exemples ci-dessous fournissent des instructions pour trois modèles d’utilisation de serveur :
l Optimisation pour une réponse rapide et une faible latence – utile pour les serveurs vidéo, audio et HPCC
(High Performance Computing Cluster)
l Optimisation du débit – utile pour les serveurs de sauvegarde/récupération de données et les serveurs de
fichiers
l Optimisation du processeur – utile pour les serveurs d’applications, Web, de messagerie et de bases de
données
REMARQUES :
l Les recommandations ci-dessous sont des consignes et doivent être traitées en tant que telles. Des
facteurs additionnels tels que les applications installées, le type de bus, la topologie du réseau et le
système d’exploitation affectent également la performance du système.
l Ces réglages doivent être faits par un administrateur réseau très compétent. Il n’est pas garanti qu’ils
améliorent les performances. Tous les paramètres indiqués ici ne sont pas nécessairement disponibles
à partir du BIOS, du système d’exploitation ou du pilote réseau. Les utilisateurs de Linux doivent
consulter le fichier README du package de pilotes Linux pour connaître les détails de l’amélioration
des performances spécifiques à Linux.
l Si vous utilisez un logiciel de test de performance, consultez la documentation de ce logiciel pour
obtenir des résultats optimaux.
1. Installez la carte dans un logement de bus PCI Express.
2. Utilisez le câblage fibre adapté à la carte dont vous disposez.
3. Activez les paquets étendus, s’il est possible de configurer aussi les autres composants du réseau pour ce
paramètre.
4. Augmentez le nombre de ressources TCP et socket par rapport à la valeur par défaut. Pour les systèmes sous
Windows, nous n’avons identifié aucun paramètre système autre que la taille de fenêtre TCP pour améliorer
réellement les performances.
5. Augmentez la taille d’allocations des ressources du pilote (descripteurs d’émission/de réception). Cependant la
plupart des schémas de trafic TCP fonctionnent mieux avec la description d’émission à sa valeur par défaut et
le descripteur de réception à sa valeur minimale.
Pour des informations spécifiques sur les paramètres avancés, reportez-vous aux sections Paramètres avancés pour
les pilotes Windows* et Pilote Linux* pour les cartes réseau Intel® pour serveurs.
Optimisation pour une réponse rapide et une faible latence
l
l
l
l
l
l
Minimisez ou désactivez le taux de gestion des interruptions.
Désactivez le délestage de la segmentation TCP.
Désactivez les paquets étendus.
Augmentez les descripteurs de transmission.
Augmentez les descripteurs de réception.
Augmentez les files RSS
Optimisation du débit
l
l
l
l
Activez les paquets étendus.
Augmentez les descripteurs de transmission.
Augmentez les descripteurs de réception.
Sur les systèmes qui prennent en charge NUMA, paramétrez le nœud NUMA privilégié (Preferred NUMA Node)
sur chaque carte pour parvenir à un meilleur dimensionnement sur l’ensemble de ces nœuds.
Optimisation du processeur
l
l
l
l
Maximisez le taux de gestion des interruptions.
Conservez le nombre de descripteurs de réception par défaut ; évitez de configurer un grand nombre de
descripteurs de réception.
Diminuez les files RSS.
En environnement Hyper-V, diminuez le nombre Maxi de processeurs RSS.
Pilotes Windows
Installation des pilotes Windows*
Installation des pilotes
Les pilotes peuvent être installés à l’aide de l’Assistant Ajout de nouveau matériel détecté.
Installation des pilotes sous Windows Server à l’aide de l’Assistant Ajout de nouveau
matériel détecté
REMARQUES :
l lorsque Windows Server détecte une nouvelle carte, il tente de trouver un pilote Windows adéquat déjà
installé sur l’ordinateur. Si le système d’exploitation trouve un pilote, il l’installe automatiquement sans
aucune intervention de l’utilisateur. Cependant, il est possible que le pilote Windows ne soit pas le plus
récent et qu’il n’offre que des fonctionnalités de base. Mettez le pilote à jour pour pouvoir accéder à
toutes les fonctionnalités de base du pilote.
l La fonction de restauration de pilote de Windows Server (disponible sur l'onglet Driver (Pilote) de la
boîte de dialogue Propriétés de la carte) ne fonctionnera pas correctement si une association de cartes
ou Intel® PROSet est présent sur le système.
Avant d’utiliser cette fonction, utilisez Intel® PROSet pour supprimer les associations, et ensuite pour
supprimer Intel® PROSet, utilisez Programs and Features (Programmes et fonctionnalités) dans le
panneau de configuration de Windows.
l L'utilisation de Microsoft Windows Update pour mettre à niveau vos pilotes de réseau Ethernet ou les
mettre à niveau vers la version antérieure n'est pas prise en charge. Veuillez télécharger le dernier
package de pilote à l'adresse http://www.dell.com/support.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
Installez la carte dans l’ordinateur et démarrez-le.
Lorsque Windows détecte la nouvelle carte, l’Assistant Ajout de nouveau matériel détecté démarre.
Décompressez le package de pilotes Dell à un emplacement que vous spécifiez.
Ouvrez la fenêtre d’invite de commande DOS et accédez à l'emplacement spécifié.
Tapez "setup -a" à l’invite de commande pour extraire les pilotes.
Tapez le chemin d’accès du répertoire où vous souhaitez enregistrer les fichiers. Le chemin d’accès par défaut
est c:\Program Files\Intel\Drivers.
L’écran de bienvenue de l’assistant vous demande si vous voulez vous connecter à Windows Update pour
rechercher le logiciel.
Cliquez sur Non, pas maintenant.
Cliquez sur Next (Suivant).
Cliquez sur Installer à partir d’une liste ou d’un emplacement spécifique, puis cliquez sur Suivant.
Dans l’écran suivant, tapez le chemin d’accès du répertoire où vous avez enregistré les fichiers de pilotes et
cliquez sur Suivant.
Windows recherche un pilote. Lorsque la recherche est terminée, un message indiquant que le pilote a été
trouvé s’affiche.
Cliquez sur Next (Suivant).
Les fichiers requis sont copiés sur votre ordinateur. L’Assistant affiche un message indiquant que l’opération
est terminée.
Cliquez sur Finish (Terminer).
Si Windows ne détecte pas la carte, consultez la rubrique Dépannage.
Installation des pilotes à partir de la ligne de commande Windows
Vous pouvez également utiliser la ligne de commande Windows pour installer les pilotes. L'utilitaire d'installation des
pilotes (setup64.exe) permet une installation sans assistance des pilotes.
Pour des informations détaillées, reportez-vous à la section Installation par ligne de commande pour les pilotes de
base et Intel® PROSet.
Installation de cartes supplémentaires
Lorsque vous utilisez l’Assistant Ajout de nouveau matériel détecté pour installer des pilotes, Windows installe d’abord
le pilote de la première carte, puis installe automatiquement les pilotes des autres cartes.
Il n’existe aucune instruction spécifique relative à l’installation de pilotes de cartes non Intel (pour l’agrégation de
cartes de différents fabricants par exemple). Suivez les instructions d’installation de la carte.
Mise à jour des pilotes
REMARQUE : si vous mettez à jour le pilote de la carte et que vous utilisez Intel® PROSet, vous devez
également mettre à jour Intel® PROSet. Pour mettre à jour l'application, double-cliquez sur setup64.exe et
veillez à ce que l'option Intel® PROSet pour le Gestionnaire de périphériques Windows soit cochée.
Les pilotes peuvent être mis à jour à l'aide de l'assistant de mise à jour des pilotes de périphérique.
Mise à jour de Windows Server à l’aide du Gestionnaire de périphériques
1. Décompressez le package de pilotes Dell à un emplacement que vous spécifiez.
2. Dans le Panneau de configuration, double-cliquez sur l’icône System (Système) et cliquez sur Device
Manager (Gestionnaire de périphériques).
3. Double-cliquez sur Network Adapters (Cartes réseaux) et cliquez avec le bouton droit de la souris sur la carte
Intel pour afficher le menu.
4. Cliquez sur l’option de menu Update Driver (Mettre à jour le pilote). La page Mettre à jour le pilote logiciel
s’affiche.
5. Sélectionnez Browse my computer for driver software (Rechercher un pilote logiciel sur mon ordinateur).
6. Entrez le chemin d’accès au lecteur spécifié ou naviguez jusqu’à son emplacement.
7. Sélectionnez Next (Suivant).
8. Lorsque le système a trouvé le fichier et l’a installé, cliquez sur Close (Fermer).
Suppression des pilotes
Vous devez désinstaller le pilote Intel si vous retirez définitivement toutes les cartes Intel ou si vous devez effectuer
une installation propre de nouveaux pilotes. Cette procédure supprime le pilote pour toutes les cartes Intel l’utilisant,
de même qu’Intel® PROSet et Advanced Networking Services.
ATTENTION : la suppression d’un pilote de carte affecte l’ensemble du trafic réseau utilisant la carte.
REMARQUE : avant de supprimer un pilote, assurez-vous que la carte ne fait pas partie d’une association. Si la
carte est membre d’une association, retirez-la de l’association à l’aide d’Intel® PROSet.
Pour désinstaller les pilotes et le logiciel sous Windows Server, sélectionnez Intel(R) Network Connections dans
l’application Programmes et fonctionnalités du Panneau de configuration. Pour désinstaller les pilotes de la carte,
double-cliquez dessus ou cliquez sur le bouton Supprimer.
REMARQUE : le Gestionnaire de périphériques ne doit pas être utilisé pour désinstaller les pilotes. Si le
Gestionnaire de périphériques est utilisé pour désinstaller les pilotes, les pilotes de base ne pourront pas être
réinstallés en utilisant l'option Modifier de la fonctionnalité Ajouter/Supprimer des programmes du Panneau de
configuration.
Désactivation temporaire d’une carte
Si vous testez votre ordinateur pour identifier les problèmes de réseau, notamment dans un environnement comportant
plusieurs cartes, il est recommandé de désactiver temporairement les cartes.
1. Dans le Panneau de configuration, double-cliquez sur l’icône System (Système), sélectionnez l’onglet
Hardware (Matériel) et cliquez sur le bouton Device Manager (Gestionnaire de périphériques).
2. Cliquez avec le bouton droit de la souris sur l’icône de la carte que vous voulez désactiver, puis sur Disable
(Désactiver).
3. Cliquez sur Yes (Oui) dans la boîte de dialogue de confirmation.
Pour activer la carte, cliquez sur son icône avec le bouton droit, puis cliquez sur Enable (Activer).
REMARQUE : vous pouvez également désactiver une carte en cliquant avec le bouton droit sur son icône dans
le Panneau de configuration Network Connections (Connexions réseau) et en sélectionnant Disable
(Désactiver).
Remplacement d’une carte
Après installation d’une carte sur un connecteur spécifique, Windows traite toute autre carte du même type comme
étant une nouvelle carte. De même, si vous supprimez la carte installée et l’insérez dans un connecteur différent,
Windows la détecte comme étant une nouvelle carte. Veillez à suivre attentivement les instructions ci-dessous.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
Ouvrez Intel® PROSet.
Si la carte fait partie d’une association, supprimez la carte de l’association.
Mettez le serveur hors tension et débranchez le cordon d’alimentation.
Déconnectez le câble réseau de la carte.
Ouvrez le capot et retirez la carte.
Introduisez la carte de remplacement. (Utilisez le même emplacement pour éviter que Windows considère qu’il
s’agit d’une nouvelle carte.)
Reconnectez le câble réseau.
Fermez le capot, rebranchez le cordon d’alimentation et remettez le serveur sous tension.
Ouvrez Intel® PROSet et vérifiez que la carte est disponible.
Si l’ancienne carte faisait partie d’une association, suivez les instructions de la section Configuration des
associations ANS pour ajouter la nouvelle carte à l’association.
Si l’ancienne carte comportait un réseau VLAN, suivez les instructions de la section Création de réseaux VLAN
IEEE pour étiqueter la nouvelle carte.
Suppression d’une carte
Avant de supprimer physiquement une carte du système, veillez à effectuer les opérations suivantes :
1. Utilisez Intel® PROSet pour supprimer la carte de toute association ou de tout réseau VLAN.
2. Désinstallez les pilotes de carte.
Lorsque ces opérations ont été effectuées, éteignez l’ordinateur, débrancher le câble et retirez la carte.
Utilisation des fonctionnalités avancées
Vous devez utiliser Intel® PROSet pour configurer les fonctionnalités avancées telles que l’agrégation de cartes et les
réseaux locaux virtuels. Les paramètres peuvent être configurés dans l'onglet Avancé d'Intel® PROSet pour le
Gestionnaire de périphériques Windows. Certains paramètres peuvent également être configurés dans la boîte de
dialogue Propriétés de la carte du Gestionnaire de périphériques.
Utilisation d’Intel® PROSet pour le Gestionnaire de
périphériques Windows*
Présentation
Intel® PROSet pour le Gestionnaire de périphériques Windows* est une extension du Gestionnaire de périphériques
Windows. Lorsque vous installez le logiciel Intel® PROSet, des onglets supplémentaires sont ajoutés
automatiquement aux cartes réseau prises en charge dans le Gestionnaire de périphériques. Ces fonctionnalités vous
permettent de tester et de configurer les cartes réseau Intel.
Installation d’Intel® PROSet pour le Gestionnaire de périphériques
Windows
L'installation d'Intel® PROSet pour le Gestionnaire de périphériques Windows suit le même processus que pour
l'installation des pilotes.
REMARQUES :
l vous devez disposer de droits d’administrateur pour installer ou utiliser Intel® PROSet pour le
Gestionnaire de périphériques Windows.
l La mise à niveau de PROSet pour le Gestionnaire de périphériques Windows peut prendre quelques
minutes.
1. Dans l’écran d’exécution automatique, cliquez sur Install Base Drivers and Software (Installer les pilotes de
base et le logiciel).
REMARQUE : vous pouvez également exécuter setup64.exe à partir des fichiers téléchargés sur le site
de l'Assistance technique.
2. Suivez les instructions de l’assistant d’installation jusqu’à ce que la page Custom Setup (Configuration
personnalisée) s’affiche.
3. Sélectionnez les fonctionnalités à installer.
4. Suivez les instructions pour terminer l’installation.
Si Intel® PROSet pour le Gestionnaire de périphériques Windows a été installé sans la prise en charge ANS, vous
pouvez installer cette dernière en cliquant sur Install Base Drivers and Software (Installer les pilotes de base et le
logiciel) dans l'écran d'exécution automatique, ou en exécutant setup64.exe et en sélectionnant l'option Modify
(Modifier) lorsque vous y êtes invité. Dans la fenêtre Intel® Network Connection, sélectionnez Advanced Network
Services (Services réseau avancés), puis cliquez sur Next (Suivant) pour continuer avec l’assistant d’installation.
Utilisation d’Intel® PROSet pour le Gestionnaire de périphériques
Windows
La fenêtre principale d’Intel® PROSet pour le Gestionnaire de périphériques Windows est similaire à celle de
l’illustration ci-dessous. Pour de plus amples informations sur les fonctionnalités des onglets Intel personnalisés,
reportez-vous à l’aide en ligne intégrée à la boîte de dialogue Propriétés.
L’onglet Link Speed (Vitesse de liaison) vous permet de modifier la vitesse et le mode duplex de la carte, d’exécuter
des diagnostics et d’utiliser la fonctionnalité d’identification de carte.
L’onglet Advanced (Avancé) permet de modifier les paramètres avancés de la carte. Ces paramètres varient en
fonction du type et du modèle de la carte.
L’onglet Teaming (Agrégation de cartes) permet de créer, modifier et supprimer des associations de cartes. Pour que
cet onglet soit disponible et pour pouvoir utiliser la fonctionnalité, vous devez installer Advanced Network Services.
Reportez-vous à la section Installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows pour
davantage d’informations.
L’onglet VLANs permet de créer, modifier et supprimer des réseaux locaux virtuels. Pour que cet onglet soit disponible
et pour pouvoir utiliser la fonctionnalité, vous devez installer Advanced Network Services. Reportez-vous à la section
Installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows pour davantage d’informations.
L’onglet Boot Options (Options de démarrage) vous permet de configurer les paramètres d’Intel® Boot Agent pour la
carte.
REMARQUE : cet onglet n’est pas disponible si Intel® Boot Agent n’est pas activé sur la carte.
L’onglet Power Management (Gestion de la consommation) vous permet de configurer les paramètres d’alimentation
de la carte.
Configuration des associations ANS
La fonctionnalité Associations ANS du composant Intel Advanced Network Services (iANS) vous permet de tirer parti
de plusieurs cartes d’un système en les regroupant. Les associations ANS peuvent utiliser des fonctionnalités telles
que l’équilibrage de la charge et la tolérance aux pannes pour optimiser le débit et la fiabilité.
Avant de pouvoir configurer des associations ANS sous Windows*, vous devez installer le logiciel Intel® PROSet.
Reportez-vous à la section Installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows pour
davantage d’informations.
REMARQUES :
l NLB ne fonctionnera pas si l’équilibrage de la charge de réception (RLB) est activé. En effet, NLB et
iANS tentent tous les deux de configurer l’adresse MC multicast du serveur et il en résulte une
discordance au niveau de la table ARP.
l l’association de la carte réseau Intel® 10 Gigabit AF DA Dual Port pour serveurs est prise en charge
uniquement avec des cartes de types et de modèles similaires ou avec des commutateurs utilisant une
connexion Direct Attach.
Création d’une association
1. Ouvrez le Gestionnaire de périphériques Windows.
2. Développez Network Adapters (Cartes réseau).
3. Double-cliquez sur l’une des cartes qui fera partie de l’association.
La boîte de dialogue Propriétés de la carte s’affiche.
4. Cliquez sur l’onglet Teaming (Agrégation de cartes).
5. Cliquez sur Team with other adapters (Associer avec d’autres cartes).
6. Cliquez sur New Team (Nouvelle association).
7. Tapez le nom de l’association et cliquez sur Next (Suivant).
8. Sélectionnez les cases à cocher des cartes que vous voulez inclure à l’association et cliquez sur Next
(Suivant).
9. Sélectionnez un mode d’association et cliquez sur Next (Suivant).
Pour de plus amples informations sur les types d’association, consultez la rubrique Configuration de
l’agrégation de cartes.
10. Cliquez sur Finish (Terminer).
La fenêtre Propriétés de l’association contenant les propriétés et les paramètres de l’association apparaît.
Lorsque l’association est créée, elle apparaît sous la forme d’une carte virtuelle dans la catégorie Cartes réseau de la
fenêtre Gestion de l’ordinateur. Le nom de l’association précède le nom de toutes les cartes qui font partie de
l’association.
REMARQUE : pour configurer des réseaux locaux virtuels dans une association, vous devez tout d’abord créer
l’association.
Ajout/suppression d’une carte d’une association existante
REMARQUE : un membre doit être supprimé à l’association lorsque la liaison est désactivée. Reportez-vous
aux notes de configuration de la section Agrégation de cartes pour davantage d’informations.
1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre
Gestion de l’ordinateur.
2. Cliquez sur l’onglet Paramètres.
3. Cliquez sur l’onglet Modify Team (Modifier l’association), puis sur l’onglet Adapters (Cartes).
4. Sélectionnez les cartes qui feront partie de l’association.
l Sélectionnez la case à cocher des cartes que vous voulez ajouter à l’association.
l Désélectionnez la case à cocher des cartes que vous voulez supprimer de l’association.
5. Cliquez sur OK.
Renommer une association
1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre
Gestion de l’ordinateur.
2. Cliquez sur l’onglet Paramètres.
3. Cliquez sur l’onglet Modify Team (Modifier l’association), puis sur l’onglet Name (Nom).
4. Tapez le nouveau nom de l’association et cliquez sur OK.
Suppression d’une association
1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre
Gestion de l’ordinateur.
2. Cliquez sur l’onglet Paramètres.
3. Sélectionnez l’association que vous voulez supprimer, puis cliquez sur Remove Team (Supprimer
l’association).
4. Cliquez sur Yes (Oui) lorsque vous y êtes invité.
REMARQUE : si vous avez défini un réseau local virtuel ou des priorités QS sur une carte membre d’une
association, il se peut que vous deviez redéfinir ces fonctionnalités une fois que le mode autonome est rétabli
sur la carte.
Configuration des réseaux locaux virtuels (VLAN) IEEE
Avant de pouvoir configurer des réseaux VLAN sous Windows*, vous devez installer le logiciel Intel® PROSet.
Reportez-vous à la section Installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows pour
davantage d’informations.
Un maximum de 64 réseaux VLAN peut être utilisé sur un serveur.
ATTENTION :
l Les réseaux locaux virtuels ne peuvent être utilisés pour des associations contenant des cartes
réseau non Intel.
l Utilisez Intel® PROSet pour ajouter ou supprimer un réseau local virtuel. N’utilisez pas la boîte de
dialogue Connexions réseau et accès à distance pour activer ou désactiver des réseaux locaux
virtuels. Dans ce cas, le pilote de réseau VLAN ne sera pas correctement activé ou désactivé.
REMARQUES :
l Si vous comptez utiliser des associations et des réseaux locaux virtuels simultanément, veuillez
configurer préalablement les associations.
l Si vous modifiez un paramètre sur l'onglet Avancé de l'un des VLAN, les paramètres de tous les VLAN
qui utilisent ce port sont également modifiés.
Configuration d’un réseau VLAN étiqueté IEEE
1. Dans la fenêtre des propriétés de carte, cliquez sur l’onglet VLANs.
2. Cliquez sur Nouveau.
3. Tapez le nom et numéro d’ID du réseau VLAN que vous créez.
L’ID du réseau local virtuel doit correspondre à l’ID du réseau local virtuel du commutateur. La valeur peut être
comprise entre 1 et 4 094, bien que le commutateur puisse ne pas prendre autant de valeurs. Le nom est
purement informatif et ne doit donc pas nécessairement correspondre à celui du commutateur. Le nom peut
contenir jusqu’à 256 caractères.
REMARQUE : les ID de VLAN 0 et 1 sont souvent réservés pour d’autres utilisations.
4. Cliquez sur OK.
Le réseau VLAN apparaîtra sous Cartes réseau dans la fenêtre Gestion de l’ordinateur.
Effectuez ces opérations pour chacune des cartes que vous voulez ajouter à un réseau VLAN.
REMARQUE : si vous configurez des réseaux VLAN dans une association, l’icône de l’objet de l’association du
Panneau de configuration Réseau indiquera que l’association est déconnectée. Vous ne serez pas en mesure
de modifier les paramètres TCP/IP comme l’adresse IP ou le masque de sous-réseau. Vous pourrez toutefois
configurer l’association (ajouter ou supprimer des cartes membres, modifier le type d’association, etc.) via le
Gestionnaire de périphériques.
Configuration d’un VLAN non étiqueté
Un seul VLAN non étiqueté peut être configuré par carte ou association.
REMARQUE : il n’est possible de créer un VLAN non étiqueté que s’il existe déjà au moins un VLAN étiqueté.
1.
2.
3.
4.
Dans la fenêtre des propriétés de carte, cliquez sur l’onglet VLANs.
Cliquez sur Nouveau.
Cochez la case Untagged VLAN (Réseau VLAN non étiqueté).
Tapez le nom du réseau VLAN que vous créez.
Le nom est purement informatif et ne doit donc pas nécessairement correspondre à celui du commutateur. Il
est limité à 256 caractères.
5. Cliquez sur OK.
Suppression d’un VLAN
1. Cliquez sur l’onglet VLANs et sélectionnez le réseau que vous voulez supprimer.
2. Cliquez sur Remove (Supprimer).
3. Cliquez sur Yes (Oui) pour confirmer.
Suppression des associations fantômes et des VLAN fantômes
Si vous enlevez physiquement toutes les cartes faisant partie d’une association ou d’un VLAN du système sans les
supprimer d’abord dans le Gestionnaire de périphériques, une association fantôme ou un VLAN fantôme s’affichent
dans le Gestionnaire de périphériques. Il existe deux méthodes permettant de supprimer une association fantôme ou
un VLAN fantôme.
Suppression de l’association fantôme ou du VLAN fantôme à l’aide du Gestionnaire
de périphériques
Suivez ces instructions pour supprimer une association fantôme ou un VLAN fantôme à l’aide du Gestionnaire de
périphériques :
1. Dans le Gestionnaire de périphériques, double-cliquez sur l’association fantôme ou le VLAN fantôme.
2. Cliquez sur l’onglet Paramètres.
3. Sélectionnez Supprimer l’association ou Supprimer le VLAN.
Suppression de l’association fantôme ou du VLAN fantôme à l’aide du script
savresdx.vbs
Pour Windows Server, le script savresdx.vbs se trouve dans le package de mise à jour du pilote, dans le répertoire
WMI du dossier Windows approprié. Dans le cadre d'invite de commande DOS, saisissez : "cscript savresdx.vbs
removephantoms".
Prévention de la création de périphériques fantômes
Pour empêcher la création de périphériques fantômes, veillez à exécuter ces étapes avant de retirer physiquement la
carte du système :
1. Retirez l’adaptateur de toutes les associations à partir de l’onglet Paramètres de la boîte de dialogue des
propriétés de l’association.
2. Supprimez tous les VLAN de la carte à partir de l’onglet VLANs de la boîte de dialogue des propriétés de la
carte.
3. Désinstallez la carte dans le Gestionnaire de périphériques.
Il n’est pas nécessaire de respecter ces étapes dans les scénarios de remplacement à chaud.
Suppression d’Intel® PROSet pour le Gestionnaire de périphériques
Windows
Pour désinstaller les extensions du Gestionnaire de périphériques Windows fournies par Intel® PROSet pour le
Gestionnaire de périphériques Windows, sélectionnez Connexions réseau Intel(R) PRO dans la section
Programmes et fonctionnalités du Panneau de configuration.
REMARQUES :
l Ce processus supprime tous les pilotes et logiciels pour les cartes Intel PRO.
l Il est recommandé de désinstaller les réseaux locaux virtuels et les associations avant de supprimer les
cartes réseau.
l La configuration -u peut également être utilisée depuis la ligne de commande pour supprimer Intel®
PROSet.
Configuration avec le module IntelNetCmdlets pour Windows
PowerShell*
Le module IntelNetCmdlets pour Windows PowerShell contient plusieurs cmdlets qui vous permettent de configurer et
de gérer les cartes Intel® Ethernet et les périphériques de votre système. Pour consulter la liste complète de ces
cmdlets et leur description, saisissez get-help IntelNetCmdlets dans l'invite de commande Windows PowerShell. Pour
obtenir des informations détaillées sur l'utilisation de chaque cmdlet, saisissez get-help <cmdlet_name> dans l'invite
de commande Windows PowerShell.
REMARQUE : l'aide en ligne (get-help -online) n'est pas prise
en charge.
Installez le module IntelNetCmdlets en cochant la case du module Windows PowerShell pendant le processus
d'installation du pilote et de PROSet. Utilisez ensuite le module d'importation cmdlet pour importer les nouvelles
cmdlets. Il vous faudra peut-être redémarrer Windows PowerShell pour accéder aux cmdlets nouvellement importées.
Pour utiliser le module d'exportation cmdlet, vous devez indiquer le chemin et le nom du module. Par exemple :
PS c:\> Import-Module -Name "C:\Program Files\Intel\IntelNetCmdlets"
Voir Microsoft TechNet pour plus d'informations sur le module d'importation cmdlet.
Configuration requise pour utiliser IntelNetCmdlets :
l
l
Microsoft* Windows PowerShell* version 2.0
.NET version 2.0
Configuration de SR-IOV pour une sécurité réseau renforcée
Dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes
Intel® pour serveurs prenant en charge SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent
ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème,
configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des
trames inattendues et potentiellement malveillantes.
Modification des paramètres d'Intel PROSet par l'intermédiaire de
Microsoft* Windows PowerShell*
Vous pouvez utiliser le module IntelNetCmdlets pour Windows PowerShell pour modifier la plupart des paramètres
Intel PROSet.
REMARQUE : si une carte réseau est liée à une association ANS, ne modifiez pas les paramètres à l'aide de
la cmdlet Set–NetAdapterAdvanceProperty depuis Windows PowerShell* ni à l'aide d'aucune autre cmdlet
non fournie par Intel. Cette action est susceptible d'empêcher l'association d'utiliser cette carte réseau pour
faire passer le trafic. Cela peut entraîner une réduction des performances ou la désactivation de la carte
réseau de l'association ANS. Il est possible de résoudre ce problème en restaurant les paramètres à leur état
précédent ou en retirant la carte réseau de l'association ANS et en la remettant en place.
Paramètres avancés pour les pilotes Windows*
Les paramètres répertoriés sous l’onglet Advanced (Avancé) d’Intel® PROSet pour le Gestionnaire de périphériques
Windows vous permettent de personnaliser la manière dont la carte prend en charge le repérage des paquets QS, les
paquets étendus, le délestage, ainsi que d’autres fonctionnalités. Il est possible que certaines des fonctionnalités cidessous ne soient pas disponibles. Cela dépend du système d’exploitation utilisé, des cartes spécifiques installées et
de la plate-forme spécifique utilisée.
Mode Maître-Esclave Gigabit
Détermine si la carte ou le partenaire de liaison est désigné comme le maître. L’autre périphérique est désigné comme
l’esclave. Par défaut, la norme IEEE 802.3ab définie comment sont traités les conflits. Les périphériques multiports tels
que les commutateurs sont affectés d’un niveau de priorité plus élevé que les périphériques à port unique et sont
désignés comme maîtres. Si les deux périphériques sont multiports, c’est celui qui possède le nombre de bits le plus
élevé qui est désigné comme le maître. Le paramètre par défaut est appelé "Matériel par défaut".
REMARQUE : dans la plupart des cas, il est recommandé de conserver la valeur par défaut de cette
fonctionnalité.
La définition de ce paramètre sur "Forcer le mode Maître" ou "Forcer le mode Esclave" outrepasse la valeur Matériel
par défaut.
Valeur par défaut
Détection automatique
Valeurs possibles
l
l
l
Forcer le mode Maître
Forcer le mode Esclave
Détection automatique
REMARQUE : le mode Maître peut être forcé sur certains périphériques multiports. Si la carte est connectée à
un tel périphérique et qu’elle est configurée pour forcer le mode Maître, la liaison ne sera pas établie.
Trames Jumbo
Active ou désactive la fonctionnalité Paquets étendus. La taille normale des trames Ethernet est de 1514 octets, alors
que les paquets étendus sont plus volumineux. Les paquets étendus peuvent augmenter le débit et limiter l’utilisation
du processeur. Toutefois, la latence peut augmenter.
Activez la fonctionnalité Paquets étendus uniquement si TOUS les périphériques du réseau la prennent en charge et
sont configurés pour utiliser une taille de trame équivalente. Lors de la configuration des paquets étendus sur d’autres
périphériques réseau, souvenez-vous que la taille des paquets étendus est calculée de façon différente en fonction du
périphérique réseau. Certains périphériques incluent la taille de trame dans les informations d’en-tête et d’autres non.
Les cartes Intel n’incluent pas la taille des trames dans les informations d’en-tête.
Les paquets étendus peuvent être implémentés simultanément avec les réseaux locaux virtuels et l’agrégation de
cartes. Si une association comporte une ou plusieurs cartes d’un autre fabricant qu’Intel, elle ne prend pas en charge
les paquets étendus. Avant d’ajouter à l’association une carte d’un autre fabricant qu’Intel, veillez à désactiver les
paquets étendus sur toutes les cartes d’un autre fabricant qu’Intel, à l’aide du logiciel fourni avec la carte en question.
Restrictions
l
l
l
l
l
Les trames Jumbo ne sont pas prises en charge dans les associations utilisant du matériel de différents
fabricants (MVT).
Seuls les protocoles IP (TCP, UDP) sont pris en charge.
Les trames Jumbo nécessitent des commutateurs compatibles avec le transfert de trames Jumbo. Pour de plus
amples informations, contactez le fabricant du commutateur.
Si des trames Ethernet de taille standard (64 à 1518 octets) sont utilisées, il n’y a aucun avantage à configurer
des trames Jumbo.
Le paramètre des paquets étendus sur le commutateur doit être supérieur d’un minimum de 8 octets à celui du
paramètre de carte des systèmes d’exploitation Windows, et d’un minimum de 22 octets supérieur pour tous les
autres systèmes d’exploitation.
Valeur
par
défaut
Désactivé
Valeurs
possibles
Désactivé (1514), 4088 ou 9014 octets. (Définissez le commutateur sur 4 octets supplémentaires pour
le CRC, plus 4 octets supplémentaires en cas d’utilisation de réseaux VLAN.)
REMARQUES :
l Les paquets étendus sont pris en charge uniquement à 10 Gbit/s et à 1 Gbit/s. L’utilisation de ces
paquets à 10 ou 100 Mbit/s pourrait résulter en une diminution des performances ou une perte de
liaison.
l Le matériel réseau bout en bout doit prendre en charge cette capacité, faute de quoi des paquets seront
perdus.
l certaines cartes Intel prenant en charge les paquets étendus ont une taille de trame limitée à 9 238
octets, avec une taille MTU correspondante de 9 216 octets.
Adresse administrée localement
Remplace l’adresse MAC initiale par une adresse MAC affectée par l’utilisateur. Pour entrer une nouvelle adresse de
réseau, tapez un nombre hexadécimal de 12 caractères dans cette zone.
Valeur
par
défaut
Aucune
Valeurs
possibles
0000 0000 0001 - FFFF FFFF FFFD
Exceptions :
l Ne pas utiliser une adresse multicast (Bit le moins significatif de l’octet haut = 1). Par exemple,
dans l’adresse 0Y123456789A, "Y" ne peut être un nombre impair. (Y doit être 0, 2, 4, 6, 8, A,
C ou E.)
l Ne pas utiliser que des zéros ou que des F.
Si vous n’entrez aucune adresse, l’adresse réseau initiale de la carte est utilisée.
Par exemple,
Multidiffusion : 0123 4567 8999 Diffusion : FFFF FFFF FFFF
Unicast (légal) : 0070 4567 8999
REMARQUE : dans une association, Intel® PROSet utilise :
l l’adresse MAC permanente de la carte principale si aucune adresse administrée localement n’est
configurée pour l’association, ou
l l’adresse administrée localement de l’association, si elle est configurée.
Intel® PROSet n’utilise pas l’adresse administrée localement d’une carte si cette carte est la carte principale de
l’association, ou si l’association dispose d’une telle adresse.
Enregistrement d’événement d’état de liaison
Ce paramètre est utilisé pour activer/désactiver l’enregistrement des changements d’état de liaison. S’il est activé, un
événement de changement au niveau de l’établissement ou de l’interruption d’une liaison génère un message qui
s’affiche dans le journal des événements du système. Ce message contient la vitesse et le duplex de la liaison. Les
administrateurs peuvent visualiser le message d’événement depuis le journal des événements du système.
Les événements suivants sont enregistrés :
l La liaison est active.
l La liaison est inactive.
l Discordance de duplex.
l Protocole Spanning Tree détecté.
Valeur par défaut
Activé
Valeurs possibles
Activé, Désactivé
Balisage de la priorité et des VLAN
Permet à la carte de décharger l’insertion et la suppression de balises de priorité et de VLAN pour l’émission et la
réception.
Valeur par défaut
Valeurs possibles
Priorité et VLAN activés
l
l
l
l
Priorité et VLAN désactivés
Priorité activée
VLAN activé
Priorité et VLAN activés
Receive Side Scaling
Lorsque la mise à l’échelle de l’extrémité réception (RSS) est activée, tout le traitement des données en réception sur
une connexion TCP donnée sont partagées par plusieurs processeurs ou cœurs de processeur. Sans RSS, tout le
traitement est effectué par un processeur unique, d’où une utilisation moins efficace de la mémoire cache du système.
RSS peut être activé pour un LAN ou pour FCoE. Dans le premier cas, l’on parle de LAN RSS. Dans le second, de
FCoE RSS.
LAN RSS
LAN RSS s’applique à une connexion TCP particulière.
REMARQUE : ce paramètre est sans effet si le système ne comporte d’un processeur.
Configuration de LAN RSS
RSS est activé dans l’onglet Advanced (Avancé) de la page de propriétés de la carte. Si votre carte ne prend pas en
charge RSS, ou si SNP ou SP2 n’est pas installé, le paramètre RSS n’est pas affiché. Si RSS est pris en charge dans
votre environnement système, les informations suivantes s’afficheront :
l
l
l
l
Nœud du port NUMA. Il s’agit du numéro de nœud NUMA d’un périphérique.
CPU RSS de départ. Ce paramètre permet de déterminer le processeur RSS préférentiel de départ. Vous le
modifierez si le processeur actuel est affecté à d’autres processus. La plage de valeurs va de 0 au nombre de
processeur logiques moins 1. Pour Server 2008 R2, RSS n’utilisera que les processeurs du groupe 0
(processeur 0 à 63 inclus).
Nombre max de processeurs RSS. Ce paramètre permet de fixer le nombre maximum de processeurs
attribués à une carte et s’utilise principalement en environnement Hyper-V. En diminuant la valeur du
paramètre dans cet environnement, le nombre total d’interruptions diminue, ce qui réduit à son tour le taux
d’utilisation des processeurs. La valeur par défaut est 8 pour les cartes Gigabit et 16 pour les cartes 10 Gigabit.
Nœud NUMA préférentiel. Ce paramètre permet de choisir le nœud NUMA (Non-Uniform Memory Access) à
utiliser pour les allocations mémoires effectué par la carte réseau. Pour RSS, le système tente par ailleurs
d’utiliser d’abord les processeurs du nœud NUMA préférentiel. Sur les plates-formes NUMA, la latence des
accès mémoire est fonction de l’emplacement correspondant. Le fait d’allouer la mémoire à partir du nœud le
plus proche contribue à améliorer les performances. Le gestionnaire de tâches de Windows affiche l’identifiant
de nœud NUM pour chaque processeur.
REMARQUE : ce paramètre n'a d'effet que sur les systèmes NUMA. Ils n’ont aucune incidence sur les
systèmes non NUMA.
l
Files d’attente Receive Side Scaling. Ce paramètre configure le nombre de files d’attente RSS qui détermine
l’espace de mémoire tampon des transactions entre la carte réseau et le ou les processeurs.
Valeur par
défaut
Valeurs
possibles
2 files d’attente pour les cartes Intel® 10 Gigabit pour serveurs
1 file d’attente est utilisée en cas de faible utilisation du processeur.
2 files d’attente sont utilisées si un bon débit et une faible utilisation du processeur
sont nécessaires.
4 files d’attente sont utilisées pour les applications qui exigent un débit maximum et
de nombreuses transactions par seconde.
8 et 16 files d’attente sont prises en charge sur les cartes Intel® 82598 et 82599.
l
l
l
l
REMARQUES :
l Les 8 et 16 files d’attente sont disponibles uniquement lorsque
PROSet pour le Gestionnaire de périphériques Windows est installé.
Si PROSet n’est pas installé, seulement 4 files d’attente sont
disponibles.
l L’utilisation de 8 files d’attente ou plus nécessite le redémarrage du
système.
REMARQUE : certaines cartes ne prennent pas en charge tous les paramètres.
LAN RSS et agrégation de cartes
l
l
l
Si la fonctionnalité RSS n’est pas activée sur toutes les cartes d’une association, elle sera désactivée pour
cette association.
Si une carte ne prenant pas en charge la fonctionnalité RSS est ajoutée à l’association, la fonctionnalité RSS
sera désactivée pour l’association.
Si vous créez une association multi-vendeurs, vous devez vérifier manuellement que les paramètres RSS de
toutes les cartes sont identiques.
FCoE RSS
Si FCoE est installé, FCoE RSS est activé et s’applique aux traitements des réceptions FCoE partagées entre les
cœurs du processeur.
Configuration de FCoE RSS
Si votre carte réseau prend en charge FCoE RSS, les paramètres de configuration suivants peuvent être visualisés et
modifiés dans l’onglet Performances avancées du pilote de base :
l
l
l
l
Nombre de nœuds NUMA FCoE. Ce paramètre spécifie le nombre de nœuds NUMA consécutifs où les files
d'attente FCoE affectées seront uniformément distribuées.
Nœud NUMA de départ FCoE. Ce paramètre spécifie le nœud NUMA représentant le premier nœud du
nombre de nœuds NUMA FCoE.
Décalage de cœur de départ FCoE. Ce paramètre spécifie le décalage du premier cœur de processeur du
nœud NUMA qui sera affecté à la file d'attente FCoE.
Nœud NUMA de port FCoE. Ce paramètre de la plate-forme indique le nœud NUMA optimal le plus proche du
port physique, le cas échéant. Ce paramètre est en lecture seule et ne peut pas être configuré.
Optimisation des performances
Le contrôleur réseau Intel fournit un nouvel ensemble d'options avancées permettant d'optimiser les performances
FCoE. Ces options régissent comment les files d'attente de transmission/réception FCoE sont affectées sur les platesformes NUMA. Spécifiquement, elles régissent depuis quel ensemble cible d'UC de nœud NUMA les UC peuvent être
sélectionnées pour affecter une affinité de file d'attente individuelle. La sélection d'une UC spécifique a deux effets
principaux :
l Elle définit l'emplacement d'interruption souhaité pour traiter les indications de paquet de file d'attente.
l Elle définit l'emplacement relatif de la file d'attente dans la mémoire disponible.
Comme indiqué, il s'agit d'options d'optimisation avancées destinées aux gestionnaires de plates-formes cherchant à
optimiser les performances du système. Elles sont généralement utilisées pour optimiser les performances dans les
configurations de plates-formes multiports. Comme tous les ports partagent les mêmes directives d'installation par
défaut (le fichier .inf, etc.), les files d'attente FCoE de chaque port sont associées au même ensemble d'UC NUMA, ce
qui peut entraîner un conflit d'UC.
Le logiciel qui exporte ces options d'optimisation définit un nœud NUMA comme étant équivalent à un processeur
individuel (socket). Les informations ACPI de la plate-forme présentées par le BIOS au système d'exploitation
contribuent à définir la relation des périphériques PCI aux processeurs individuels. Cependant, ce détail n'est
actuellement pas fourni de manière fiable sur toutes les plates-formes. En conséquence, l'utilisation des options
d'optimisation peut produire des résultats inattendus. Nous ne pouvons pas garantir que les options de performance
produiront des résultats cohérents et prévisibles.
Les options d'optimisation des performances sont répertoriées dans la section Configuration de LAN RSS.
Exemple 1 : une plate-forme possédant deux sockets physiques, chaque processeur de socket fournissant 8 cœurs de
processeur (16 lorsque la technologie Hyper-Threading est activée), et une carte réseau Intel deux ports avec FCoE
activé.
Par défaut, 8 files d'attente FCoE sont affectées par port de carte réseau. De plus, par défaut, les premiers cœurs (non
hyper thread) du premier processeur sont affectés d'une affinité avec ces files d'attente, ce qui entraîne le modèle
d'affectation illustré ci-dessous. Dans ce scénario, les deux ports sont en concurrence pour les cycles d'UC du même
ensemble d'UC du socket 0.
Affectation des files d'attente de socket à l'UC
Avec les options d'optimisation des performances, l'association des files d'attente FCoE du deuxième port peut être
dirigée vers un autre ensemble de cœurs d'UC non concurrent. Les paramètres suivants indiquent au logiciel d'utiliser
les UC de l'autre socket de processeur :
l
l
l
Nombre de nœuds NUMA FCoE = 1 : Affecter les files d'attente aux cœurs d'un nœud NUMA (ou socket de
processeur) unique.
Nœud NUMA de départ FCoE = 1 : Utiliser les cœurs d'UC du deuxième nœud NUMA (ou socket de
processeur) du système.
Décalage de cœur de départ FCoE = 0 : Le logiciel démarrera au premier cœur d'UC du nœud NUMA (ou
socket de processeur).
Les paramètres suivants indiquent au logiciel d'utiliser un ensemble d'UC différent sur le même socket de processeur :
Cela prend pour hypothèse qu'un processeur prend en charge 16 cœurs (non hyper thread).
l Nombre de nœuds NUMA FCoE = 1
l Nœud NUMA de départ FCoE = 0
l Décalage de cœur de départ FCoE = 8
Exemple 2 : Utilisation d'un ou de plusieurs ports avec des files d'attente affectées à plusieurs nœuds NUMA. Dans ce
cas, pour chaque port de carte réseau, le Nombre de nœuds NUMA FCoE est défini sur ce nombre de nœuds NUMA.
Par défaut, les files d'attente seront affectées de façon égale à chaque nœud NUMA :
l Nombre de nœuds NUMA FCoE = 2
l Nœud NUMA de départ FCoE = 0
l Décalage de cœur de départ FCoE = 0
Exemple 3 : L'affichage montre que le paramètre Nœud de port NUMA FCoE est 2 pour un port de carte donné. Il s'agit
d'une valeur en lecture seule fournie par le logiciel, indiquant que le nœud NUMA optimal le plus proche du
périphérique PCI est le troisième nœud logique NUMA du système. Par défaut, le logiciel a affecté les files d'attente de
ce port au nœud NUMA 0. Les paramètres suivants indiquent au logiciel d'utiliser les UC du socket de processeur
optimal :
l Nombre de nœuds NUMA FCoE = 1
l Nœud NUMA de départ FCoE = 2
l Décalage de cœur de départ FCoE = 0
Cet exemple met en évidence le fait que le nombre de bus PCI et leur emplacement peut varier en fonction des
différentes architectures de plate-forme. Les figures ci-dessous montrent deux architectures de plate-forme simplifiées.
La première est l'architecture ancienne commune à bus principal dans laquelle plusieurs UC partagent l'accès au
contrôleur central mémoire et/ou contrôleur central des E/S qui fournit la connectivité du bus PCI et de la mémoire. La
deuxième est une architecture plus récente, dans laquelle plusieurs processeurs d'UC sont interrompus par QPI et
dans laquelle chaque processeur prend en charge directement la connectivité intégrée du contrôleur central mémoire
et PCI.
Il existe un avantage perçu à garder l'affectation des objets de ports, comme les files d'attente, aussi près que possible
du nœud NUMA ou de la collection d'UC auxquels elles accèderont le plus probablement. Si les files d'attente des
ports utilisent les UC et la mémoire d'un seul socket alors que le périphérique PCI est associé à un autre socket, la
consommation QPI de bande passante du bus entre les processeurs risque d'être indésirable. Il est important de bien
comprendre l'architecture de la plate-forme lors de l'utilisation de ces options d'optimisation des performances.
Architecture PCI/mémoire partagée à racine unique
Architecture PCI/mémoire distribuée à plusieurs racines
Exemple 4 : Le nombre d'UC de nœuds NUMA disponibles n'est pas suffisant pour l'affectation des files d'attente. Si
votre plate-forme possède un processeur qui ne prend pas en charge un carré d'UC pair (par exemple, il prend en
charge 6 cœurs), lors de l'affectation des files d'attente, si le logiciel est à court d'UC sur un socket, il réduit par défaut
le nombre de files d'attente à la puissance 2 jusqu'à ce que l'affectation soit terminée. Par exemple, si un processeur à
6 cœurs est utilisé, le logiciel affecte seulement 4 files d'attente FCoE s'il n'existe qu'un seul nœud NUMA. S'il y a
plusieurs nœuds NUMA, le nombre de nœuds NUMA peut être défini à une valeur supérieure ou égale à 2 afin de
pouvoir créer les 8 files d'attente.
Détermination de l'emplacement de la file d'attente active
L'utilisateur de ces options d'optimisation des performances cherchera à déterminer l'affinité des files d'attente FCoE
avec les UC afin de vérifier leur effet réel sur l'affectation des files d'attente. Cela peut être réalisé facilement en
utilisant une charge de travail comportant peu de paquets et une application d'E/S telle que IoMeter. IoMeter surveille
l'utilisation de chaque UC en utilisant l'analyseur de performances intégré au système d'exploitation. Les UC soutenant
l'activité des files d'attente doivent se distinguer. Elles doivent être les premières UC non hyper thread disponibles sur
le processeur, sauf si l'affectation est spécifiquement modifiée par les options d'optimisation des performances décrites
ci-dessus.
Pour rendre l'emplacement des files d'attente FCoE encore plus évident, l'affinité de l'application peut être affectée à
un ensemble d'UC isolé du même ou d'un autre socket de processeur. Par exemple, l'application IoMeter peut être
configurée pour être exécutée uniquement sur un nombre fini d'UC hyper thread sur n'importe quel processeur. Si les
options d'optimisation des performances ont été définies pour diriger l'affectation des files d'attente sur un nœud NUMA
spécifique, l'affinité de l'application peut être définie sur un nœud NUMA différent. Les files d'attente FCoE ne doivent
pas bouger et l'activité doit rester sur ces UC, bien que l'activité UC de l'application passe sur les autres UC de
processeur sélectionnées.
Attendre la liaison
Détermine si le pilote doit attendre la négociation automatique avant de signaler l’état de la liaison. Si cette
fonctionnalité est désactivée, le pilote n’attend pas la négociation automatique. Si elle est activée, le pilote attend la
négociation automatique.
Si cette fonctionnalité est activée alors que la vitesse n’est pas définie sur Négociation automatique, le pilote attend
quelques instants que la liaison soit établie avant de signaler l’état de la liaison.
Si la fonctionnalité est configurée pour une détection automatique, elle est automatiquement définie sur Activé ou
Désactivé en fonction de la vitesse et du type de carte lors de l’installation du pilote. Le paramètre est
l Désactivé pour les cartes réseau Intel Gigabit cuivre avec une vitesse "Auto".
l Activé pour les cartes réseau Intel Gigabit cuivre avec une vitesse et un mode duplex forcés.
l Désactivé pour les cartes réseau Intel Gigabit à fibre optique avec une vitesse "Auto".
Valeur par défaut
Valeurs possibles
Détection automatique
l
l
l
Activé
Désactivé
Détection
automatique
Surveillance thermique
Les cartes et les contrôleurs réseaux basés sur le contrôleur Ethernet Intel® I350 (et versions ultérieures) peuvent
afficher les données de température et réduire automatiquement la vitesse de la liaison si la température du contrôleur
est trop élevée.
REMARQUE : cette fonction est activée et configurée par le fabricant de matériel. Elle n’est pas disponible sur
toutes les cartes et contrôleurs réseaux. Il n’existe aucun paramètre utilisateur configurable.
Surveillance et production de rapports
L’information concernant la température est affichée sur l’onglet Link (Liaison) dans Intel® PROSet pour le
Gestionnaire de périphériques Windows*. Il existe trois conditions possibles :
l Température : Normale
Indique le fonctionnement normal.
l Température : Surchauffe, liaison réduite
Indique que le périphérique a une vitesse de liaison réduite pour abaisser la température et la consommation
de courant.
l Température : Surchauffe ; arrêt de la carte
Indique que le périphérique est trop chaud et a arrêté le trafic de passage pour éviter les dommages.
Si un des événements de surchauffe se produit, le pilote du périphérique écrit un message sur le journal des
événements du système.
Options de performances
Espacement intertrame dynamique
Permet de compenser les collisions excessives des paquets Ethernet sur le réseau.
Le paramètre par défaut est le plus efficace pour la plupart des ordinateurs et réseaux. Lorsque cette fonctionnalité est
activée, la carte réseau s’adapte dynamiquement aux conditions de trafic sur le réseau. En de rares occasions
cependant, il est possible d’obtenir de meilleures performances en désactivant cette fonctionnalité. Ce paramètre force
un vide statique entre les paquets.
Valeur par défaut
Désactivé
Valeurs possibles
l
l
Activé
Désactivé
Coalition d’accès direct à la mémoire (DMA)
Le DMA (Direct Memory Access) permet au périphérique de réseau de déplacer directement les données de paquet
vers la mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles
aléatoires d’arrivée de paquets ne permettent pas au système d’entrer en mode faible consommation. La coalition
DMA permet à la carte réseau de collecter des paquets avant de démarrer un événement DMA. Cela peut augmenter
la latence du réseau, mais augmenter aussi les chances de baisse de consommation du système. Les cartes et
périphériques de réseau basés sur le contrôleur Ethernet Intel® I350 (et les versions ultérieures) prennent en charge
la coalition DMA.
Des valeurs de coalition DMA élevées permettent d’économiser plus d’énergie, mais peuvent augmenter la latence du
réseau du système. Si la coalition DMA est activée, le taux de gestion des interruptions doit aussi être défini sur
’Minimal’ (minimum). Cela permet de limiter l’impact de latence imposé par la coalition DMA et d’améliorer le
rendement du réseau. La coalition DMA doit être activée sur tous les ports actifs dans le système. Si l’activation ne
touche que certains ports du système, l’économie d’énergie ne sera pas évidente. Il existe aussi plusieurs BIOS, plateforme et paramètres d’application qui peuvent influencer les économies potentielles d’énergie. La meilleure
configuration de votre plate-forme est expliquée dans un document disponible sur le site Web Intel.
Contrôle de flux
Permet aux cartes de réguler le trafic d’une manière plus efficace. Les cartes génèrent des trames de contrôle de flux
lorsque leurs files de réception atteignent une limite prédéterminée. La génération des trames de contrôle de flux
indique à l’émetteur de ralentir les transmissions. Les cartes répondent aux trames de contrôle de flux en interrompant
la transmission des paquets pour un délai spécifié dans la trame de contrôle de flux.
En permettant aux cartes d’ajuster la transmission des paquets, le contrôle de flux empêche la perte de paquets.
REMARQUES :
l pour que les cartes puissent bénéficier de cette fonctionnalité, les partenaires de liaison doivent prendre
en charge les trames de contrôle de flux.
l Quand une carte réseau fonctionne en mode NPar, le contrôle de flux est limité à la partition racine de
chaque port.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Taux de gestion des interruptions
Définit l’ITR (Interrupt Throttle Rate). Ce paramètre détermine le taux auquel les interruptions de transmission et de
réception sont générées.
Lorsqu’un événement, tel que la réception de paquets, a lieu, la carte génère des interruptions. L’interruption
interrompt le processeur et toute application exécutée à ce moment demande au pilote de traiter le paquet. Aux
vitesses de liaison rapides, les interruptions sont plus nombreuses et les taux du processeur augmentent également.
Cela entraîne une diminution des performances du système. Lorsque vous sélectionnez un paramètre ITR plus élevé,
le taux d’interruption est diminué, ce qui entraîne une amélioration des performances du processeur.
REMARQUE : un taux ITR élevé signifie également une latence plus importante du pilote lors du traitement des
paquets. Si la carte traite de nombreux petits paquets, il est préférable de diminuer l’ITR afin que le pilote puisse
répondre plus efficacement aux paquets entrant et sortant.
La modification de ce paramètre peut améliorer le débit sur certains réseaux et dans certaines configurations de
système. Cependant, le paramètre par défaut est optimal pour les réseaux et configurations de système les plus
courants. Ne modifiez pas ce paramètre sans avoir vérifié que les modifications envisagées affecteront de façon
positive les performances du réseau.
Valeur par défaut
Valeurs possibles
Adaptatif
l
l
l
l
l
l
l
Adaptatif
Extrême
Haut
Moyen
Faible
Minimal
Désactivé
Interruptions à faible latence
Les interruptions à faible latence (LLI) permettent au périphérique réseau de contourner le schéma de modération des
interruptions configuré en fonction du type de données reçu. Il configure quels paquets TCP entrants déclenchent une
interruption immédiate, ce qui permet au système de traiter le paquet plus rapidement. La réduction de la latence des
données permet à certaines applications d’accéder plus rapidement aux données du réseau.
REMARQUE : lorsque les interruptions à faible latence sont activées, l’utilisation du processeur peut s’accroître.
Les interruptions à faible latence peuvent être utilisées pour les paquets de données dont l’en-tête contient un
indicateur TCP PSH ou pour des ports TCP spécifiés.
l Paquets avec indicateur TCP PSH - Tout paquet entrant contenant l’indicateur TCP PSH déclenche une
interruption immédiate. L’indicateur PSH est défini par le périphérique d’envoi.
l Ports TCP - Chaque paquet reçu sur les ports spécifiés déclenche une interruption immédiate. Huit ports
peuvent être spécifiés.
Valeur par défaut
Désactivé
Valeurs possibles
l
l
l
Désactivé
Basé sur des indicateurs PSH
Basé sur des ports
Tampons de réception
Définit le nombre de tampons de réception (segments de données). Ceux-ci sont alloués dans la mémoire hôte et
utilisés pour stocker les paquets reçus. Chaque paquet reçu nécessite au moins un descripteur de réception et chaque
descripteur utilise 2 Ko de mémoire.
Vous pouvez augmenter le nombre de tampons de réception si vous remarquez une diminution considérable des
performances relatives au trafic de réception. Si vous n’avez pas de problème relatif aux performances de réception,
utilisez la valeur par défaut de la carte.
Valeur par défaut
512, pour les cartes réseau 10 Gigabit pour serveurs.
256, pour toutes les autres cartes en fonction des fonctionnalités sélectionnées.
Valeurs possibles
128 à 4096, par intervalles de 64, pour les cartes réseau 10 Gigabit pour serveurs.
80 à 2048, par intervalles de 8, pour toutes les autres cartes.
Valeur recommandée
Carte associée : 256
Si IPSec et/ou des fonctionnalités multiples sont utilisées : 352
Tampons d’émission
Définit le nombre de descripteurs de transmission. Les descripteurs de transmission sont des segments de données
qui permettent à la carte de suivre les paquets de transmission dans la mémoire système. En fonction de sa taille,
chaque paquet de transmission requiert un ou plusieurs descripteurs de transmission.
Vous pouvez augmenter le nombre de descripteurs de transmission si vous rencontrez un problème relatif aux
performances de transmission. Bien qu’une augmentation du nombre de descripteurs puisse améliorer les
performances de transmission, les descripteurs de transmission consomment également de la mémoire système. Si
vous n’avez pas de problème relatif aux performances de transmission, utilisez la valeur par défaut. Ce paramètre par
défaut varie en fonction du type de carte.
Consultez la rubrique Spécifications des cartes pour obtenir de l’aide quant à l’identification de votre carte.
Valeur par défaut
512, en fonction des exigences de la carte
Valeurs possibles
128 à 16384, par intervalles de 64, pour les cartes réseau 10 Gigabit pour serveurs.
80 à 2048, par intervalles de 8, pour toutes les autres cartes.
Profil de performance
Les profils de performances sont pris en charge sur les cartes réseau Intel® 10GbE. Ils permettent d’optimiser
rapidement les performances de votre carte réseau Ethernet Intel®. Le choix d’un profil de performances ajuste
automatiquement certains paramètres avancés en les réglant de manière optimale pour l’application sélectionnée. Par
exemple, un serveur standard n’a de performances optimales qu’avec deux files d’attente RSS (Receive-Side
Scaling), alors qu’un serveur Web aura besoin de davantage de files d’attente pour une meilleure évolutivité.
Pour pouvoir utiliser les profils de performances, vous devez installer Intel® PROSet pour le Gestionnaire de
périphériques Windows. La sélection des profils se fait dans l’onglet Avancé de la page de propriétés de la carte.
Profils
l
l
l
l
l
l
Serveur standard – Ce profil est optimisé pour les serveurs typiques.
Serveur Web – Ce profil est optimisé pour les serveurs Web IIS et HTTP.
Serveur de virtualisation – Ce profil est optimisé pour l’environnement de virtualisation Hyper-V
de Microsoft.
Serveur de stockage – Ce profil est optimisé pour la performance Fibre Channel over Ethernet ou
iSCSI over DCB. La sélection de ce profil désactivera SR-IOV et VMQ.
Stockage + virtualisation – Ce profil est optimisé pour une combinaison d’exigences de stockage
et de virtualisation.
Faible latence – Ce profil est optimisé pour minimiser la latence du réseau.
REMARQUES :
l toutes les options ne sont pas disponibles pour toutes les combinaisons de carte/système d’exploitation.
l Si vous avez sélectionné le profil Serveur de virtualisation ou le profil Stockage + virtualisation et que
vous désinstallez le rôle Hyper-V, vous devez sélectionner un nouveau profil.
Remarques concernant les associations
Lorsque vous créez une association dont tous les membres prennent en charge les profils de performances, au
moment de créer l’association, il vous sera demandé quel profil utiliser. Le profil sera synchronisé dans l’ensemble de
l’association. S’il n’y a pas de profil pris en charge par la totalité des membres de l’association, la seule possibilité sera
d’utiliser les paramètres actuels. L’association sera créée normalement. L’ajout d’une carte réseau à une association
existante se passe de manière très semblable.
Si vous ajoutez à une association une carte qui prend en charge les profils de performances avec une carte qui ne les
prend pas en charge, le profil sur la carte qui les prend en charge sera défini avec les paramètres personnalisés et
l’association sera créée normalement.
Options de délestage TCP/IP
Délester somme de contrôle IPv4
Ceci permet à la carte de calculer la somme de contrôle IPv4 des paquets entrants et sortants. Cette fonctionnalité
améliore les performances de transmission IPv4, et réduit le taux d’utilisation du processeur.
Lorsque le délestage est désactivé, le système d’exploitation vérifie la somme de contrôle IPv4.
Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Délester envoi important (IPv4 et IPv6)
Configure la carte pour qu’elle déleste les tâches de segmentation des messages TCP en trames Ethernet valides. La
taille de trame maximum pour le délestage d’envoi important est de 64 000 octets.
Cette fonctionnalité peut améliorer les performances de transmission car le matériel de la carte est capable de
segmenter les données beaucoup plus rapidement que le logiciel du système d’exploitation. De plus, la carte utilise
moins de ressources processeur.
Valeur par défaut
Valeurs possibles
Activé
l
l
Activé
Désactivé
Délester somme de contrôle TCP (IPv4 et IPv6)
Permet à la carte de vérifier la somme de contrôle TCP des paquets entrants et de calculer la somme de contrôle TCP
des paquets sortants. Cette fonctionnalité améliore les performances d’émission et de réception, et réduit le taux
d’utilisation du processeur.
Lorsque le délestage est désactivé, le système d’exploitation vérifie le total de contrôle TCP.
Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Délester somme de contrôle UDP (IPv4 et IPv6)
Permet à la carte de vérifier la somme de contrôle UDP des paquets entrants et de calculer la somme de contrôle UDP
des paquets sortants. Cette fonctionnalité améliore les performances d’émission et de réception, et réduit le taux
d’utilisation du processeur.
Lorsque le délestage est désactivé, le système d’exploitation vérifie la somme de contrôle UDP.
Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Paramètres de gestion de l’alimentation pour les pilotes
Windows*
L’onglet Power Management (Gestion de la consommation) d’Intel® PROSet remplace l’onglet Gestion de
l’alimentation du Gestionnaire de périphériques de Microsoft Windows*. Il comprend les options d’économie d’énergie
qui se trouvaient précédemment dans l’onglet Avancé. La fonctionnalité de gestion de l’alimentation standard de
Windows est incorporée dans l’onglet Intel® PROSet.
REMARQUES :
l Les cartes réseau Intel® 10 Gigabit ne prennent pas en charge la gestion de l’alimentation.
l Si votre système a un moteur de gestion de réseau, le voyant de liaison peut rester allumé même si la
fonctionnalité WoL est désactivée.
l Quand une carte réseau fonctionne en mode NPar, la gestion de l'alimentation est limitée à la partition
racine de chaque port.
Options d’économie d’énergie
L’onglet Gestion de la consommation d’Intel® PROSet comprend plusieurs paramètres, permettant de contrôler la
consommation électrique de la carte. Par exemple, vous pouvez configurer la carte pour qu’elle réduise sa
consommation électrique si le câble est déconnecté.
Réduire la consommation électrique si le câble est déconnecté et la vitesse de
liaison en mode de veille
Permet à la carte de réduire la consommation d’énergie lorsque le câble du réseau local est déconnecté de la carte et
que la liaison est inactive. Lorsque la liaison de la carte est rétablie, la consommation de la carte retourne à son état
normal.
L’option Matériel par défaut est disponible sur certaines cartes. Si cette option est sélectionnée, la fonctionnalité est
activée ou désactivée en fonction du matériel du système.
Valeur par défaut
La valeur par défaut varie en fonction du système d’exploitation et du type de carte.
Valeurs possibles
La plage varie en fonction du système d’exploitation et du type de carte.
Ethernet économe en énergie
La fonction EEE (Ethernet économe en énergie) permet à un périphérique compatible d’entrer en mode basse
consommation entre les paquets du trafic de réseau. La fonctionnalité EEE doit être activée sur les deux partenaires
de liaison pour économiser de l’énergie. Les deux partenaires de liaison repassent en mode d’alimentation maximale
quand les données doivent être transmises. Cette transition peut introduire une légère latence du réseau.
REMARQUES :
l Les deux partenaires de liaison EEE doivent automatiquement négocier la vitesse de
liaison.
l EEE n'est pas pris en charge à 10 Mbit/s.
Options Wake on LAN
La capacité de réveiller les ordinateurs à distance constitue un développement important de la gestion des
ordinateurs. Cette fonctionnalité a évolué ces dernières années d’une simple capacité de mise sous tension à distance
à un système complexe d’interaction avec les différents états d’alimentation de périphériques et de systèmes
d’exploitation. Vous trouverez de plus amples détails ici.
Microsoft Windows Server prend en charge l’interface ACPI. Windows ne prend pas en charge le réveil depuis un état
d’arrêt (S5), mais seulement depuis les modes de veille (S3) ou de veille prolongée (S4). Lors de la fermeture du
système, ces états arrêtent les périphériques ACPI, y compris les cartes réseau Intel. Cela désarme la fonctionnalité de
réveil à distance des cartes. Cependant, sur certains ordinateurs compatibles ACPI, le BIOS peut comporter un
paramètre vous permettant de contourner le système d’exploitation et de réveiller les cartes d’un état S5. Si le réveil
d’un état S5 n’est pas pris en charge dans la configuration de votre BIOS, seul un réveil du mode de veille est possible
en utilisant ces systèmes d’exploitation sur des ordinateurs ACPI.
L'onglet Gestion de la consommation d'Intel PROSet comprend les paramètres Wake on Magic Packet et Wake on
Directed Packet. Ces paramètres permettent de contrôler le type de paquets utilisés pour réveiller le système à partir
du mode de veille.
Sur certaines cartes, l’onglet Gestion de la consommation d’Intel® PROSet comprend un paramètre appelé Wake on
Magic Packet d’un état hors tension. Activez ce paramètre pour autoriser explicitement le réveil depuis la fermeture
avec un paquet magique en mode APM.
REMARQUE : pour utiliser la fonctionnalité Wake on Directed Packet, WoL doit d'abord être activé dans
l'EEPROM à l'aide de BootUtil.
Appareils prenant en charge WoL
Tous les appareils prennent en charge Wake on LAN sur tous les ports, à l'exception des :
Cartes réseau Gigabit
Port(s) de carte prenant en charge WoL
Carte réseau Intel® Gigabit 2P I350-t
port A
Carte réseau Intel® Gigabit 4P I350-t
port A
Cartes réseau 10 Gigabit
Cartes réseau Gigabit
Port(s) de carte prenant en charge WoL
Carte Ethernet Intel® 10G 4P X540/I350 rNDC les ports 10G
Carte Ethernet Intel® 10G 4P X520/I350 rNDC les ports 10G
Carte réseau convergent Intel® X710
port 1
Paramètres Wake on Link
Permet un réveil de l’ordinateur lorsque la connexion réseau établit une liaison lorsqu’il est en mode de veille. Vous
pouvez activer ou désactiver cette fonctionnalité, ou conserver les paramètres par défaut du système d’exploitation.
REMARQUES :
l Si une carte réseau Intel sur cuivre affiche une vitesse de un gigabit seulement, cette fonctionnalité ne
fonctionne pas car la carte ne peut identifier une liaison un gigabit avec un état D3.
l Le câble réseau doit être déconnecté lors de l’entrée en S3/S4 afin de réveiller le système par un
événement d’activation de la liaison.
Valeur par défaut
Désactivé
Valeurs possibles Désactivé
Contrôlé par le système d'exploitation
Forcé(e)
Considérations sur Microsoft* Hyper-V*
Microsoft* Hyper-V* permet l’exécution simultanée de plusieurs systèmes d’exploitation sur un même système
physique, chacun sur une machine virtuelle. Cette possibilité autorise la consolidation de plusieurs serveurs en un
seul, même s’ils sont gérés sous des systèmes d’exploitation différents. Les cartes réseau Intel® travaillent avec et
dans les machines virtuelles Microsoft Hyper-V, avec leurs pilotes et logiciels standards.
REMARQUES :
l Certaines options de virtualisation ne sont pas disponibles sur certaines combinaisons de carte/système
d’exploitation.
l Le paramètre Jumbo Frame à l'intérieur d'une machine virtuelle doit être identique ou inférieur au
réglage du port physique.
l Pour en savoir plus sur l’utilisation des cartes réseau Intel en environnements virtualisés, consultez le
site http://www.intel.com/technology/advanced_comm/virtualization.htm.
Utilisation des cartes réseau Intel® en environnement Hyper-V
Lorsqu’une interface réseau Hyper-V (VNIC) est créée dans la partition mère, la carte adopte l’adresse MAC de la
carte physique sous-jacente. Il en va de même lorsqu’une carte réseau est créée pour une association de cartes ou un
réseau VLAN. Comme une carte utilise l’adresse MAC de l’interface sous-jacente, toute opération qui modifie cette
adresse (paramétrer LAA sur l’interface, modifier la carte principale d’une association, etc.) lui fera perdre sa
connectivité. Pour empêcher cet inconvénient, Intel® PROSet ne vous permet pas de modifier des paramètres qui
changent l’adresse MAC.
REMARQUES :
l Si FCoE/DCB est présent sur le port, la configuration du périphérique en mode VMQ + DCB réduit le
nombre de VPorts VMQ disponible pour les systèmes d’exploitation invités. Cela ne s'applique pas aux
périphériques à base de contrôleur Ethernet Intel® X710.
l Lorsqu’ils sont expédiés depuis l’intérieur d’une machine virtuelle, les paquets LLDP et LACP peuvent
représenter un risque pour la sécurité. Le pilote Intel® Virtual Function bloque l’envoi de ces paquets.
l Le paramètre Virtualisation de l’onglet Avancé de la feuille des propriétés Gestionnaire de
périphériques de la carte réseau n’est pas disponible si le rôle Hyper-V n’est pas installé.
l Les associations ANS de périphériques VF sont prises en charge à l’intérieur d’un invité Windows 2008
R2 exécuté sur un hyperviseur Open Source.
Le commutateur de machines virtuelles
Le commutateur de machines virtuelles fait partie du chemin de données des E/S réseaux. Il se situe entre la carte
physique et les interfaces des machines virtuelles et achemine les paquets vers l’adresse MAC voulue. L'activation du
délestage VMQ (Virtual Machine Queue) dans Intel® PROSet active automatiquement la file VMQ dans le
commutateur de machines virtuelles. Pour les installations du pilote uniquement, il faut activer manuellement la file
VMQ dans le commutateur de machines virtuelles.
Utilisation de VLAN ANS
Si vous créez des réseaux locaux virtuels ANS dans la partition parente puis que vous créez une interface de carte
réseau virtuelle Hyper-V sur un réseau local virtuel ANS, l’interface de la carte réseau virtuelle doit avoir le même ID
de réseau local virtuel que le réseau local virtuel ANS. Si l’ID de réseau local virtuel est différent ou s’il n’est pas défini
dans l’interface de la carte réseau virtuelle, cette interface perd ses communications.
La liaison des commutateurs virtuels sur un réseau local virtuel ANS aura la même adresse MAC que le VLAN, qui
aura la même adresse que la carte réseau virtuelle ou l’association sous-jacente. Si vous avez plusieurs VLAN liés à
une association et qu’un commutateur virtuel est lié à chaque VLAN, tous les commutateurs virtuels auront la même
adresse MAC. Le groupage des commutateurs virtuels entraîne une erreur de réseau dans l’outil de validation du
cluster Microsoft. Dans certains cas, il n’y aura aucun impact sur la performance du cluster si cette erreur est ignorée.
Cependant, ce genre de cluster n’est pas pris en charge par Microsoft. L’utilisation du Gestionnaire de périphérique
pour donner à chaque commutateur virtuel une adresse unique permet de résoudre ce problème. Reportez-vous à
l'article Microsoft TechNet Configure MAC Address Spoofing for Virtual Network Adapters pour plus de détails.
VMQ et SR-IOV ne peuvent pas être activés sur une interface de carte NIC virtuelle Hyper-V liée à un VLAN configuré
à l’aide de l’onglet VLANs du Gestionnaire de périphériques Windows.
Utilisation d'une association ou d'un VLAN ANS comme carte réseau
virtuelle
Pour utiliser une association ou un réseau local virtuel comme carte réseau virtuelle, suivez ces étapes :
REMARQUES :
l applicable uniquement aux cartes réseau virtuelles créées sur une association ou un réseau local
virtuel. Les cartes réseau virtuelles créées sur une carte physique ne nécessitent pas ces étapes.
l le mode RLB (Receive Load Balancing) n’est pas pris en charge dans Hyper-V. Désactivez le mode
RLB lorsque vous utilisez Hyper-V.
1.
2.
3.
4.
5.
Utilisez Intel® PROSet pour créer l’association ou le réseau local virtuel.
Ouvrez le Panneau de configuration Réseau.
Ouvrez l’association ou le réseau local virtuel.
Dans l’onglet Général, désélectionnez toutes les liaisons de protocole et cliquez sur OK.
Créez la carte réseau virtuelle. (Si vous cochez la case "Allow management operating system to share the
network adapter" (Permettre au système d’exploitation d’administration de partager la carte réseau), l’étape
suivante peut être réalisée dans la partition parente.)
6. Ouvrez le Panneau de configuration Réseau de la carte réseau virtuelle.
7. Dans l’onglet Général, cochez les liaisons de protocole souhaitées.
Ligne de commande pour Microsoft Windows Server* Core
Microsoft Windows Server* Core ne possède pas d’interface utilisateur graphique. Pour utiliser une association ANS
ou un réseau VLAN comme carte d'interface réseau virtuelle, vous devez utiliser Microsoft* Windows PowerShell* pour
procéder à la configuration. Utilisez Windows PowerShell pour créer l'association ou le réseau local virtuel.
Délestage de la file d’attente d’une machine virtuelle
L'activation du délestage du filtrage VMQ améliore les performances de réception et de transmission, car la carte
informatique peut traiter ces tâches plus rapidement que le système d'exploitation. Le délestage permet également de
libérer des ressources du processeur. Le filtrage est basé sur les filtres MAC et/ou des VLAN. Pour les périphériques
qui le prennent en charge, le délestage VMQ est activé sur la partition hôte de la feuille des propriétés Gestionnaire de
périphériques de la carte réseau (section Virtualisation de l’onglet Avancé).
Chaque carte réseau Ethernet Intel® dispose d’un pool de ports virtuels qui se répartissent entre les diverses
fonctionnalités : délestage VMQ, SR-IOV, Data Center Bridging (DCB) et Fibre Channel over Ethernet (FCoE).
L’augmentation du nombre de ports virtuels utilisées pour une fonctionnalité diminue d’autant le nombre utilisable par
les autres fonctionnalités. Sur les périphériques qui le permettent, l’activation de DCB réduit à 32 le pool total
disponible pour les autres fonctionnalités. L’activation de FCoE fait tomber ce nombre à 24.
REMARQUE : ceci ne s'applique pas aux dispositifs basés sur les contrôleurs Ethernet Intel® X710 ou
XL710.
Intel® PROSet affiche le nombre de ports virtuels disponibles pour les fonctions virtuelles (propriétés Virtualisation
dans l’onglet Avancé du périphérique). Il permet également de définir la manière dont les ports virtuels disponibles
sont répartis entre VMQ et SR-IOV.
Remarques concernant les associations
l
l
l
l
Si la fonctionnalité VMQ n’est pas activée sur toutes les cartes d’une association, elle sera désactivée sur cette
association.
Si une carte ne prenant pas en charge la fonctionnalité VMQ est ajoutée à l’association, la fonctionnalité VMQ
sera désactivée sur l’association.
Les cartes réseau virtuelles ne peuvent pas être créées sur une association sur laquelle l’équilibrage de la
charge de réception est activé. L’équilibrage de la charge de réception est automatiquement désactivé si vous
créez une carte réseau virtuelle sur l’association.
Si une association est liée à une carte réseau virtuelle Hyper-V, vous ne pouvez pas changer la carte
principale ou la carte secondaire.
Files d'attente multiples de machines virtuelles
Les files d'attente multiples de machines virtuelles (VMMQ) activent Receive Side Scaling (RSS) pour les ports virtuels
liés à un port physique. Cela permet d'utiliser RSS en conjonction avec SR-IOV et à l'intérieur d'une machine virtuelle
VMQ, ainsi que de délester le traitement RSS sur la carte réseau. Cette fonctionnalité reçoit le trafic sur plusieurs
processeurs ou cœurs de processeurs. ce paramètre est sans effet si le système ne comporte d’un processeur.
SR-IOV (Virtualisation des E/S root unique)
SR-IOV permet à un même port réseau d’apparaître sous forme de plusieurs fonctions virtuelles différentes dans un
environnement virtualisé. Si vous avez une carte d’interface réseau compatible SR-IOV, chacun des ports de cette
carte peut affecter une fonction virtuelle à plusieurs partitions invitées. Les fonctions virtuelles contournent le
gestionnaire VMM de machines virtuelles en permettant aux données de paquets d’aller directement dans la mémoire
d’une partition invitée, ce qui se traduit par un débit plus élevé et une moindre utilisation du CPU. SR-IOV vous permet
lui aussi de déplacer les données des paquets directement dans la mémoire d’une partition invitée. La prise en charge
de SR-IOV a été ajoutée à Microsoft Windows Server 2012. Consultez la documentation de votre système
d’exploitation pour connaître les conditions systèmes requises.
Pour les périphériques qui le prennent en charge, SR-IOV est activé sur la partition hôte de la feuille des propriétés
Gestionnaire de périphériques de la carte réseau (section Virtualisation de l’onglet Avancé). Certains appareils
peuvent avoir besoin que SR-IOV soit activé dans un environnement de prédémarrage.
REMARQUES :
l Configuration de SR-IOV pour une sécurité réseau renforcée : dans un
environnement virtualisé, la fonction virtuelle peut être sujette à un comportement
malveillant sur les cartes Intel(R) pour serveurs prenant en charge SR-IOV. Les
trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic
entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour
résoudre ce problème, configurez tous les ports compatibles SR-IOV pour
l
l
l
l
l
l
l
l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames
inattendues et potentiellement malveillantes.
Vous devez activer VMQ pour que SR-IOV puisse fonctionner.
SR-IOV n’est pas pris en charge avec les associations ANS.
VMWare ESXi ne prend pas en charge SR-IOV sur les ports 1 GbE.
Si SR-IOV est désactivé sur le BIOS ou le gestionnaire de démarrage, l'activation
de SR-IOV depuis Intel PROSet nécessitera un redémarrage du système.
En raison des limitations des chipsets, tous les systèmes ou connecteurs ne
prennent pas en charge SR-IOV. Vous trouverez ci-dessous un tableau
récapitulatif de la prise en charge de SR-IOV sur les plates-formes serveur Dell.
Lorsqu'une carte fonctionne en mode NPar, SR-IOV est limité à la partition racine
de chaque port.
Lorsqu'une carte fonctionne en mode NPar, les paramètres de virtualisation (SRIOV) s'appliquent à tous les ports de la carte et à toutes les partitions de chaque
port. Les modifications apportées aux paramètres de virtualisation sur un port sont
appliqués à tous les ports de la carte.
Prise en charge de SR-IOV sur les cartes réseau
Carte fille réseau, LAN sur carte mère ou carte
40Gbe 10Gbe 1Gbe
Carte réseau convergent Ethernet Intel® XL710-Q2
Oui
Oui
Carte Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Oui
Oui
Carte Ethernet Intel® 10G 4P X710-k bNDC
Oui
Carte Ethernet Intel® 10G 2P X710-k bNDC
Oui
Carte Ethernet Intel® 10G X710-k bNDC
Oui
Carte réseau convergent Intel® X710
Oui
Carte Ethernet Intel® 10G 4P X710/l350 rNDC
Oui
Carte Ethernet Intel® 10G 4P X710 SFP+ rNDC
Oui
Carte Ethernet Intel® 10G X710 rNDC
Oui
Carte réseau Ethernet Intel® 10G 2P X550-t
Oui
Carte réseau Ethernet Intel® 10G 2P X540-t
Oui
Intel Ethernet X540 DP 10Gb BT + I350 1Gb BT DP Carte fille réseau
Oui
Carte Ethernet Intel® 10G 2P X520-k bNDC
Oui
Carte réseau Ethernet Intel® 10G 2P X520
Oui
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Oui
Carte Intel® Gigabit 4P I350-t rNDC
Non
Oui
Carte Intel® Gigabit 4P I350 bNDC
Non
Oui
Non
Non
Non
Carte mezzanine Intel® Gigabit 4P I350-t
Oui
Carte réseau Intel® Gigabit 2P I350-t
Oui
Carte réseau Intel® Gigabit 4P I350-t
Oui
PowerEdge C4130 LOM
Non
PowerEdge C6320 LOM
PowerEdge T620 LOM
Oui
Non
Carte fille réseau, LAN sur carte mère ou carte
40Gbe 10Gbe 1Gbe
PowerEdge T630 LOM
PowerEdge FC430 LOM
PowerEdge R530XD LOM
Non
Non
Oui
Non
Carte fille réseau pour rack
Connecteur PCI Express
Carte 10 GbE Carte 1 GbE
1
2
C4130
oui
oui
C6320
oui
R230
non non
R320
non oui
R330
non non
Plate-forme Dell
R420
1 x UC
non oui
2 x UC
oui
oui
oui
oui
R430
R520
3
4
5
1 x UC
non oui
oui
oui
2 x UC
oui
oui
oui
oui
R530
oui
oui
oui
non non
R530XD
oui
oui
non
R620
oui
oui
oui
R630
oui
oui
oui
6
7
8
9
10
R720XD
oui
non
oui
oui
oui
oui
oui
oui
R720
oui
non
oui
oui
oui
oui
oui
oui oui
R730
oui
oui
oui
oui
oui
oui oui
R730XD
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui oui
R930
oui
oui
oui
oui
oui
oui oui oui oui oui
T130
non non non non
T320
non non oui
T330
non non non non
T420
non non oui
oui
oui
oui
T430
non non oui
oui
oui
oui
T620
oui
oui
non oui
oui
oui oui
T630
oui
non oui
oui
oui oui
R820
oui
non
R830
R920
oui
non
Carte fille réseau lame
Plate-forme Dell
Carte 10 GbE Carte 1 GbE B
FC430
FC630
Connecteur mezzanine
oui
oui
C
oui
oui
oui
oui
oui
oui
oui
Carte fille réseau lame
Connecteur mezzanine
Plate-forme Dell
Carte 10 GbE Carte 1 GbE B
C
FC830
oui
oui
oui
M420
oui
oui
oui
M520
non
oui
oui
M620
oui
oui
oui
M630
oui
oui
oui
M630 pour VRTX oui
M820
oui
oui
oui
M830
oui
oui
oui
M830 pour VRTX oui
Les plates-formes ou connecteurs pris en charge sont indiqués par un "oui". Mention « non » : non pris en charge.
Cellule vide : non applicable.
Pilotes Linux* pour les cartes Ethernet Intel®
Présentation
Cette version inclut des pilotes Linux de base pour les cartes Connexions réseau Intel®. Des informations spécifiques
sur la compilation et l’installation, la configuration et les paramètres de ligne de commande pour ces pilotes se
trouvent dans les sections suivantes :
l Pilote Linux* igb pour les cartes réseau Gigabit Ethernet Intel® basées sur les contrôleurs 82575, 82576, I350
et I354
l Pilote Linux* ixgbe pour les cartes réseau 10 Gigabit Ethernet Intel® basées sur les contrôleurs 82598, 82599
et X540
l Pilote Linux* i40e pour les cartes serveur 10 Gigabit Ethernet Intel® basées sur les contrôleurs X710 et XL710
Consultez la section Cartes réseau prises en charge ci-dessous pour déterminer quel pilote utiliser.
Ces pilotes sont pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à
appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions sur la configuration
matérielle, consultez la section Configuration minimale requise. Toutes les configurations matérielles énumérées
s’appliquent à une utilisation avec Linux.
Cette version comprend également la pris en charge des pilotes SR-IOV (Single Root I/O Virtualization). Vous
trouverez ici des explications plus détaillées sur SR-IOV. Intel recommande des environnements en mode de test
jusqu’à ce que les hyperviseurs de l’industrie offrent une prise en charge de niveau production. Les pilotes suivants
prennent en charge les périphériques de fonction virtuelle de la liste qui ne peuvent être activés que sur les noyaux
qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée et la prise en charge du système
d’exploitation.
l Pilote Linux igbvf pour famille de cartes réseau Intel® Gigabit pour les familles de cartes réseau Gigabit avec
contrôleurs 82575, 82576, I350 et I354
l Pilote Linux ixgbevf pour famille de cartes réseau Intel® 10 Gigabit pour famille de cartes réseau 10 Gigabit
avec chipset 82599 et X540.
l Pilote Linux i40e pour famille de cartes réseau Intel® 10 Gigabit pour la famille de cartes réseau 10 Gigabit
avec chipset X710 et de cartes réseau 40 Gigabit avec chipset XL710.
REMARQUES :
l Sur les systèmes fonctionnant sous Linux, Solaris ou ESXi, le pilote de base doit être chargé pour que le
DUP FW Dell fonctionne correctement.
l Ce pilote i40e ne prend pas en charge SR-IOV sur ESXi 5.1.
Cartes prises en charge
Les cartes réseau Intel suivantes sont compatibles avec les pilotes de cette version :
Appareils pris en charge par le pilote de base igb pour Linux
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350-t bNDC
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350 bNDC
Fond de panier Connexion Ethernet Intel® I354 1.0 GbE
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Appareils pris en charge par le pilote de base ixgbe pour Linux
l
l
l
l
l
l
l
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Carte Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 10G 2P X520
Carte Ethernet Intel® 10G X520 LOM
Appareils pris en charge par le pilote de base i40e pour Linux
l
l
l
l
l
l
l
l
l
Carte Ethernet Intel® 10G 4P X710-k bNDC
Carte Ethernet Intel® 10G 2P X710-k bNDC
Carte Ethernet Intel® 10G X710-k bNDC
Carte réseau convergent Intel® X710
Carte Ethernet Intel® 10G 4P X710/l350 rNDC
Carte Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte Ethernet Intel® 10G X710 rNDC
Carte Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Carte réseau convergent Ethernet Intel® XL710-Q2
Pour vérifier si votre carte est prise en charge, recherchez son ID sur la carte. Recherchez une étiquette comportant un
code à barres et un numéro au format 123456-001 (six chiffres, tiret, trois chiffres). Comparez le numéro à la liste cidessus.
Pour obtenir de plus amples informations sur l’identification de votre carte ou pour obtenir les derniers pilotes réseau
pour Linux, consultez l’Assistance à la clientèle.
Versions Linux prises en charge
Les pilotes pour Linux sont fournis pour les distributions suivantes (seules les versions Intel® 64 sont prises en
charge) :
Red Hat Enterprise Linux (RHEL) :
l Red Hat* Enterprise Linux* (RHEL) 7.2
l RHEL 7,1
l RHEL 6,7
SLES Linux Enterprise Server (SUSE) :
l Novell* SUSE* Linux Enterprise Server (SLES) 12 SP1
l SLES 11 SP4
Partitionnement NIC
Le partitionnement de carte réseau (NIC) (NPar) permet aux administrateurs réseau de créer plusieurs partitions pour
chaque port physique d'une carte réseau, et de définir différentes allocations de bande passante sur chaque partition.
Pour le réseau et le système d'exploitation, chaque partition apparaît comme un port physique distinct sur la carte. Ceci
facilite la réduction du nombre de ports de commutation et la complexité du câblage tout en préservant la
segmentation et l'isolation du réseau. De plus, l'allocation flexible de bande passante par partition permet une
utilisation efficace de la liaison.
NPar est pris en charge par les cartes réseau suivantes, en combinaison avec le pilote Linux* i40e, et gère un
maximum de 8 partitions sur les NIC suivants :
l Carte Ethernet Intel® 10G 4P X710-k bNDC
l Carte Ethernet Intel® 10G 2P X710-k bNDC
l Carte Ethernet Intel® 10G X710-k bNDC
l Carte réseau convergent Intel® X710
l
l
l
Carte Ethernet Intel® 10G 4P X710/l350 rNDC
Carte Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte Ethernet Intel® 10G X710 rNDC
Le mode NParEP est une combinaison de NPar et de PCIe ARI, et augmente le nombre maximum de partitions sur ces
cartes à 16 par carte réseau.
Tant NPar que NParEP prend en charge SR-IOV sur les cartes réseau répertoriées ci-dessus (mais uniquement sur la
première partition).
Le mode NPar, et l'extension NParEP, sont activés au moyen des paramètres du périphériques dans le menu
Configuration du système. Le processus de configuration des partitions de port est détaillé dans la section
Configuration du mode NPar du chapitre NPar de ce guide : Configuration du mode NPar.
L'allocation de la bande passante à la partition est réalisée pendant le processus prédémarrage de configuration du
mode NPar décrit dans la section Configuration du mode NPar. Cependant, quand NPar a été activé et que le
processus de démarrage est terminé, il est possible d'examiner et/ou de réinitialiser l'allocation de bande passante à
chaque partition au moyen de la ligne de commande de Linux*. Cette procédure est décrite dans la section Pilotes
Linux du guide : Configuration des options NPar dans Linux*. Remarquez cependant que les paramètres réglés sur la
ligne de commande de Linux* ne sont pas persistants et qu'en cas de redémarrage du système, ils retrouvent les
réglages de l'allocation de bande passante actifs lors du démarrage système le plus récent.
Assistance
Pour obtenir des informations générales et de l’assistance, contactez l’Assistance à la clientèle.
Si un problème est identifié par le code source distribué avec les noyaux pris en charge d’une carte prise en charge,
envoyez par courrier électronique les informations spécifiques relatives au problème à e1000-devel@lists.sf.net.
Pilote Linux* igb pour cartes réseau Intel® Gigabit
Présentation des pilotes igb
Ce fichier décrit le pilote de base Linux* pour connexions réseau Intel® Gigabit basées sur les contrôleurs Intel®
82575EB, Intel® 82576, Intel® I350 et Intel® I354. Ce pilote prend en charge les noyaux 2.6.x et 3.x.
Ce pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à
la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions sur la configuration matérielle,
consultez la section Configuration minimale requise. Toutes les configurations matérielles énumérées s’appliquent à
une utilisation avec Linux.
Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge :
l Réseaux VLAN natifs
l Channel Bonding (agrégation)
l SNMP
L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette
fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité
Channel Bonding est disponible dans la source du noyau Linux : /documentation/networking/bonding.txt
Le pilote igb prend en charge l’horodatage IEEE sur les noyaux 2.6.30 et supérieurs.
Utilisez ethtool, lspci ou ifconfig pour obtenir des informations sur le pilote. Les instructions de mise à jour d’ethtool se
trouvent dans la section Configurations supplémentaires plus loin sur cette page.
Appareils pris en charge par le pilote de base igb pour Linux
Les cartes réseau Intel suivantes sont compatibles avec le pilote igb de cette version :
l Carte Intel® Gigabit 4P I350-t rNDC
l Carte Intel® Gigabit 4P X540/I350 rNDC
l Carte Intel® Gigabit 4P X520/I350 rNDC
l
l
l
l
l
l
l
l
l
l
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350-t bNDC
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350 bNDC
Fond de panier Connexion Ethernet Intel® I354 1.0 GbE
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Pour obtenir des informations sur l'identification de votre carte ou pour obtenir les derniers pilotes réseau pour Linux,
consultez l'Assistance à la clientèle.
Compilation et installation
Il existe trois méthodes d’installation du pilote igb :
l Installation à partir du code source
l Installer à l’aide de RPM KMP
l Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour créer un package RPM* binaire de ce pilote, exécutez "rpmbuild -tb <nom_de_fichier.tar.gz>". Remplacez <nom_
de_fichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUE :
l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez
’/home/username/igb’ ou ’/usr/local/src/igb’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf igb-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd igb-<x.x.x>/src/
4. Compilez le module du pilote :
# make install
Les instructions binaires sont installées comme suit :
/lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/igb/igb.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être
différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe :
modprobe igb
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes IGB sont supprimés du noyau,
avant de charger le nouveau module :
rmmod igb.ko; modprobe igb
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> up
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
REMARQUE : certains systèmes éprouvent des difficultés à traiter les interruptions MSI et/ou MSI-X. Si votre
système doit désactiver ce type d’interruption, le pilote peut être compilé et installé avec la commande suivante :
#make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install
En temps normal, le pilote envoie une interruption toutes les deux secondes. Si les interruptions ne sont pas
reçues dans cat /proc/interrupts pour le périphérique ethX e1000e, ce contournement peut s’avérer nécessaire.
Pour créer un pilote igb avec DCA
Si votre noyau prend en charge DCA, DCA est activé par défaut lorsque le pilote est compilé.
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur RHEL 6 et SLES 11.
Les RPM KMP mettent à jour les RPM igb actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-igb-1.3.8.6-1.x86_64.rpm : igb est le nom du composant ; 1.3.8.6-1 est la version du composant ; et
x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : igb est le nom du composant ; default est le
type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est le numéro de version ; et x86_64 et le type
d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le paquetage RPM KMP igb, tapez ce qui suit :
rpm -i intel-igb-1.3.8.6-1.x86_64.rpm
rpm -i intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-igb-2.3.4-1.x86_64.rpm :
l igb est le nom du pilote
l 2.3.4 est la version
l x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD igb depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-igb-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe igb [<option>=<VAL1>,<VAL2>,...]
Une valeur (<VAL#>) doit être attribuée à chaque port réseau du système pris en charge par ce pilote. Les valeurs sont
appliquées à chaque instance, en fonction de l'ordre. Par exemple :
modprobe igb InterruptThrottleRate=16000,16000
Dans ce cas, deux ports réseau sont pris en charge par igb sur le système. La valeur par défaut de chaque paramètre
est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
InterruptThrottleRate 0, 1, 3, 100100000
(0=désactivé,
1=dynamique,
3=dynamique
conservatif)
3
Description
Le pilote peut limiter le nombre d’interruptions par seconde
générées par la carte pour les paquets entrants. Pour ce faire,
il écrit une valeur sur la carte, basée sur le nombre maximum
d’interruptions que la carte générera par seconde.
Lorsque le paramètre InterruptThrottleRate est affecté d’une
valeur supérieure ou égale à 100, la carte est programmée
pour envoyer ce nombre maximum d’interruptions par
seconde, même si plus de paquets sont entrés. Cela réduit la
charge d’interruptions sur le système et peut diminuer
l’utilisation de l’unité centrale en cas de surcharge, mais
augmente la latence car les paquets ne sont pas traités aussi
rapidement.
Le comportement par défaut du pilote prenait pour hypothèse
que le paramètre InterruptThrottleRate possédait une valeur
statique de 8000, ce qui fournissait une bonne valeur de
secours pour tous les types de trafic, mais des performances
médiocres concernant le traitement des paquets et la latence.
Le pilote possède deux modes adaptatifs (valeur 1 ou 3) avec
lesquels il ajuste de façon dynamique la valeur
InterruptThrottleRate en fonction du trafic qu’il reçoit. Après
avoir déterminé le type de trafic entrant de la dernière tranche
de temps, il ajuste la valeur InterruptThrottleRate à une valeur
appropriée en fonction de ce trafic.
L’algorithme trie le trafic entrant à chaque intervalle dans des
classes. Une fois que la classe est déterminée, la valeur
InterruptThrottleRate est ajustée afin de correspondre au
mieux au type de trafic. Trois classes sont définies : "Bulk
traffic" (Trafic en vrac), pour les grandes quantités de paquets
de taille normale ; "Low latency" (Faible latence), pour les
trafics de petite quantité et/ou un pourcentage important de
petits paquets ; et "Lowest latency" (Plus faible latence), pour
les trafics composés presque exclusivement de petits paquets
et les très faibles trafics.
En mode dynamique conservatif, la valeur
InterruptThrottleRate est définie sur 4000 pour un trafic
tombant dans la classe "Bulk traffic" (Trafic en vrac). Si le trafic
tombe dans la classe "Low latency" (Faible latence) ou
"Lowest latency" (Plus faible latence), la valeur
InterruptThrottleRate est augmentée progressivement jusqu’à
20 000. Ce mode par défaut est adapté à la plupart des
applications.
Pour les cas où une faible latence est essentielle, tels que les
grappes ou les grilles d’ordinateurs, l’algorithme peut réduire
encore la latence lorsque le paramètre d’InterruptThrottleRate
est réglé sur le mode 1. Dans ce mode, qui fonctionne comme
le mode 3, l’InterruptThrottleRate est augmenté pas à pas
jusqu’à 70000 pour le travail de la classe à plus faible latence.
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des
interruptions est désactivée, ce qui peut améliorer la latence
des petits paquets, mais n’est généralement pas adapté à un
trafic important.
REMARQUE : le paramètre InterruptThrottleRate a
priorité sur les paramètres TxAbsIntDelay et
RxAbsIntDelay. En d’autres mots, la minimisation des
délais de réception et/ou transmission absolus ne force
pas la génération, par le contrôleur, d’un nombre
d’interruptions supérieur à celui autorisé par le
paramètre InterruptThrottleRate.
LLIPort
0-65535
0
LLIPort configure le port pour des interruptions à faible latence
(désactivé) (LLI).
Les interruptions à faible latence permettent la création
immédiate d’une interruption lors du traitement de paquets de
réception correspondant à certains critères définis par les
paramètres ci-dessous. Les paramètres LLI ne sont pas
activés lorsque les interruptions héritées sont utilisées. MSI ou
MSI-X doivent être utilisés (voir cat /proc/interrupts) pour
utiliser les LLI avec succès.
Par exemple, l’utilisation de LLIPort-80 provoquerait l’envoi
par la carte d’une interruption immédiate dès réception d’un
paquet envoyé au port TCP 80 de la machine locale.
ATTENTION : l’activation de LLI peut provoquer un
nombre excessif d’interruptions/seconde avec pour
conséquence des problèmes au niveau du système
et, dans certains cas, une panique du noyau.
LLIPush
0-1
0
LLIPush peut être paramétré sur activé ou désactivé (par
(désactivé) défaut). Cette option est très efficace dans un environnement
comportant de nombreuses petites transactions.
REMARQUE : l’activation de LLIPush peut permettre
une attaque par déni de service.
LLISize
0-1500
0
LLISize provoque une interruption immédiate si la carte reçoit
(désactivé) un paquet plus petit que la taille spécifiée.
IntMode
0-2
2
Cela permet de contrôler le temps de chargement par rapport
au type d’interruption enregistré par le pilote. MSI-X est requis
pour la prise en charge de plusieurs files d’attente. Certains
noyaux et certaines combinaisons d’options de configurations
de noyau forceront un niveau de prise en charge inférieur des
interruptions. ’cat/proc/interrupts’ affichera des valeurs
différentes pour chaque type d’interruption.
0 = interruptions héritées
1 = interruptions MSI
2 = interruptions MSI-X (par défaut).
RSS
0-8
1
REMARQUE : pour les cartes réseau dotées du
contrôleur 82575, le nombre maximal de files est de
quatre ; pour celles dotées du contrôleur 82576 et plus
récent, il est de 8.
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
REMARQUE : pour les cartes réseau dotées du
contrôleur 82575, le nombre maximal de files est de
quatre ; pour celles dotées du contrôleur 82576 et plus
récent, il est de 8.
Le paramètre VMDQ n’a pas d’incidence sur ce paramètre, car
il limite davantage les files.
VMDQ
0-4 pour les
cartes réseau
avec chipset
82575
0
Modèle
0
1
2
3+
82575
4
4
3
1
82576
8
2
2
2
Cela permet l’activation de pools VMDq, ce qui est nécessaire
pour la prise en charge de SR-IOV.
Ce paramètre est forcé sur 1 ou plus si le paramètre de
module max_vfs est utilisé. En outre, le nombre de files
disponibles pour RSS est limité s’il est paramétré sur 1 ou
plus.
0-8 pour les
cartes réseau
avec chipset
82576
0 = Désactivé
1 = Définit le netdev comme pool 0
2 ou plus = Ajouter des files d’attente supplémentaires.
Néanmoins, celles-ci ne sont pas utilisées.
REMARQUE : lorsque les modes SR-IOV ou VMDq sont
activés, le filtrage de VLAN matériel et la
suppression/insertion de balises VLAN restent activés.
max_vfs
0-7
0
Ce paramètre assure la prise en charge SR-IOV. Il fait générer
au pilote jusqu’à max_vfs de fonction virtuelle.
Si la valeur est supérieure à 0, il force la valeur du paramètre
VMDQ sur 1 ou plus.
REMARQUE : lorsque les modes SR-IOV ou VMDq sont
activés, le filtrage de VLAN matériel et la
suppression/insertion de balises VLAN restent activés.
Supprimez l'ancien filtre de VLAN avant d'ajouter le
nouveau filtre de VLAN. Par exemple,
ip link set eth0 vf 0 vlan 100
// définir vlan 100 pour VF 0
ip link set eth0 vf 0 vlan 0 //
supprimer vlan 100
ip link set eth0 vf 0 vlan 200
// définir un nouveau vlan 200
pour VF 0
QueuePairs
0-1
1
Cette option peut être forcée en 1 si les interruptions
disponibles ne sont pas suffisantes. Cela peut se produit si
une combinaison de RSS, VMDQ et max_vfs résulte en
l’utilisation de plus de 4 files.
0 = Si MSI-X est activé, les TX et RX tentent d’occuper des
vecteurs distincts.
1 = TX et RX sont appariés sur un vecteur d’interruption (par
défaut).
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Node (nœud)
0-n, ou n est le
nombre de
nœuds NUMA
devant être
utilisés pour
allouer une
mémoire à ce
port
d’adaptation.
-1, utilise le
pilote par
défaut
d’allocation de
la mémoire sur
n’importe quel
processeur
exécutant
modprobe.
EEE
0-1
Description
-1
Les paramètres du nœud vous permettent de choisir à partir de
(désactivé) quel nœud NUMA vous désirez que l’adaptateur alloue la
mémoire. Toutes les structures des pilotes, les files d’attentes
mémorisées et mémoires tampons seront alloués au nœud
spécifié. Ce paramètre n’est utile que lorsque l’affinité
d’interruption est spécifiée, au cas contraire, l’interruption
pourrait être exécutée pendant un moment sur une machine
autre que celle sur laquelle la mémoire est allouée,
ralentissant ainsi l’accès à la mémoire et ayant un impact sur
le CPU ou les deux.
1 (activé)
Cette option permet l’intégration d’IEEE802.3az, Energy
Efficient Ethernet (EEE), devant être annoncés sur le site
partenaire sur les équipements prenant en charge EEE.
Une liaison entre les deux périphériques compatibles EEE
entraîne des paquets de données périodiques suivis de
période en mode veille. Ce mode basse consommation (LPI)
est pris en charge pour les vitesses de liaison 1 Gbit/s et
100 Mbit/s.
REMARQUES :
l La prise en charge EEE nécessite une
négociation automatique.
l la fonctionnalité EEE est désactivée par défaut
sur les cartes I350.
DMAC
0, 250, 500,
1000, 2000,
3000, 4000,
5000, 6000,
7000, 8000,
9000, 10000
0
Active ou désactive la fonction de coalition DMA. Les valeurs
(désactivé) sont en microsecondes et augmentent le compteur interne de
la fonction de coalition DMA. Le DMA (Direct Memory Access)
permet au périphérique de réseau de déplacer directement les
données de paquet vers la mémoire du système, réduisant
ainsi l’utilisation du processeur. Cependant, la fréquence et les
intervalles aléatoires d’arrivée de paquets ne permettent pas
au système d’entrer en mode faible consommation. La
coalition DMA permet à la carte réseau de collecter des
paquets avant de démarrer un événement DMA. La latence de
réseau peut augmenter, ainsi que les chances que le système
entre en mode faible consommation.
L’activation de la coalition DMA peut permettre d’économiser
de l’énergie avec le noyau 2.6.32 et version ultérieure. Votre
système consommera ainsi moins d’énergie. La coalition DMA
permet d’économiser potentiellement l’énergie de la plateforme uniquement si elle est activée sur tous les ports actifs.
La fonction InterruptThrottleRate (ITR) doit être définie en
mode dynamique. Quand ITR=0, la coalition DMA est
automatiquement désactivée.
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
La meilleure configuration de votre plate-forme est expliquée
dans un document disponible sur le site Web Intel.
MDD
0-1
1 (activé)
Le paramètre MDD (Malicious Driver Detection) n’est
approprié que pour les périphériques I350 fonctionnant en
mode SR-IOV. Quand ce paramètre est sélectionné, le pilote
détecte un pilote VF malveillant et désactive ses files d’attente
TX/RX jusqu’à ce qu’une réinitialisation du pilote VF se
produise.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l'ajout d'une ligne d'alias dans le fichier
/etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou
de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces
modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système,
reportez-vous à votre documentation de distribution. Si, lors de ce processus, vous êtes invité à fournir le nom du pilote
ou du module, le nom du pilote de base Red Hat Linux pour la famille de cartes Intel Gigabit est igb.
Par exemple, si vous installez le pilote igb pour deux cartes Intel Gigabit (eth0 et eth1) et que vous définissez une
vitesse et un duplex de 10 Full et 100 Half, ajoutez ce qui suit à modules.conf :
alias eth0 igb
alias eth1 igb
options igb IntMode=2,1
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. Utilisez la commande ifconfig pour augmenter la valeur MTU. Par exemple :
ifconfig eth<x> mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. Ce paramètre peut être rendu permanent en ajoutant MTU
= 9000 MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x>, dans les distributions Red Hat.
Les autres distributions peuvent stocker ce paramètre à un autre emplacement.
REMARQUES :
l L’utilisation de trames Jumbo à des vitesses de 10 ou 100 Mbit/s pourrait résulter en une baisse des
performances ou une perte de liaison.
l Pour activer les trames Jumbo, définissez une taille MTU supérieure à 1 500 dans l’interface.
l La taille maximale des trames Jumbo est 9234 octets, avec une taille MTU correspondante de 9216
octets.
ethtool
Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des
informations statistiques. La version 3.0 de ethtool ou une version ultérieure est requise pour cette fonctionnalité, mais
nous vous recommandons fortement de télécharger la dernière version à :
http://ftp.kernel.org/pub/software/network/ethtool/.
Configuration de la vitesse et du mode duplex
En mode par défaut, une carte réseau Intel® utilisant des connexions en cuivre tente de négocier automatiquement
avec son partenaire de liaison afin de déterminer la meilleure configuration. Si la carte réseau ne parvient pas à établir
de liaison avec son partenaire de liaison en utilisant la négociation automatique, vous devrez sans doute configurer
manuellement la carte et le partenaire de liaison de manière identique afin d’établir la liaison et transmettre des
paquets. Cette opération ne doit être exécutée que pour établir une liaison avec un commutateur ancien qui ne prend
pas en charge la négociation automatique ou utilisant une vitesse ou un mode duplex particuliers.
La configuration du partenaire de liaison doit correspondre à celle que vous avez choisie. Les cartes à fibres optiques
fonctionnent uniquement en Full duplex et seulement à leur vitesse native.
La vitesse et le duplex sont configurés à l'aide de l'utilitaire ethtool*. ethtool est inclus dans toutes les distributions Red
Hat suivant la version Red Hat 6.2. Pour les autres distributions Linux, téléchargez et installez ethtool depuis le site
suivant : http://ftp.kernel.org/pub/software/network/ethtool/.
ATTENTION : seul un administrateur réseau expérimenté devrait forcer manuellement la vitesse et le mode
duplex. Les paramètres du commutateur doivent toujours concorder avec ceux de la carte. La carte sera
sensiblement moins performante ou ne fonctionnera pas du tout si les paramètres de la carte diffèrent de ceux
du commutateur.
Activation de Wake on LAN*
Wake on LAN (WoL) est configuré à l'aide de l'utilitaire ethtool*. ethtool est inclus dans toutes les distributions Red Hat
suivant la version Red Hat 7.2. Pour les autres distributions Linux, téléchargez et installez ethtool depuis le site
suivant : http://ftp.kernel.org/pub/software/network/ethtool/.
Pour obtenir des instructions sur l'activation de la fonctionnalité WoL avec ethtool, reportez-vous au site Web
mentionné ci-dessus.
WoL sera activé sur le système lors de sa prochaine fermeture ou de son prochain redémarrage. Pour cette version de
pilote et pour activer la fonctionnalité WoL, le pilote igb doit être chargé avant l'arrêt ou la mise en veille du système.
REMARQUE : la fonctionnalité Wake on LAN est prise en charge uniquement sur le port A des périphériques
dotés de plusieurs ports.
Multiqueue
Dans ce mode, un vecteur MSI-X distinct est attribué à chaque file d’attente, et un vecteur est attribué aux "autres"
interruptions, telles qu’un changement d’état de la liaison et des erreurs. Toutes les interruptions sont limitées par la
gestion des interruptions. La gestion des interruptions sert à éviter des perturbations d’interruptions lorsque le pilote
traite une interruption. La valeur de gestion doit être au moins aussi importante que la durée prévue pour que le pilote
traite une interruption. La fonction de file d’attente multiple est désactivée par défaut.
La prise en charge de MSI-X est nécessaire pour la fonction de file d’attente multiple. Si MSI-X n’est pas trouvé, le
système se replie sur MSI ou sur les interruptions héritées. Ce pilote prend en charge les files d’attente multiples dans
les versions de noyau 2.6.24 et supérieures et les files d’attente de réception multiples sur tous les noyaux prenant en
charge MSI-X.
REMARQUES :
l N’utilisez pas MSI-X avec les noyaux 2.6.19 ou 2.6.20. Nous vous recommandons d’utiliser un noyau
2.6.21 ou ultérieur.
l Certains noyaux nécessitent un redémarrage pour passer entre un mode de file d’attente unique et un
mode à plusieurs files d’attente et vice versa.
Large Receive Offload (LRO)
Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large
bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux
unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des
paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit
potentiellement l’utilisation du processeur pour les réceptions.
REMARQUE : LRO nécessite un noyau 2.6.22 ou de version ultérieure.
IGB_LRO est un indicateur de temps de compilation. Il peut être activé au moment de la compilation pour ajouter un
soutien du pilote au LRO. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIGB_LRO" au fichier make lorsqu’il
est compilé. Par exemple :
# make CFLAGS_EXTRA="-DIGB_LRO" install
Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool :
l lro_aggregated - nombre total des paquets qui ont été combinés
l lro_flushed - compte le nombre de paquets vidés du LRO
l lro_no_desc - compte le nombre de fois où un descripteur LRO n’était pas disponible pour le paquet LRO
REMARQUE : IPv6 et UDP ne sont pas pris en charge par LRO.
IEEE 1588 Precision Time Protocol (PTP) Hardware Clock (PHC)
Le protocole PTP (Precision Time Protocol) est une implémentation de la spécification IEEE 1588 permettant aux
cartes réseau de synchroniser leurs horloges sur un réseau compatible PTP. Pour cela, une série de transactions de
synchronisation et de notifications de délai est exécutée, permettant au daemon du logiciel d'implémenter un
contrôleur PID pour synchroniser les horloges des cartes réseau.
REMARQUE : PTP nécessite un noyau de version 3.0.0 ou ultérieure avec prise en charge PTP activée dans le
noyau et un daemon de logiciel d'espace utilisateur.
IGB_PTP est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation pour
ajouter la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIGB_PTP" au fichier
make lorsqu’il est compilé :
make CFLAGS_EXTRA="-DIGB_PTP" install
REMARQUE : le pilote ne peut pas être compilé si votre noyau ne prend pas en charge PTP.
Vous pouvez vérifier que le pilote utilise PTP en consultant le journal système pour voir si l'enregistrement d'une
horloge matérielle (PHC) a été tenté ou non. Si vous possédez un noyau et une version d'ethtool qui prennent en
charge PTP, vous pouvez vérifier la prise en charge PTP dans le pilote en exécutant :
ethtool -T ethX
Fonction anti-arnaque MAC et VLAN
Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis.
Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante.
Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la
commande "dmesg") :
Événement(s) malveillant(s) détectés sur VF(n)
Où n=VF ayant tenté l’intrusion malveillante.
Configuration de l’adresse MAC, du VLAN et de la limite de taux utilisé par l’outil
IProute2
Vous pouvez définir un adresse MAC pour la fonction virtuelle (VF), un VLAN par défaut et la limite du taux utilisant
l’outil IProute2. Téléchargez la dernière version de l’outil iproute2 à partir de Sourceforge si votre version ne dispose
pas des fonctions requises.
Problèmes connus
Utilisation du pilote igb sur des noyaux 2.4 ou de version 2.6 plus ancienne
Compte tenu de la prise en charge limitée de PCI Express dans les noyaux de la version 2.4 et les noyens les plus
anciens de la version 2.6, le pilote igb peut se heurter à des problèmes d’interruption sur certains systèmes, tels que
des liaisons introuvables ou des blocages lors de l’invocation d’un périphérique.
Nous vous recommandons d’utiliser les noyaux les plus récents de la version 2.6, car ils configurent correctement
l’espace de configuration PCI Express de la carte et tous les ponts intervenants. Si vous devez utiliser un noyau 2.4,
utilisez un noyau plus récent que la version 2.4.30. Pour les noyaux 2.6, utilisez le noyau 2.6.21 ou une version plus
récente.
Autrement, sur les noyaux 2.6, vous pouvez désactiver la prise en charge MSI du noyau en démarrant avec l’option
"pci=nomsi" ou en désactivant la prise en charge MSI du noyau de façon permanente en configurant le noyau avec la
commande CONFIG_PCI_MSI unset.
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande ’make install’, l’erreur suivante peut se
produire :
"Linux kernel source not configured - missing version.h" (source de noyau Linux non configurée - fichier
version.h manquant)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source du noyau Linux et en
entrant :
# make include/linux/version.h
Dégradation des performances avec les trames Jumbo
Une dégradation du débit peut être observée avec certaines trames Jumbo. Dans ce cas, il peut s’avérer utile
d’augmenter la taille de socket de l’application et/ou les valeurs d’entrée de /proc/sys/net/ipv4/tcp_*mem. Pour
davantage de détails, reportez-vous à la documentation spécifique à l’application et au fichier texte
/usr/src/linux*/Documentation/networking/ip-sysctl.txt.
Trames Jumbo sur un commutateur Foundry BigIron 8000
L’utilisation des trames Jumbo lorsqu’un commutateur Foundry BigIron 8000 est connecté pose un problème. Il s’agit
d’une limitation d’une tierce partie. En cas de pertes de paquets, réduisez la taille de l’unité de transmission maximale
(MTU).
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(fonctionne uniquement avec des noyaux de version supérieure à 2.4.5).
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Toutefois, pour rendre la modification
de configuration permanente, utilisez l’une des méthodes suivantes :
l Ajoutez la ligne suivante à /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
l
Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un
commutateur partitionné en réseaux VLAN).
Désactiver le contrôle de flux de réception avec ethtool
Pour désactiver le contrôle de flux de réception en utilisant ethtool, vous devez désactiver la négociation automatique
sur la même ligne de commande. Par exemple :
ethtool -A eth? autoneg off rx
Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution
Sur les noyaux de versions 2.5.50 et supérieures (y compris la version 2.6), le système ne répond plus (sauf à la
commande Ctrl+Alt+Supp.) si le câble réseau est débranché alors que ethtool -p est en cours d’exécution. Le
redémarrage du système semble être le seul recours.
Une unité de transmission détectée se bloque sur les cartes réseau à quatre ports
Dans certains cas, les ports 3 et 4 ne laissent pas passer le trafic et signale "Detected Tx Uni Hnag" suivi des erreurs
"NETDEV WATCHDOG: ethX: transmit timed out" (dépassement de délai d’émission). Les ports 1 et 2 n’affichent
aucune erreur et laissent passer le trafic.
Le problème peut être résolu en effectuant une mise à jour vers les tous derniers noyaux et BIOS. Utilisez un SE qui
prend totalement en charge les interruptions MSI (Message Signaled Interrupts) et assurez-vous que la fonctionnalité
MSI est activée dans le BIOS de votre système.
N’utilisez pas LRO lors de l’acheminement de paquets
En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de
l’acheminement de paquets.
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris)
Des paniques et instabilités du noyau peuvent être observées sur tout matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si ces types de problèmes surviennent, vous pouvez désactiver le démon
irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de
versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur
l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage
spontané du système.
Pilote Linux* igbvf pour cartes réseau Intel® Gigabit
Présentation igbvf
Ce pilote prend en charge les versions de noyau en amont 2.6.30 (ou supérieure) x86_64.
Le pilote igbvf prend en charge les périphériques de fonction virtuelle basés sur les contrôleurs 82576 et I350 qui ne
peuvent être activés que sur les noyaux qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée
et la prise en charge du système d’exploitation.
Le pilote igbvf a besoin du pilote igb, version 2.0 ou ultérieure. Le pilote igbvf prend en charge les fonctions virtuelles
générées par le pilote igb avec une valeur max_vfs de 1 ou plus. Pour plus de détails sur le paramètre max_vfs,
consultez la section traitant du pilote igb.
Le système d’exploitation hôte chargeant le pilote igbvf doit prendre en charge les interruptions MSI-X.
Actuellement, le pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs
à appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions concernant la
configuration matérielle, reportez-vous à la documentation accompagnant la carte Gigabit Intel. Toutes les
configurations matérielles énumérées s’appliquent à une utilisation avec Linux.
Les instructions de mise à jour d’ethtool se trouvent dans la section Configurations supplémentaires ci-dessous.
REMARQUE : pour les réseaux locaux virtuels, il existe une limite d’un total de 32 réseaux locaux virtuels
partagés sur 1 VF ou plus.
Appareils pris en charge par le pilote de base igbvf pour Linux
Les cartes réseau Intel suivantes sont compatibles avec le pilote igbvf de cette version :
l Carte Intel® Gigabit 4P I350-t rNDC
l Carte Intel® Gigabit 4P X540/I350 rNDC
l Carte Intel® Gigabit 4P X520/I350 rNDC
l Carte mezzanine Intel® Gigabit 4P I350-t
l Carte Intel® Gigabit 4P X710/l350 rNDC
l Carte Intel® Gigabit 4P I350-t bNDC
l Carte réseau Intel® Gigabit 2P I350-t
l Carte réseau Intel® Gigabit 4P I350-t
l Carte Intel® Gigabit 4P I350 bNDC
l Carte Intel® Gigabit 2P I350-t LOM
l Carte Intel® Gigabit I350-t LOM
l Carte Intel® Gigabit 2P I350 LOM
Pour obtenir des informations sur l'identification de votre carte ou pour obtenir les derniers pilotes réseau pour Linux,
consultez l'Assistance à la clientèle.
Compilation et installation
Il existe deux méthodes d’installation du pilote igbvf :
l Installation à partir du code source
l Installer à l’aide de RPM KMP
Installation à partir du code source
Pour créer un package RPM* binaire de ce pilote, exécutez "rpmbuild -tb <nom_de_fichier.tar.gz>". Remplacez <nom_
de_fichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUE : pour que la compilation fonctionne correctement, il est important que le noyau en cours
d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez
de recompiler le noyau, redémarrez l’ordinateur maintenant.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez
’/home/username/igbvf’ ou ’/usr/local/src/igbvf’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf igbvf-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd igbvf-<x.x.x>/src/
4. Compilez le module du pilote :
# make install
Les instructions binaires sont installées comme suit :
/lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/igbvf/igbvf.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être
différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe :
modprobe igbvf
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes igbvf sont supprimés du noyau,
avant de charger le nouveau module :
rmmod igbvf.ko; modprobe igbvf
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> up
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
REMARQUE : certains systèmes éprouvent des difficultés à traiter les interruptions MSI et/ou MSI-X. Si votre
système doit désactiver ce type d’interruption, le pilote peut être compilé et installé avec la commande suivante :
#make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install
En temps normal, le pilote envoie une interruption toutes les deux secondes. Si les interruptions ne sont pas
reçues dans cat /proc/interrupts pour le périphérique ethX e1000e, ce contournement peut s’avérer nécessaire.
Pour créer un pilote igbvf avec DCA
Si votre noyau prend en charge DCA, DCA est activé par défaut lorsque le pilote est compilé.
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11.
Les RPM KMP mettent à jour les RPM igbvf actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-igbvf-1.3.8.6-1.x86_64.rpm: igbvf est le nom du composant ; 1.3.8.6-1 est la version du composant ;
et x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-igbvf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: igbvf est le nom du composant ; default est le
type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type
d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package RPM KMP igbvf, tapez ce qui suit :
rpm -i intel-igbvf-1.3.8.6-1.x86_64.rpm
rpm -i intel-igbvf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe igbvf [<option>=<VAL1>,<VAL2>,...]
Une valeur (<VAL#>) doit être attribuée à chaque port réseau du système pris en charge par ce pilote. Les valeurs sont
appliquées à chaque instance, en fonction de l'ordre. Par exemple :
modprobe igbvf InterruptThrottleRate=16000,16000
Dans ce cas, deux ports réseau sont pris en charge par igb sur le système. La valeur par défaut de chaque paramètre
est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du
paramètre
Plages/valeurs valides
Valeur par
défaut
Description
InterruptThrottle
Rate
0, 1, 3, 100-100000
(0=désactivé,
1=dynamique,
3=dynamique
conservatif)
3
Le pilote peut limiter le nombre d’interruptions par
seconde générées par la carte pour les paquets
entrants. Pour ce faire, il écrit une valeur sur la carte,
basée sur le nombre maximum d’interruptions que la
carte générera par seconde.
Nom du
paramètre
Plages/valeurs valides
Valeur par
défaut
Description
Le comportement par défaut du pilote prenait pour
hypothèse que le paramètre InterruptThrottleRate
possédait une valeur statique de 8000, ce qui fournissait
une bonne valeur de secours pour tous les types de
trafic, mais des performances médiocres concernant le
traitement des paquets et la latence. Cependant, le
matériel peut traiter beaucoup plus de paquets par
seconde et c’est pourquoi un algorithme de gestion
adaptative des interruptions a été implémenté.
Le pilote possède deux modes adaptatifs (valeur 1 ou 3)
avec lesquels il ajuste de façon dynamique la valeur
InterruptThrottleRate en fonction du trafic qu’il reçoit.
Après avoir déterminé le type de trafic entrant de la
dernière tranche de temps, il ajuste la valeur
InterruptThrottleRate à une valeur appropriée en
fonction de ce trafic.
L’algorithme trie le trafic entrant à chaque intervalle
dans des classes. Une fois que la classe est
déterminée, la valeur InterruptThrottleRate est ajustée
afin de correspondre au mieux au type de trafic. Trois
classes sont définies : "Bulk traffic" (Trafic en vrac), pour
les grandes quantités de paquets de taille normale ;
"Low latency" (Faible latence), pour les trafics de petite
quantité et/ou un pourcentage important de petits
paquets ; et "Lowest latency" (Plus faible latence), pour
les trafics composés presque exclusivement de petits
paquets et les très faibles trafics.
En mode dynamique conservatif, la valeur
InterruptThrottleRate est définie sur 4000 pour un trafic
tombant dans la classe "Bulk traffic" (Trafic en vrac). Si le
trafic tombe dans la classe "Low latency" (Faible
latence) ou "Lowest latency" (Plus faible latence), la
valeur InterruptThrottleRate est augmentée
progressivement jusqu’à 20 000. Ce mode par défaut
est adapté à la plupart des applications.
Pour les cas où une faible latence est essentielle, tels
que les grappes ou les grilles d’ordinateurs, l’algorithme
peut réduire encore la latence lorsque le paramètre
d’InterruptThrottleRate est réglé sur le mode 1. Dans ce
mode, qui fonctionne comme le mode 3,
l’InterruptThrottleRate est augmenté pas à pas jusqu’à
70000 pour le travail de la classe à plus faible latence.
Lorsqu’InterruptThrottleRate est défini sur 0, toute
gestion des interruptions est désactivée, ce qui peut
améliorer la latence des petits paquets, mais n’est
généralement pas adapté à un trafic important.
REMARQUES :
l Si le pilote ixgbevf est chargé avec les
paramètres par défaut et que des cartes
multiples sont utilisées. La limitation de
requêtes d’interruption dynamique ne
s’applique qu’aux cartes fonctionnant en
mode MSI ou hérité, en utilisant une file
d’attente de réception unique.
Nom du
paramètre
Plages/valeurs valides
Valeur par
défaut
Description
l
Si le pilote igbvf est chargé avec les
paramètres par défaut et que des cartes
multiples sont utilisées simultanément, le
taux d’utilisation du processeur peut
augmenter de façon non linéaire. Pour
limiter le taux d’utilisation du processeur
sans affecter la performance globale,
chargez le pilote de la manière suivante :
modprobe igbvf
InterruptThrottleRate=
3000,3000,3000
Cela définit le paramètre
InterruptThrottleRate sur 3000
interruptions/s pour la première, deuxième
et troisième instance du pilote. La plage
comprise entre 2000 à 3000 interruptions
par seconde fonctionne sur la plupart des
systèmes et est un bon point de départ,
mais la valeur optimale dépend toutefois
de la plate-forme. Si le taux d’utilisation du
processeur n’est pas un problème, utilisez
les paramètres par défaut du pilote.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier
/etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou
de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces
modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système,
reportez-vous à votre documentation de distribution. Si, lors de ce processus, vous êtes invité à fournir le nom du pilote
ou du module, le nom du pilote de base Linux pour la famille de cartes Intel Gigabit est igbvf.
Par exemple, si vous installez le pilote igbvf pour deux cartes Intel Gigabit (eth0 et eth1) et que vous définissez le
mode d’interruption sur MSI-X et MSI, ajoutez ce qui suit à modules.conf ou /etc/modprobe.conf :
alias eth0 igbvf
alias eth1 igbvf
options igbvf InterruptThrottleRate=3,1
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. Utilisez la commande ifconfig pour augmenter la valeur MTU. Par exemple :
ifconfig eth<x> mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. Ce paramètre peut être rendu permanent en ajoutant MTU
= 9000 MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x>, dans les distributions Red Hat.
Les autres distributions peuvent stocker ce paramètre à un autre emplacement.
REMARQUES :
l L’utilisation de trames Jumbo à des vitesses de 10 ou 100 Mbit/s pourrait résulter en une baisse des
performances ou une perte de liaison.
l Pour activer les trames Jumbo, définissez une taille MTU supérieure à 1 500 dans l’interface.
l La taille maximale des trames Jumbo est 9234 octets, avec une taille MTU correspondante de 9216
octets.
ethtool
Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des
informations statistiques. La version 3.0 de ethtool ou une version ultérieure est requise pour cette fonctionnalité, mais
nous vous recommandons fortement de télécharger la dernière version à :
http://ftp.kernel.org/pub/software/network/ethtool/.
Problèmes connus
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande ’make install’, l’erreur suivante peut se
produire :
"Linux kernel source not configured - missing version.h" (source de noyau Linux non configurée - fichier
version.h manquant)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source du noyau Linux et en
entrant :
# make include/linux/version.h
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(fonctionne uniquement avec des noyaux de version supérieure à 2.4.5).
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Toutefois, pour rendre la modification
de configuration permanente, utilisez l’une des méthodes suivantes :
l Ajoutez la ligne suivante à /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
l
Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un
commutateur partitionné en réseaux VLAN).
N’utilisez pas LRO lors de l’acheminement de paquets
En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de
l’acheminement de paquets.
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris)
Des paniques et instabilités du noyau peuvent être observées sur tout matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si ces types de problèmes surviennent, vous pouvez désactiver le démon
irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de
versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
Le déchargement du pilote PF entraîne le redémarrage du système quand VM est en
cours d’exécution et VF est chargé sur le VM
Ne déchargez pas le pilote PF (igb) si les VF sont attribués aux hôtes.
L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur
l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage
spontané du système.
Pilote Linux* ixgbe pour cartes réseau Intel® 10 Gigabit pour
serveurs
Présentation des pilotes ixgbe
ATTENTION : par défaut, le pilote ixgbe est conforme à la fonctionnalité Large Receive Offload (LRO) (Important
délestage reçu) lorsqu’elle est activée. Cette option permet l’utilisation la plus réduite du processeur pour la
réception mais est incompatible avec le transfert et le pontage de l’acheminement/ip. Si l’activation du transfert
et du pontage ip est requise, il est nécessaire de désactiver LRO en utilisant les options de temps de
compilation comme indiqué dans la section LRO plus bas dans cette section. La non désactivation de LRO
alors que le transfert et le pontage ip sont activés peut entraîner un faible débit ou même une panique du
noyau.
Ce fichier décrit le pilote de base Linux* pour cartes réseau 10 Gigabit des Connexions réseau Intel®. Ce pilote prend
en charge les noyaux 2.6.x ainsi que tous les systèmes pris en charge par Linux, y compris X86_64, i686 et PPC.
Ce pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à
la source du noyau pour permettre la liaison statique du pilote. Une version du pilote peut être déjà incluse dans votre
distribution ou noyau. Pour toutes questions sur la configuration matérielle, consultez la section Configuration
minimale requise. Toutes les configurations matérielles énumérées s’appliquent à une utilisation avec Linux.
Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge :
l Réseaux VLAN natifs
l Channel Bonding (agrégation)
l SNMP
l Délestage de réception générique
l Pontage de centre de données
L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette
fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité
Channel Bonding est disponible dans la source du noyau Linux : /documentation/networking/bonding.txt
Utilisez ethtool, lspci ou ifconfig pour obtenir des informations sur le pilote. Les instructions de mise à jour d’ethtool se
trouvent dans la section Configurations supplémentaires plus loin sur cette page.
Appareils pris en charge par le pilote de base ixgbe pour Linux
Les cartes réseau Intel suivantes sont compatibles avec le pilote Linux de cette version :
l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
l Carte réseau Ethernet Intel® 10G 2P X540-t
l Carte réseau Ethernet Intel® 10G 2P X550-t
l Carte Ethernet Intel® 10G 4P X540/I350 rNDC
l Carte Ethernet Intel® 10G 4P X520/I350 rNDC
l Carte Ethernet Intel® 10G 2P X520-k bNDC
l Carte réseau Ethernet Intel® 10G 2P X520
l Carte Ethernet Intel® 10G X520 LOM
Pour obtenir des informations sur l'identification de votre carte ou pour obtenir les derniers pilotes réseau pour Linux,
consultez l'Assistance à la clientèle.
Périphériques SFP+ avec câble optique enfichable
REMARQUE : Pour les cartes à fibre optique SFP+ avec chipset 92500, l’utilisation de "ifconfig down"
désactive le laser. "ifconfig up" active le laser.
Pour de plus amples informations sur l’utilisation des périphériques avec des câbles optiques enfichables SFP+,
cliquez ici.
Compilation et installation
Il existe trois méthodes d’installation du pilote Linux :
l Installation à partir du code source
l Installer à l’aide de RPM KMP
l Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour créer un package RPM* binaire de ce pilote, exécutez "rpmbuild -tb <nom_de_fichier.tar.gz>". Remplacez <nom_
de_fichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUES :
l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez
’/home/username/ixgbe’ ou ’/usr/local/src/ixgbe’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf ixgbe-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd ixgbe-<x.x.x>/src/
4. Compilez le module du pilote :
make install
Les instructions binaires sont installées comme suit : /lib/modules/<VERSION DU
NOYAU>/kernel/drivers/net/ixgbe/ixgbe.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être
différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
REMARQUE : IXGBE_NO_LRO est un indicateur de temps de compilation. L’utilisateur peut l’activer au
moment de la compilation pour supprimer la prise en charge LRO du pilote. L’indicateur est utilisé en
ajoutant CFLAGS_EXTRA=-"DIXGBE_NO_LRO" au fichier make lorsqu’il est compilé. Par exemple :
make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
5. Installez le module à l’aide de la commande modprobe pour le noyau 2.6.x :
modprobe ixgbe <paramètre>=<valeur>
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes IGB sont supprimés du noyau,
avant de charger le nouveau module :
rmmod ixgbe; modprobe ixgbe
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> netmask <masque réseau>
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur RHEL 6 et SLES11.
Les RPM KMP mettent à jour les RPM ixgbe actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-ixgbe-1.3.8.6-1.x86_64.rpm : ixgbe est le nom du composant ; 1.3.8.6-1 est la version du
composant ; et x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : ixgbe est le nom du composant ; default est
le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type
d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package RPM KMP ixgbe, tapez ce qui suit :
rpm -i intel-ixgbe-1.3.8.6-1.x86_64,rpm
rpm -i intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-ixgbe-2.3.4-1.x86_64.rpm :
l
l
l
ixgbe est le nom du pilote
2.3.4 est la version
x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD ixgbe depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-ixgbe-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe ixgbe [<option>=<VAL1>,<VAL2>,...]
Par exemple :
modprobe ixgbe InterruptThrottleRate=16000,16000
La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
RSS
1
0 - 16
Description
La mise à l’échelle côté réception (Receive Side Scaling)
permet l’existence de plusieurs files d’attente pour la réception
des données.
0 = le nombre de files de descripteurs prend la valeur la plus
basse entre 16 ou le nombre de CPU.
1 - 16 = le nombre de files de descripteurs prend la valeur
indiquée entre 1 et 16.
RSS affecte également le nombre des files d’attente de
transmission affectées sur les noyaux 2.6.23 et plus récents en
définissant la valeur CONFIG_NET_MULTIQUEUE dans le
fichier .config du noyau. CONFIG_NETDEVICES_
MULTIQUEUE est pris en charge uniquement sur les noyaux
2.6.23 à 2.6.26. Pour les noyaux 2.6.27 ou ultérieurs, d’autres
options permettent d’activer les files d’attente multiples.
REMARQUE : le paramètre RSS n’a aucune incidence
sur les cartes avec chipset 82599 à moins que le
paramètre FdirMode ne soit utilisé en même temps pour
désactiver le Flow Director. Reportez-vous à la section
Directeur de flux Ethernet Intel® pour plus de détails.
MQ
0, 1
1
Prise en charge de plusieurs files d’attente.
0 = Désactive la prise en charge de plusieurs files d’attente.
1 = Active la prise en charge de plusieurs files d’attente
(condition préalable pour RSS).
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
IntMode
2
Le mode d’interruption contrôle le contrôle du temps de
chargement autorisé sur le type d’interruption pour lequel le
pilote est enregistré. MSI-X est exigé pour la prise en charge
de plusieurs files d’attente et certains noyaux et combinaisons
d’options de configurations de noyau forceront un niveau de
prise en charge inférieur des interruptions. ’cat /proc/interrupts’
affiche différentes valeurs pour chaque type d’interruption.
0 = interruption héritée
1 = MSI
2 = MSIX
1
Taux de ralentissement des interruptions
(interruptions/seconde). Le paramètre ITR contrôle combien
d’interruptions chaque vecteur d’interruption peut créer par
seconde. L’accroissement de la valeur ITR diminue la latence
au dépend de l’utilisation du processeur, bien que cela puisse
accélérer le débit dans certaines circonstances.
0-2
InterruptThrottleRate 956 -488 281
(0=désactivé,
1=dynamique)
Description
0 = Désactive toute modération des interruptions et peut
améliorer la latence des petits paquets. Cependant, cette
valeur n’est généralement pas adaptée à un trafic important,
en raison de l’utilisation plus importante du processeur lorsque
le nombre des interruptions est plus élevé.
REMARQUES :
l Pour les cartes avec chipset 82599, la
désactivation de InterruptThrottleRate entraîne la
désactivation HW RSC par le pilote.
l Pour les cartes avec chipset 82598, la
désactivation de InterruptThrottleRate entraîne
aussi la désactivation LRO.
1 = Mode dynamique qui tente de modérer les interruptions par
vecteur tout en maintenant une très faible latence. Cela peut
parfois entraîner une utilisation accrue du processeur en mode
dynamique. Si vous envisagez de déployer ixgbe dans un
environnement où la latence est un facteur important,
envisagez d'utiliser ce paramètre.
LLI
LLIPort
Les interruptions à faible latence permettent la création
immédiate d’une interruption lors du traitement de paquets de
réception correspondant à certains critères définis par les
paramètres ci-dessous. Les paramètres LLI ne sont pas activés
lorsque les interruptions héritées sont utilisées. MSI ou MSI-X
doivent être utilisés (voir cat /proc/interrupts) pour utiliser les
LLI avec succès.
0 - 65535
0
LLI est configuré avec le paramètre de ligne de commande
(désactivé) LLIPort, qui spécifie quel TCP doit générer les interruptions de
faible latence.
Par exemple, l’utilisation de LLIPort-80 provoquerait l’envoi par
la carte d’une interruption immédiate dès réception d’un
paquet envoyé au port TCP 80 de la machine locale.
ATTENTION : l’activation de LLI peut provoquer un
nombre excessif d’interruptions/seconde avec pour
conséquence des problèmes au niveau du système
et, dans certains cas, une panique du noyau.
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
LLIPush
0
LLIPush peut être paramétré sur activé ou désactivé (par
(désactivé) défaut). Cette option est très efficace dans un environnement
comportant de nombreuses petites transactions.
0-1
Description
REMARQUE : l’activation de LLIPush peut permettre
une attaque par déni de service.
LLISize
0 - 1500
0
LLISize provoque une interruption immédiate si la carte reçoit
(désactivé) un paquet plus petit que la taille spécifiée.
LLIEType
0 - x8FFF
0
Type de protocole Ethernet à interruption de faible latence.
(désactivé)
LLIVLANP
0-7
0
Interruption à faible latence sur seuil de priorité de VLAN.
(désactivé)
Contrôle de flux
Le contrôle du flux est activé par défaut. Pour désactiver un
partenaire de liaison capable de contrôle de flux, utilisez
ethtool :
ethtool -A eth? autoneg off rx off tx
off
REMARQUE : pour les cartes de fond de panier 82598
entrant en mode 1 Gbit/s, le comportement par défaut du
contrôle de flux passe à désactivé. Sur ces
périphériques, le contrôle de flux en mode 1 Gbit/s peut
provoquer des problèmes de transmission.
Directeur de flux
Ethernet Intel®
REMARQUE : les paramètres de directeur de flux ne
sont pris en charge que sur les noyaux de version
2.6.30 ou plus récente. Sur ces périphériques, le
contrôle de flux en mode 1 Gbit/s peut provoquer des
problèmes de transmission.
Prend en charge les filtres avancés qui dirigent les paquets de
réception vers des files d’attente différentes en fonction de leur
flux et active un contrôle serré sur l’acheminement d’un flux
dans la plate-forme. Il détermine l’affinité des flux et des cœurs
de processeur et prend en charge plusieurs paramètres
permettant une classification des flux et un équilibrage de
charge souples.
Le directeur de flux est activé uniquement si le noyau est
capable de plusieurs files d’attente de transmission. Un script
inclus (set_irq_affinity.sh) automatise la détermination des
affinités des interruptions en fonction de l’UC. Pour vérifier que
le pilote utilise Flow Director, examinez le compteur dans
ethtool : fdir_miss and fdir_match.
Autres commandes ethtool :
Pour activer Flow Director
ethtool -K ethX ntuple on
Pour ajouter un filtre, utilisez le commutateur -U
ethtool -U ethX flow-type
tcp4 src-ip 192.168.0.100
action 1
Pour afficher la liste des filtres existants
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
Description
ethtool -u ethX
Perfect Filter : Perfect filter est une interface permettant de
charger la table de filtres qui dirige l’ensemble du flux dans la
file d’attente queue_0, à moins qu’une autre file d’attente ne
soit spécifiée à l’aide de la commande "action". Dans ce cas, le
flux correspondant aux critères de filtrage sera dirigé vers la
file d’attente appropriée.
Virtual Function (VF) est prise en charge via le champ de
données utilisateur. Vous devez mettre à jour la version
d’ethtool conçue pour le noyau 2.6.40. Perfect Filter est pris en
charge par tous les noyaux 2.6.30 et de version ultérieure. Les
règles peuvent être effacées à partir du tableau. Sélectionnez
"ethtool -U ethX delete N" (ethtool -U ethX efface N), N étant le
numéro de règle à effacer.
REMARQUE : les filtres Flow Director Perfect
fonctionnent en mode file d’attente unique, quand SRIOV est activé, ou quand DCB est activé.
Si la file d’attente est définie sur -1, le filtre abandonnera les
paquets correspondants.
Pour prendre en compte les correspondances et
manquements du filtre, deux statistiques existent dans ethtool :
fdir_match and fdir_miss. De plus, rx_queue_N_packets
affiche le nombre de paquets traités par la file d’attente Nth.
REMARQUES :
l Receive Packet Steering (RPS) et Receive Flow
Steering (RFS) ne sont pas compatibles avec
Flow Director. Si Flow Director est activé, ils
seront désactivés.
l Pour les masques de réseau local virtuel, seuls
4 masques sont pris en charge.
l Après avoir défini une règle, les champs et les
masques doivent être identiques (si les masques
sont spécifiés).
Prise en charge d’UDP RSS
Cette fonction ajoute un commutateur ON/OFF pour le
hachage sur certains types de débit. Vous ne pouvez activer
qu’UDP. Le paramètre par défaut est désélectionné. Le
hachage d’activation/désactivation n’est pris en charge que sur
les ports pour UDP over IPv4 (udp4) ou IPv6 (udp6).
REMARQUE : les paquets fragmentés peuvent arriver
déclassés quand la prise en charge RSS UDP est
configurée.
Commandes et options ethtool prises en charge
-n --show-nfc
Récupère les configurations de classification de débit de
réseau reçues.
rx-flow-hash
tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp
6
Récupère les options de hachage pour le type de trafic de
réseau spécifié.
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
Description
-N --config-nfc
Configure la classification du débit de réseau reçu.
rx-flow-hash
tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp
6
m|v|t|s|d|f|n|r...
Configure les options de hachage pour le type de trafic de
réseau spécifié.
udp4
UDP sur IPv4
udp6
UDP sur IPv6
f
hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet
rx.
n
hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet
rx.
Ce qui suit est un exemple utilisant udp4 (UDP over IPv4) :
Pour inclure les numéros de port UDP dans un hachage RSS,
exécutez :
ethtool -N eth1 rx-flow-hash udp4 sdfn
Pour exclure les numéros de port UDP d’un hachage RSS,
exécutez :
ethtool -N eth1 rx-flow-hash udp4 sd
Pour afficher la configuration actuelle du hachage UDP,
exécutez :
ethtool -n eth1 rx-flow-hash udp4
Les résultats de cet appel, si le hachage UDP est activé, sont
les suivants :
Les débits UDP over IPv4 utilisent ces champs
pour calculer le débit de hachage :
IP SA
IP DA
L4 0 & 1 octets [TCP/UDP src port]
L4 2 & 3 octets [TCP/UDP src port]
Les résultats avec un hachage UDP désactivé :
Les débits UDP over IPv4 utilisent ces champs
pour calculer le débit de hachage :
IP SA
IP DA
Les deux paramètres suivants affectent Flow Director :
FdirPballoc et AtrSampleRate.
FdirPballoc
0-2
0 (64k)
Taille de tampon de paquet allouée par le flux.
0 = 64k
1 = 128k
2 = 256k
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
Description
AtrSampleRate
1 - 100
20
Taux d’échantillonnage logiciel des paquets de transmission
ATR. Par exemple, lorsque ce paramètre est défini sur 20, un
échantillon est pris tous les 20 paquets pour déterminer si le
paquet va créer un nouveau flux.
max_vfs
1 - 63
0
Ce paramètre assure la prise en charge SR-IOV. Il fait générer
au pilote jusqu’à max_vfs de fonction virtuelle.
Si la valeur est supérieure à 0, il force la valeur du paramètre
VMDq sur 1 ou plus.
REMARQUE : lorsque les modes SR-IOV ou VMDq sont
activés, le filtrage de VLAN matériel et la
suppression/insertion de balises VLAN restent activés.
Supprimez l'ancien filtre de VLAN avant d'ajouter le
nouveau filtre de VLAN. Par exemple :
ip link set eth0 vf 0 vlan 100
// définir vlan 100 pour VF 0
ip link set eth0 vf 0 vlan 0 //
supprimer vlan 100
ip link set eth0 vf 0 vlan 200
// définir un nouveau vlan 200
pour VF 0
Les paramètres du pilote sont référencés par position. En
conséquence, si vous avez une carte 2 ports basée sur le
chipset 82599 et que vous voulez N fonctions virtuelles par
port, vous devez spécifier un nombre pour chaque port,
chaque paramètre étant séparé par une virgule.
Par exemple : modprobe ixgbe max_vfs=63,63
REMARQUE : si des cartes 82598 et 82599 sont
installées sur le même ordinateur, vous devez faire
attention lorsque vous chargez le pilote avec les
paramètres. En fonction de la configuration du système,
du nombre de connecteurs, etc., il est impossible de
prédire dans tous les cas où se trouveront les positions
sur la ligne de commande et l’utilisateur devra spécifier
zéro aux positions occupées par un port 82598.
Avec le noyau 3.6, le pilote prend en charge l’utilisation
simultanée de max_vfs et des fonctions DCB, dans les limites
des contraintes détaillées ci-dessous. Avant le noyau 3.6, le
pilote ne prenait pas en charge l’exploitation simultanée de
max_vfs > 0 et des fonctions DCB (multiplicité des classes de
trafic utilisant Priority Flow Control et Extended Transmission
Selection).
Nom du paramètre Plages/valeurs
valides
Valeur par
défaut
Description
Lorsque DCB est activé, le trafic réseau est envoyé et reçu par
l’intermédiaire de plusieurs classes de trafic (tampons de
paquets dans la carte d’interface réseau). Le trafic est associé
à une classe spécifique en fonction de sa priorité, laquelle a
une valeur comprise entre 0 et 7 qui est utilisée dans la balise
VLAN. Lorsque SR-IOV n’est pas activé, chaque classe de
trafic est associée à un ensemble de paires de files de
descripteurs RX/TX. Le nombre de paires de files d’attente
pour une classe de trafic donnée dépend de la configuration
du matériel. Lorsque SR-IOV est activé, les paires de files de
descripteurs sont regroupées en pools. À la fonction physique
(PF) et à chaque fonction virtuelle (VF) est alloué un pool de
paires de files de descripteurs RX/TX. Lorsque plusieurs
classes de trafic sont configurées (cas, par exemple, lorsque
DCB est activé), chaque pool contient une paire de files
provenant de chaque classe de trafic. Lorsqu’une seule classe
de trafic est configurée sur le matériel, les pools contiennent
plusieurs paires de files provenant de cette classe unique.
Le nombre de VF pouvant être allouées dépend du nombre de
classes de trafic pouvant être activées. Le nombre configurable
de classes de trafic pour chaque VF activée est le suivant :
0 - 15 VF = jusqu’à 8 classes de trafic, selon ce
que permet le périphérique
16 - 31 VF = jusqu’à 4 classes de trafic
32 - 63 = 1 classe de trafic
Lorsque des VF sont configurées, un seul pool est alloué à la
PF. Le PF prend en charge les fonctionnalités DCB avec cette
contrainte que chaque classe de trafic n’utilisera qu’une seule
paire de files. Lorsque zéro VF est configurée, le PF peut
prendre en charge plusieurs paires de files par classe de trafic.
VMDQ
1-16
1
Fournit l’option d’activer ou de désactiver VMDQ.
(désactivé)
Les valeurs 2 à 16 activent VMDQ avec les files d’attente de
descripteurs définies à la valeur spécifiée.
L2LBen
0-1
1 (activé)
Ce paramètre contrôle le commutateur interne (bouclage L2
entre pf et vf). Le commutateur est activé par défaut.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier
/etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou
de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces
modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système,
reportez-vous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est
demandé, le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est ixgbe.
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. La valeur maximale du MTU est 9710. Utilisez la commande ifconfig pour augmenter la taille MTU.
Entrez, par exemple, la commande suivante, où <x> est le numéro d’interface :
ifconfig ethx mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. La modification du paramètre peut être permanente en
ajoutant MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x> pour RHEL ou au fichier
/etc/sysconfig/network/<config_file> pour SLES.
Le paramètre MTU maximum pour les trames Jumbo et de 9710. Cette valeur coïncide avec la taille maximum des
trames Jumbo, qui est de 9728. Ce pilote tentera d'utiliser des tampons de tailles différentes pour recevoir chaque
paquet étendu. Cela aide à éviter les problèmes de famine de tampon lors de l’allocation des paquets de réception.
Pour les connexions réseau 82599, si vous activez les trames Jumbo dans une fonction virtuelle (VF), les trames
Jumbo doivent d'abord être activées dans la fonction physique (PF). Le paramètre MTU VF ne peut pas être supérieur
au paramètre MTU PF.
ethtool
Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les
informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
NAPI
Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote ixgbe.
Reportez-vous au site ftp://robur.slu.se/pub/Linux/net-development/NAPI/usenix-paper.tgz pour plus d’informations sur
NAPI.
Large Receive Offload (LRO)
Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large
bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux
unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des
paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit
potentiellement l’utilisation du processeur pour les réceptions.
IXGBE_NO_LRO est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation
pour supprimer la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIXGBE_NO_
LRO" au fichier make lorsqu’il est compilé.
make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool :
l lro_flushed - le nombre total de réceptions utilisant LRO.
l lro_coal - compte le nombre total de paquets Ethernet ayant été combinés.
HW RSC (Coalition matérielle des paquets entrants)
Les cartes basées sur le chipset 82599 prennent en charge la coalition matérielle des paquets entrants (RSC) qui peut
fusionner plusieurs trames du même flux IPv4 TCP/IP en une structure unique pouvant s’étendre sur plusieurs
descripteurs. Cette fonctionnalité fonctionne de manière similaire à la technique LRO logicielle. Par défaut, HW RSC
est activé et la technique SW LRO ne peut pas être utilisée sur les cartes 82599 à moins que HW RSC soit désactivé.
IXGBE_NO_HW_RSC est un indicateur de temps de compilation pouvant être activé au moment de la compilation
pour supprimer la prise en charge HW RSC du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIXGBE_
NO_HW_RSC" au fichier make lorsqu’il est compilé.
make CFLAGS_EXTRA="-DIXGBE_NO_HW_RSC" install
Vous pouvez vérifier que le pilote utilise HW RSC en consultant les compteurs dans ethtool :
hw_rsc_count - compte le nombre total de paquets Ethernet ayant été combinés.
rx_dropped_backlog
En mode non Napi (ou Interruption), ce compteur indique que la pile ignore des paquets. Il existe un paramètre
réglable dans la pile permettant de régler la taille de la file d’attente. Nous vous recommandons d’augmenter le
paramètre netdev_max_backlog si la valeur du compteur s’élève.
# sysctl -a |grep netdev_max_backlog
net.core.netdev_max_backlog = 1000
# sysctl -e net.core.netdev_max_backlog=10000
net.core.netdev_max_backlog = 10000
Contrôle de flux
Le contrôle de flux est désactivé par défaut. Pour l’activer, utilisez ethtool :
ethtool -A eth? autoneg off rx on tx on
REMARQUE : vous devez disposer d’un partenaire de liaison capable de contrôle de flux.
Fonction anti-arnaque MAC et VLAN
Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis.
Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet
malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande
"dmesg") :
ixgbe ethx: ixgbe_spoof_check: n paquets malveillant détectés
Quand x=PF interface# et n=VF ayant tenté l’intrusion malveillante.
REMARQUE : cette fonctionnalité peut être désactivée pour une fonction virtuelle (VF) spécifique.
Prise en charge d’UDP RSS
Cette fonction ajoute un commutateur ON/OFF pour le hachage sur certains types de débit. Le paramètre par défaut est
désélectionné. REMARQUE : les paquets fragmentés peuvent arriver déclassés quand la prise en charge RSS UDP
est configurée.
Commandes et options ethtool prises en charge
-n --show-nfc
Récupère les configurations de classification de débit de réseau reçues.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Récupère les options de hachage pour le type de trafic de réseau spécifié.
-N --config-nfc
Configure la classification du débit de réseau reçu.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r...
Configure les options de hachage pour le type de trafic de réseau spécifié.
udp4 UDP over IPv4
udp6 UDP over IPv6
f hachure sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx.
n hachure sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx.
Problèmes connus
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir :
"Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h
manquante)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant :
make include/linux/version.h
N’utilisez pas LRO lors de l’acheminement de paquets
En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de
l’acheminement de paquets.
Dégradation des performances avec les trames Jumbo
Une dégradation du débit peut être observée avec certaines trames Jumbo. Dans ce cas, il peut s’avérer utile
d’augmenter la taille de socket de l’application et/ou les valeurs d’entrée de /proc/sys/net/ipv4/tcp_*mem. Pour d’autres
détails, consultez la documentation spécifique de l’application dans le fichier texte ip-sysctl.txt de la documentation du
noyau.
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(ceci ne fonctionne que si la version du noyau est postérieure à 2.4.5), ou installez les interfaces dans des domaines
de diffusion différents.
Problème de perte de paquet lors du test de montée en charge UDP
Pendant le test de montée en charge UDP avec des petits paquets et le pilote 10GbE, le système Linux peut perdre
des paquets UDP parce que les descripteurs de socket sont pleins. Il est possible de régler les variables de contrôle
de flux du pilote à la valeur minimale pour le contrôle de la réception des paquets.
Une autre option consiste à accroître la taille par défaut des tampons pour udp en modifiant les valeurs dans
/proc/sys/net/core/rmem_default and rmem_max.
Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution
Sur les noyaux de versions 2.5.50 et supérieures (y compris la version 2.6), le système ne répond plus (sauf à la
commande Ctrl+Alt+Supp.) si le câble réseau est débranché alors que ethtool -p est en cours d’exécution. Le
redémarrage du système semble être le seul recours.
Le commutateur Cisco Catalyst 4948-10GE exécutant ethtool -g peut entraîner la
fermeture des ports par le commutateur
Le matériel basé sur le contrôleur 82598 peut rétablir rapidement la liaison et, lorsqu’il est connecté à certains
commutateurs, les réinitialisations rapides dans le pilote peuvent entraîner l’isolation du port du commutateur en
raison d’un "link flap". Cette condition est habituellement indiquée par un témoin de liaison de couleur jaune plutôt que
verte. Plusieurs opérations peuvent causer ce problème, telles que l’exécution répétée de commandes ethtool
entraînant une réinitialisation.
Un contournement potentiel consiste à utiliser la commande Cisco IOS "no errdisable detect cause all" depuis l’invite
de configuration globale, qui permet au commutateur de garder les interfaces en fonctionnement, sans tenir compte
des erreurs.
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris)
Des paniques et instabilités du noyau peuvent être observées sur tout matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si ces types de problèmes surviennent, vous pouvez désactiver le démon
irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Erreurs d’allocation d’ordre d’échec : 0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de versions
supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
Incompatibilité de LRO et de iSCSI
LRO n’est pas comptatible avec la cible iSCSI ou le trafic de l’initiateur. Une situation de panique peut se produire en
cas de réception du trafic iSCSI via le pilote ixgbe alors que le délestage LRO est activé. Pour éviter ce problème, le
pilote doit être compilé et installé avec ce qui suit :
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
DCB : le délestage de segmentation générique cause des problèmes d’allocation de
bande passante lorsqu’il est activé
Pour que DCB fonctionne correctement, GSO (Generic Segmentation Offload, appelé également TSO logiciel) doit être
désactivé à l’aide de ethtool. Par défaut, comme le matériel prend en charge TSO (délestage matériel de la
segmentation), GSO n’est pas exécuté. L’état de GSO peut être obtenu à l’aide d’ethtool avec ethtool -k ethX.
Désactiver GRO pour l’acheminement/ le pontage
En raison de problèmes de noyau connus, GRO doit être désactivé pour l’acheminement ou le pontage. GRO peut être
désactivé à l’aide de ethtool.
ethtool -K ethX gro off
où ethX est l’interface Ethernet que vous tentez de modifier.
Performances inférieures sur les périphériques 2 ports et 4 ports 10 Gigabit Ethernet
Certains connecteurs PCIe x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une bande
passante insuffisante pour les débits de ligne de 10GbE avec des périphériques 10GbE à 2 et 4 ports. En outre, si
vous placez une carte réseau compatible PCIe Gen 3 sur un connecteur PCIe Gen 2, vous n’obtiendrez pas la totalité
de la bande passante. Le pilote peut détecter cette situation et écrit le message suivant dans le journal système : “PCI
Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8 PCIExpress slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir des
performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé).
Si cette erreur se produit, placez la carte dans un véritable connecteur x8 pour résoudre le problème.
Il est possible qu’ethtool affiche incorrectement un module SFP+ Fiber comme un
câble à fixation directe
En raison de limitations du noyau, le type de port ne peut être affiché correctement que sur les noyaux 2.6.33 ou de
versions supérieures.
L’exécution de la commande ethtool-t ethX cause des plantages entre le PF et client
de test
Lorsqu’il y a des VF actifs, la commande "ethtool -t" n’exécutera qu’un test de lien. Le pilote enregistrera également
dans le syslog que les VF devraient être arrêtés pour effectuer un test complet de diagnostic.
Activation de SR-IOV dans un système d’exploitation invité Microsoft* Windows*
Server 2008/R2 32 ou 64 bits utilisant sous KVM un contrôleur 10GbE Intel® X540 ou
Intel® 82599.
KVM Hypervisor/VMM prend en charge l’attribution d’un périphérique PCIe vers un VM. Cela comprend les
périphériques PCIe classiques ainsi que les périphériques compatibles SR-IOV utilisant les contrôleurs avec chipset
Intel 82599 et X540.
Pendant l’attribution directe d’un périphérique PCIe ou d’une fonction virtuelle (VF) SR-IOV vers un VM de base Linux
exécutant un noyau 2.6.32 ou une version ultérieure, il existe un problème connu avec Microsoft Windows Server
2008/R2 VM qui entraîne une erreur "point d’exclamation jaune". KVM VMM est à l’origine de ce problème, et ne vient
pas du pilote Intel ou de la logique SR-IOV du VMM. Le KVM imite un ancien modèle de processeur pour les hôtes et
cet ancien modèle ne prend pas en charge les interruptions MSI-X, condition requise sur Intel SR-IOV.
Si vous souhaitez utiliser les contrôleurs Intel X540 ou 82599 en mode SR-IOV avec KVM et un invité Microsoft
Windows Server 2008/R2, essayez la solution suivante. La solution consiste à dire au KVM d’imiter un modèle de
processeur différent en utilisant qemu pour créer l’hôte KVM :
"-cpu qemu64,model=13"
Impossible d’obtenir le bail DHCP au démarrage avec Red Hat
Pour les configurations où la négociation automatique prend plus de cinq secondes, le script de démarrage risque
d’échouer avec le message suivant :
"ethX: failed. No link present. Check cable?"
Si cette erreur apparaît bien que la présence d’une liaison puisse être confirmée à l’aide d’ethtool ethX, définissez
LINKDELAY=15 dans /etc/sysconfig/network-scripts/ifcfg-ethX.
REMARQUE : l’établissement de la liaison peut mettre jusqu’à 30 secondes. Ajustez la valeur de LINKDELAY
en conséquence.
Il est également possible d’utiliser NetworkManager pour configurer les interfaces, ce qui évite d’avoir à définir de
délais. Pour savoir comment effectuer des configurations à l’aide de NetworkManager, reportez-vous à la
documentation fournie avec votre distribution.
Le chargement du pilote ixgbe dans les noyaux 3.2.x et supérieurs affiche le
message comme quoi le noyau est taché (Tainted)
En raison de modifications récentes du noyau, le chargement d’un pilote "out of tree" va "tacher" le noyau.
L’hôte peut redémarrer après la suppression de la PF lorsque des VF sont actives
sur l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage
spontané du système.
Le pontage logiciel ne marche pas avec les fonctions virtuelles SR-IOV
Les fonctions virtuelles SR-IOV ne parviennent pas à envoyer ou recevoir de trafic entre les VM à l’aide de connexions
émulées sur un pont logiciel Linux et des connexions utilisant les VF SR-IOV.
Le déchargement du pilote PF entraîne le redémarrage du système quand VM est en
cours d’exécution et VF est chargé sur le VM
Sur les noyaux antérieurs à la version 3.2, le déchargement du pilote PF entraîne le redémarrage du système lorsque
la VM est en cours d’exécution et que la VF est chargée sur la VM
Ne déchargez pas le pilote PF (ixgbe) si les VF sont attribuées aux invités.
Pilote Linux* ixgbevf pour cartes réseau Intel® 10 Gigabit pour
serveurs
Vue d’ensemble de SR-IOV
Single Root IO Virtualization (SR-IOV) est une spécification PCI SIG permettant aux périphériques PCI Express
d’apparaître sous la forme de plusieurs périphériques PCI Express physiques distincts. SR-IOV permet un partage
efficace des périphériques PCI entre des machines virtuelles (VM). Il gère et transporte les données sans passer par
un hyperviseur en fournissant un espace mémoire indépendant, des interruptions et des flux DMA pour chaque
machine virtuelle.
L’architecture SR-IOV comprend deux fonctions :
l La fonction physique (PF) est une fonction PCI Express totalement fonctionnelle qui peut être détectée, gérée et
configurée comme n’importe quel autre périphérique PCI Express.
l La fonction virtuelle (VF) est semblable à PF, mais elle ne peut être configurée et elle a comme seule capacité
celle de transférer des données en entrée et en sortie. La VF est affectée à une machine virtuelle.
Avantages de SR-IOV
SR-IOV est capable d’augmenter le nombre par hôte physique des machines virtuelles prises en charge en améliorant
le partage des périphériques d’E/S entre les machines virtuelles pour des performances globales plus élevées :
l Il fournit des performances quasiment natives en raison de la connectivité directe à chaque VM via une fonction
virtuelle
l Il préserve la migration des VM
l Il augmente l’évolutivité des VM sur un serveur virtualisé
l Il assure une protection des données
Conditions logicielles requises pour SR-IOV
l
l
l
Pilote ixgbe – pilote de base Intel® Linux pour la famille de cartes réseau 10 Gigabit 82599 et X540
Pilote ixgbevf – pilote de base Intel® Linux pour la famille de cartes réseau 10 Gigabit 82599 et X540
Pilote KVM
REMARQUE : SR-IOV doit être activé dans le BIOS.
Pilote ixgbevf
SR-IOV est pris en charge par le pilote ixgbevf, qui doit être chargé aussi bien sur l’hôte que sur les VM. Ce pilote
prend en charge les versions de noyau en amont 2.6.30 (ou supérieure) x86_64.
Le pilote ixgbevf prend en charge les périphériques de fonctions virtuelles avec chipset 82599 et X540 qui ne peuvent
être activés que sur les noyaux prenant en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée et la prise en
charge du système d’exploitation.
Le pilote ixgbevf a besoin du pilote ixgbe, version 2.0 ou ultérieure. Le pilote ixgbevf prend en charge les fonctions
virtuelles générées par le pilote ixgbe avec une valeur max_vfs de 1 ou plus. Pour plus de détails sur le paramètre
max_vfs, consultez la section traitant du pilote ixgbe.
Le système d’exploitation hôte chargeant le pilote ixgbevf doit prendre en charge les interruptions MSI-X.
Actuellement, le pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs
à appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions concernant la
configuration matérielle, reportez-vous à la documentation accompagnant la carte Intel 10GbE. Toutes les
configurations matérielles énumérées s’appliquent à une utilisation avec Linux.
Les instructions de mise à jour d’ethtool se trouvent dans la section Configurations supplémentaires ci-dessous.
Cartes prises en charge par le pilote de base ixgbevf pour Linux
Les cartes réseau Intel suivantes sont compatibles dans cette version avec le pilote Linux ixgbevf et elles peuvent
prendre en charge jusqu’à 63 fonctions virtuelles par port.
l Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
l Carte réseau Ethernet Intel® 10G 2P X540-t
l Carte réseau Ethernet Intel® 10G 2P X550-t
l Carte Ethernet Intel® 10G 4P X540/I350 rNDC
l Carte Ethernet Intel® 10G 4P X520/I350 rNDC
l Carte Ethernet Intel® 10G 2P X520-k bNDC
l Carte réseau Ethernet Intel® 10G 2P X520
l Carte Ethernet Intel® 10G X520 LOM
Pour obtenir des informations sur l'identification de votre carte ou pour obtenir les derniers pilotes réseau pour Linux,
consultez l'Assistance à la clientèle.
Systèmes d’exploitation compatibles SR-IOV
l
l
l
l
l
l
Citrix XenServer 6.0 avec Red Hat Enterprise Linux
Red Hat* Enterprise Linux* (RHEL) 7.2
RHEL 7,1
RHEL 6,7
Novell* SUSE* Linux Enterprise Server (SLES) 12 SP1
SLES 11 SP4
Compilation et installation
Pour activer SR-IOV sur votre système :
1. La virtualisation et SR-IOV doivent être activés dans le BIOS.
2. Installez le système d’exploitation Linux. Pour vérifier que le pilote KVM est chargé, tapez : lsmod | grep -i
kvm.
3. Chargez le pilote de base Linux à l’aide de la commande modprobe : modprobe ixgbe option max_
vfs=xx,yy
xx et yy étant le nombre de fonctions virtuelles que vous voulez créer. Vous devez spécifier un numéro pour
chaque port, chacun des paramètres étant séparé par une virgule. Par exemple, xx est le nombre des fonctions
virtuelles pour le port 1 et yy, pour le port 2. Vous pouvez créer jusqu’à 63 fonctions par port.
4. Compilez et installez le pilote ixgbevf pour SR-IOV. Le pilote est chargé par rapport aux fonctions virtuelles qui
ont été créées.
Vous trouverez des instructions pour la configuration des fonctions virtuelles dans les fiches techniques indiquées plus
bas. Il est à noter que les informations contenues dans ces documents font référence à des configurations classiques.
Consultez le fournisseur de votre système d’exploitation pour connaître les informations les plus récentes.
l Utilisation des cartes Ethernet Intel® avec PCISIG SR-IOV (Single Root I/O Virtualization) et Sharing
Specification sur Red Hat Enterprise Linux
l Comment configurer les fonctions virtuelles des cartes Ethernet Intel® X520 Server sur Citrix XenServer 6.0
REMARQUE : pour les réseaux locaux virtuels, il existe une limite d’un total de 32 VLAN partagés sur 1 ou
plusieurs fonctions virtuelles.
Il existe trois méthodes d’installation du pilote Linux :
l Installation à partir du code source
l Installation à partir d’un fichier RPM DKMS
l Installer à l’aide de RPM KMP
Installation à partir du code source
Pour créer un package RPM* binaire de ce pilote, exécutez "rpmbuild -tb <nom_de_fichier.tar.gz>". Remplacez <nom_
de_fichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUES :
l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez
’/home/username/ixgbevf’ ou ’/usr/local/src/ixgbevf’.
2. Déballez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de
version du tar du pilote :
tar zxf ixgbevf-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd ixgbevf-<x.x.x>/src/
4. Compilez le module du pilote :
make install
Les instructions binaires sont installées en tant que : /lib/modules/<VERSION DU
NOYAU>/kernel/drivers/net/ixgbevf/ixgbevf.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être
différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe pour le noyau 2.6.x :
modprobe ixgbevf <paramètre>=<valeur>
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes ixgbevf sont supprimés du
noyau, avant de charger le nouveau module :
rmmod ixgbevf; modprobe ixgbevf
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> netmask <masque réseau>
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
Installation à partir d’un fichier RPM DKMS
Téléchargez le fichier DKMS RPM. Pour installer ou désinstaller les fichiers RPM, suivez les instructions ci-dessous.
REMARQUE : la structure DKMS (2.0 ou supérieure) doit être installée avant d'essayer d'installer un fichier
RPM DKMS. La structure DKMS est disponible à l’adresse suivante : http://linux.dell.com/dkms/
Les fichiers RPM DKMS sont fournis pour les distributions Linux prises en charge et sont nommés ixgbevf-<version_
du_pilote>-<type>.noarch.rpm
<version_du_pilote> et <type> sont spécifiques à la version du pilote utilisé :
l
l
<version_du_pilote> est le numéro de version du pilote (ex : 6.2.xy).
<type> est soit "sb_dkms" pour les packages contenant à la fois les modules sources et binaires, ou "bo_dkms"
pour les packages contenant uniquement les modules binaires.
La convention de nom pour les fichiers RPM DKMS inclus est :
<nom du composant>-<version du composant>-<type>.noarch.rpm
Par exemple, ixgbevf-xyz-sb_dkms.noarch.rpm : ixgbevf est le nom du composant ; xyz est la version du composant ; et
sb_dkms est le type.
REMARQUE : si un fichier RPM a précédemment été installé, il doit être désinstallé avant d'installer le nouveau
fichier RPM. Pour déterminer si un fichier RPM est déjà installé, entrez rpm -q ixgbevf.
Pour installer le fichier RPM DKMS, utilisez la commande suivante :
rpm -i <nom_de_fichier>
Pour désinstaller le fichier RPM, utilisez la commande suivante :
rpm -e <package>
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11.
Les RPM KMP mettent à jour les RPM ixgbevf actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-ixgbevf-1.3.8.6-1.x86_64.rpm : ixgbevf est le nom du composant ; 1.3.8.6-1 est la version du
composant ; et x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : ixgbevf est le nom du composant ; default
est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le
type d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package ixgbevf KMP RPM, tapez ce qui suit :
rpm -i intel-ixgbevf-1.3.8.6-1.x86_64.rpm
rpm -i intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe ixgbevf [<option>=<VAL1>,<VAL2>,...]
Par exemple :
modprobe ixgbevf InterruptThrottleRate=16000,16000
La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du
paramètre
Plages/valeurs
valides
InterruptThrottleR
ate
0, 1, 956 - 488,281
(0=désactivé,
1=dynamique)
Valeur
par défaut
8000
Description
Le pilote peut limiter le nombre d’interruptions par seconde
générées par la carte pour les paquets entrants. Pour ce
faire, il écrit une valeur sur la carte, basée sur le nombre
maximum d’interruptions que la carte générera par seconde.
Lorsque le paramètre InterruptThrottleRate est affecté d’une
valeur supérieure ou égale à 100, la carte est programmée
pour envoyer ce nombre maximum d’interruptions par
seconde, même si plus de paquets sont entrés. Cela réduit
la charge d’interruptions sur le système et peut diminuer
l’utilisation de l’unité centrale en cas de surcharge, mais
augmente la latence car les paquets ne sont pas traités
aussi rapidement.
Le comportement par défaut du pilote prenait pour
hypothèse que le paramètre InterruptThrottleRate possédait
une valeur statique de 8000, ce qui fournissait une bonne
valeur de secours pour tous les types de trafic, mais des
performances médiocres concernant le traitement des
paquets et la latence. Cependant, le matériel peut traiter
beaucoup plus de paquets par seconde et c’est pourquoi un
algorithme de gestion adaptative des interruptions a été
implémenté.
Le pilote possède un mode adaptatif (valeur 1) avec lequel il
ajuste de façon dynamique la valeur InterruptThrottleRate en
fonction du trafic qu’il reçoit. Après avoir déterminé le type de
trafic entrant de la dernière tranche de temps, il ajuste la
valeur InterruptThrottleRate à une valeur appropriée en
fonction de ce trafic.
L’algorithme trie le trafic entrant à chaque intervalle dans
des classes. Une fois que la classe est déterminée, la valeur
InterruptThrottleRate est ajustée afin de correspondre au
mieux au type de trafic. Trois classes sont définies : "Bulk
traffic" (Trafic en vrac), pour les grandes quantités de
paquets de taille normale ; "Low latency" (Faible latence),
pour les trafics de petite quantité et/ou un pourcentage
important de petits paquets ; et "Lowest latency" (Plus faible
latence), pour les trafics composés presque exclusivement
de petits paquets et les très faibles trafics.
Nom du
paramètre
Plages/valeurs
valides
Valeur
par défaut
Description
En mode dynamique conservatif, la valeur
InterruptThrottleRate est définie sur 4000 pour un trafic
tombant dans la classe "Bulk traffic" (Trafic en vrac). Si le
trafic tombe dans la classe "Low latency" (Faible latence) ou
"Lowest latency" (Plus faible latence), la valeur
InterruptThrottleRate est augmentée progressivement
jusqu’à 20 000. Ce mode par défaut est adapté à la plupart
des applications.
Pour les cas où une faible latence est essentielle, tels que
les grappes ou les grilles d’ordinateurs, l’algorithme peut
réduire encore la latence lorsque le paramètre
d’InterruptThrottleRate est réglé sur le mode 1. Dans ce
model’InterruptThrottleRate est augmenté pas à pas jusqu’à
70000 pour le travail de la classe à plus faible latence.
Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion
des interruptions est désactivée, ce qui peut améliorer la
latence des petits paquets, mais n’est généralement pas
adapté à un trafic important.
REMARQUES :
l Si le pilote ixgbevf est chargé avec les
paramètres par défaut et que des cartes
multiples sont utilisées. La limitation de
requêtes d’interruption dynamique ne
s’applique qu’aux cartes fonctionnant en mode
MSI ou hérité, en utilisant une file d’attente de
réception unique.
l Si le pilote ixgbevf est chargé avec les
paramètres par défaut et que des cartes
multiples sont utilisées simultanément, le taux
d’utilisation du processeur peut augmenter de
façon non linéaire. Pour limiter le taux
d’utilisation du processeur sans affecter la
performance globale, chargez le pilote de la
manière suivante :
modprobe ixgbevf
InterruptThrottleRate=300
0,3000,3000
Cela définit le paramètre InterruptThrottleRate
sur 3000 interruptions/s pour la première,
deuxième et troisième instance du pilote. La
plage comprise entre 2000 à 3000 interruptions
par seconde fonctionne sur la plupart des
systèmes et est un bon point de départ, mais la
valeur optimale dépend toutefois de la plateforme. Si le taux d’utilisation du processeur
n’est pas un problème, utilisez les paramètres
par défaut du pilote.
REMARQUES :
l pour plus de détails sur le paramètre InterruptThrottleRate, reportez-vous au site
http://www.intel.com/design/network/applnots/ap450.htm.
l un descripteur décrit un tampon de données et les attributs qui lui sont liés. Le matériel accède à ces
informations.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier
/etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou
de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces
modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système,
reportez-vous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est
demandé, le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est ixgbevf.
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
ethtool
Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les
informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
MACVLAN
ixgbevf prend en charge MACVLAN sur ces noyaux ayant la fonction comprise. La prise en charge du noyau pour
MACVLAN peut être testée en vérifiant si le pilote MACVLAN est chargé. L’utilisateur peut exécuter ’lsmod | grep
macvlan’ pour vérifier si le pilote MACVLAN est chargé ou exécuter ’modprobe macvlan’ pour essayer de charger le
pilote MACVLAN.
La mise à jour vers une version plus récente du package iproute2 peut s’avérer nécessaire pour obtenir la prise en
charge de MACVLAN via la commande ’ip’.
NAPI
Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote ixgbevf et est toujours activé. Pour plus
d'informations sur NAPI, consultez : ftp://robur.slu.se/pub/Linux/net-development/NAPI/usenix-paper.tgz.
Problèmes connus
REMARQUE : si la connexion réseau ne fonctionne pas après l’installation du pilote, vérifiez que vous avez
installé le pilote correct.
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir :
"Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h
manquante)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant :
make include/linux/version.h
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(ceci ne fonctionne que si la version du noyau est postérieure à 2.4.5), ou installez les interfaces dans des domaines
de diffusion différents.
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. La modification de la configuration
peut être rendue permanente en ajoutant la ligne :
net.ipv4,conf.all.arp_filter= 1 au fichier /etc/sysctl.conf
ou
Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou
sur un commutateur partitionné aux réseaux locaux virtuels).
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris)
Des paniques et instabilités du noyau peuvent être observées sur tout matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si ces types de problèmes surviennent, vous pouvez désactiver le démon
irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de
versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
L’hôte peut redémarrer après la suppression de la PF lorsque des VF sont actives
sur l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage
spontané du système.
Pilote Linux* i40e pour la famille de cartes réseau Intel X710
Ethernet Controller
Présentation d'i40e
Le pilote de base i40e pour Linux* pour la famille de cartes réseau Ethernet X710/XL710 prend en charge les noyaux
2.6.32 et versions ultérieures, et inclut la prise en charge des systèmes x86_64 gérés par Linux. Pour toutes questions
sur la configuration matérielle, consultez la section Configuration minimale requise. Toutes les configurations
matérielles énumérées s’appliquent à une utilisation avec Linux.
Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge :
l Encapsulation VXLAN
l Réseaux VLAN natifs
l Channel Bonding (agrégation)
l SNMP
l Délestage de réception générique
l Pontage de centre de données
L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette
fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité
Channel Bonding est disponible dans la source du noyau Linux : /Documentation/networking/bonding.txt
Utilisez ethtool, lspci ou iproute2's ip pour obtenir des informations sur le pilote. Les instructions de mise à jour
d’ethtool se trouvent dans la section Configurations supplémentaires plus loin sur cette page.
Appareils pris en charge par le pilote de base i40e pour Linux
Les cartes réseau Intel suivantes sont compatibles avec ce pilote :
l Carte Ethernet Intel® 10G 4P X710-k bNDC
l Carte Ethernet Intel® 10G 2P X710-k bNDC
l Carte Ethernet Intel® 10G X710-k bNDC
l Carte réseau convergent Intel® X710
l Carte Ethernet Intel® 10G 4P X710/l350 rNDC
l Carte Ethernet Intel® 10G 4P X710 SFP+ rNDC
l Carte Ethernet Intel® 10G X710 rNDC
l Carte Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
l Carte réseau convergent Ethernet Intel® XL710-Q2
Pour obtenir des informations sur l'identification de votre carte ou pour obtenir les derniers pilotes réseau pour Linux,
consultez l'Assistance à la clientèle.
Périphériques SFP+ avec câble optique enfichable
REMARQUE : pour les cartes à fibre optique SFP+, l’utilisation de "ifconfig down" désactive le laser.
"ifconfig up" active le laser.
Pour de plus amples informations sur l’utilisation des périphériques avec des câbles optiques enfichables SFP+,
cliquez ici.
Compilation et installation
Il existe quatre méthodes d’installation du pilote Linux :
l Installation à partir du code source
l Installer à l’aide de RPM KMP
l Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour créer un package RPM* binaire de ce pilote, exécutez "rpmbuild -tb <nom_de_fichier.tar.gz>". Remplacez <nom_
de_fichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUES :
l Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez
’/home/username/i40e’ ou ’/usr/local/src/i40e’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf i40e-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd i40e-<x.x.x>/src/
4. Compilez le module du pilote :
make install
Le binaire sera installé en tant que : /lib/modules/<VERSION DU
NOYAU>/kernel/drivers/net/i40e/i40e.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être
différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe :
modprobe i40e <paramètre>=<valeur>
Assurez-vous que les anciens pilotes i40e sont supprimés du noyau, avant de charger le nouveau module :
rmmod i40e ; modprobe i40e
6. Affectez une adresse IP à l’interface Ethernet et activez celle-ci en entrant la commande suivante, où <x>
correspond au nom d’interface :
ifconfig <ethx> <adresse_IP> netmask <masque réseau> up
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur RHEL 6.0 et versions ultérieures, et SLES11 et versions
ultérieures.
Les RPM KMP mettent à jour les RPM i40e actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-i40e-1.3.8.6-1.x86_64.rpm:i40e est le nom du composant ; 1.3.8.6-1 et la version du composant ; et
x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:i40e est le nom du composant ; default (par
défaut) est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64
est le type d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package RPM KMP i40e, tapez ce qui suit :
rpm -i intel-i40e-1.3.8.6-1.x86_64.rpm
rpm -i intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-i40e-2.3.4-1.x86_64.rpm :
l i40e est le nom du pilote
l 2.3.4 est la version
l x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD i40e depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-i40e-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
En général, ethtool et les autres commandes spécifiques au SE sont utilisées pour configurer les paramètres
modifiables par l'utilisateur après le chargement du pilote. Le pilote i40e ne prend en charge le paramètre de noyau
max_vfs kernel que sur les anciens noyaux qui n'ont pas d'interface sysfs standard. Le seul autre paramètre du module
est le paramètre debug qui peut commander la verbosité de la journalisation par défaut du pilote.
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe i40e [<option>=<VAL1>]
Par exemple :
modprobe i40e max_vfs=7
La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du Plages/valeurs Valeur
paramètre
valides
par
défaut
max_vfs
1 - 63
0
Description
Ce paramètre assure la prise en charge SR-IOV. Il fait générer au pilote
jusqu’à max_vfs de fonction virtuelle.
REMARQUES :
l Sur les versions 3.8.x et supérieures du noyau, les VF sont créées en
écrivant une valeur appropriée sur le paramètre sriov_numvfs via
l'interface sysfs.
l Lorsque le mode SR-IOV est activé, le filtrage de VLAN matériel et la
suppression/l'insertion de balises VLAN restent activés. Supprimez
l'ancien filtre de VLAN avant d'ajouter le nouveau filtre de VLAN. Par
exemple :
ip link set eth0 vf 0 vlan 100
// définir vlan 100 pour VF 0
ip link set eth0 vf 0 vlan 0
// supprimer vlan 100
ip link set eth0 vf 0 vlan 200
// définir un nouveau vlan 200 pour VF 0
Avec le noyau 3.6, le pilote prend en charge l’utilisation simultanée de max_
vfs et des fonctions DCB, dans les limites des contraintes détaillées cidessous. Avant le noyau 3.6, le pilote ne prenait pas en charge l’exploitation
simultanée de max_vfs > 0 et des fonctions DCB (multiplicité des classes de
trafic utilisant Priority Flow Control et Extended Transmission Selection).
Nom du Plages/valeurs Valeur
paramètre
valides
par
défaut
Description
Lorsque DCB est activé, le trafic réseau est envoyé et reçu par
l’intermédiaire de plusieurs classes de trafic (tampons de paquets dans la
carte d’interface réseau). Le trafic est associé à une classe spécifique en
fonction de sa priorité, laquelle a une valeur comprise entre 0 et 7 qui est
utilisée dans la balise VLAN. Lorsque SR-IOV n’est pas activé, chaque
classe de trafic est associée à un ensemble de paires de files de
descripteurs RX/TX. Le nombre de paires de files d’attente pour une classe
de trafic donnée dépend de la configuration du matériel. Lorsque SR-IOV est
activé, les paires de files de descripteurs sont regroupées en pools. À la
fonction physique (PF) et à chaque fonction virtuelle (VF) est alloué un pool
de paires de files de descripteurs RX/TX. Lorsque plusieurs classes de trafic
sont configurées (cas, par exemple, lorsque DCB est activé), chaque pool
contient une paire de files provenant de chaque classe de trafic. Lorsqu’une
seule classe de trafic est configurée sur le matériel, les pools contiennent
plusieurs paires de files provenant de cette classe unique.
Le nombre de VF pouvant être allouées dépend du nombre de classes de
trafic pouvant être activées. Le nombre configurable de classes de trafic pour
chaque VF activée est le suivant :
0 - 15 VF = jusqu’à 8 classes de trafic, selon ce que permet le
périphérique
16 - 31 VF = jusqu’à 4 classes de trafic
32 - 63 = 1 classe de trafic
Lorsque des VF sont configurées, un seul pool est alloué à la PF. Le PF
prend en charge les fonctionnalités DCB avec cette contrainte que chaque
classe de trafic n’utilisera qu’une seule paire de files. Lorsque zéro VF est
configurée, le PF peut prendre en charge plusieurs paires de files par classe
de trafic.
Directeur
de flux
Ethernet
Intel®
REMARQUE : les paramètres de directeur de flux ne sont pris en
charge que sur les noyaux de version 2.6.30 ou plus récente. Sur ces
périphériques, le contrôle de flux en mode 1 Gbit/s peut provoquer
des problèmes de transmission.
Prend en charge les filtres avancés qui dirigent les paquets de réception
vers des files d’attente différentes en fonction de leur flux et active un
contrôle serré sur l’acheminement d’un flux dans la plate-forme. Il détermine
l’affinité des flux et des cœurs de processeur et prend en charge plusieurs
paramètres permettant une classification des flux et un équilibrage de
charge souples.
Le directeur de flux est activé uniquement si le noyau est capable de
plusieurs files d’attente de transmission. Un script inclus (set_irq_affinity.sh)
automatise la détermination des affinités des interruptions en fonction de
l’UC. Pour vérifier que le pilote utilise Flow Director, examinez le compteur
dans ethtool : fdir_miss and fdir_match.
Autres commandes ethtool :
Pour activer/désactiver Flow Director
ethtool -K ethX ntuple <on|off>
Lors de la désactivation des filtres ntuple, tous les filtres programmés par
l'utilisateur sont purgés du cache de pilote et du matériel. L'utilisateur doit
rajouter les filtres si nécessaire lorsque le pilote ntuple est réactivé.
Nom du Plages/valeurs Valeur
paramètre
valides
par
défaut
Description
Pour ajouter un filtre qui dirige les paquets vers la file d'attente 2, utilisez le
commutateur -U ou -N, par ex. :
# ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1 dst-ip
\ 192.168.10.2 src-port 2000 dst-port 2001 action 2 [loc 1]
Pour afficher la liste des filtres existants
# ethtool <-u|-n> ethX
REMARQUE : le pilote i40e pour linux ne prend pas en charge la
configuration du champ de masque. Il n'accepte que les règles qui
qualifient complètement un certain type de flux.
ATR (application Targeted Routing) Perfect Filter :
ATR est activé par défaut lorsque le noyau est en mode de file d'attente de
transfert multiple. Une règle de filtre directeur de flux ATR est ajoutée
lorsqu'un flux TCP-IP débute et elle est effacée quand le flux s'arrête.
Lorsqu'une règle de filtre directeur de flux TCP-IP est ajoutée depuis ethtool
(filtre de bande latérale), ATR est désactivé par le pilote. Afin de réactiver
ATR, l'utilisateur peut désactiver la bande latérale à l'aide de l'option ethtool
-K. Si la bande latérale est réactivée par la suite, ATR reste activé jusqu'à
l'ajout d'un flux TCP-IP.
Filtres Sideband Perfect
Les filtres Sideband Perfect sont une interface permettant de charger la table
de filtres qui dirige l’ensemble des flux dans la file d’attente queue_0, à
moins qu’une autre file d’attente ne soit spécifiée à l’aide de la commande
"action". Dans ce cas, le flux correspondant aux critères de filtrage sera
dirigé vers la file d’attente appropriée.
Les règles peuvent être effacées à partir du tableau. Sélectionnez "ethtool -U
ethX delete N" (ethtool -U ethX efface N), N étant le numéro de règle à
effacer.
Si la file d’attente est définie sur -1, le filtre abandonnera les paquets
correspondants. Pour prendre en compte les correspondances du filtre
Sideband, il existe les statistiques fdir_sb_match dans ethtool.
De plus, rx-N.rx_packets affiche le nombre de paquets traités par la file
d’attente Nth.
REMARQUES :
l Receive Packet Steering (RPS) et Receive Flow Steering
(RFS) ne sont pas compatibles avec Flow Director. Si Flow
Director est activé, ils seront désactivés.
l Après avoir défini une règle, les champs et les masques
doivent être identiques (si les masques sont spécifiés).
Problèmes connus
La logique Sideband du directeur de flux ajoute un filtre dupliqué
dans la liste des filtres logiciels :
La logique Sideband du directeur de flux ajoute un filtre dupliqué
dans la liste des filtres logiciels si l'emplacement n'est pas spécifié ou
qu'il est spécifié mais qu'il est différent de l'emplacement de la règle
précédente tout en ayant les mêmes critères de filtre. Le second des
deux filtres qui apparaissent est le filtre valide dans le matériel et il
décide de l'action de filtre.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier
/etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou
de fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces
modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système,
reportez-vous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est
demandé, le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est i40e.
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. La valeur maximale du MTU est 9710. Utilisez la commande ifconfig pour augmenter la taille MTU.
Entrez, par exemple, la commande suivante, où <x> est le numéro d’interface :
ifconfig ethx mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. La modification du paramètre peut être permanente en
ajoutant MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x> pour RHEL ou au fichier
/etc/sysconfig/network/<config_file> pour SLES.
Le paramètre MTU maximum pour les trames Jumbo et de 9710. Cette valeur coïncide avec la taille maximum des
trames Jumbo, qui est de 9728. Ce pilote tentera d'utiliser des tampons de tailles différentes pour recevoir chaque
paquet étendu. Cela aide à éviter les problèmes de famine de tampon lors de l’allocation des paquets de réception.
ethtool
Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les
informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
NAPI
Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote i40e.
Reportez-vous au site ftp://robur.slu.se/pub/Linux/net-development/NAPI/usenix-paper.tgz pour plus d’informations sur
NAPI.
Contrôle de flux
Le contrôle de flux est désactivé par défaut. Pour l’activer, utilisez ethtool :
ethtool -A eth? autoneg off rx on tx on
REMARQUE : vous devez disposer d’un partenaire de liaison capable de contrôle de flux.
Fonction anti-arnaque MAC et VLAN
Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis.
Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet
malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande
"dmesg") :
i40e ethx: i40e_spoof_check: n paquets malveillants détectés
Quand x=PF interface# et n=VF ayant tenté l’intrusion malveillante.
REMARQUE : cette fonctionnalité peut être désactivée pour une fonction virtuelle (VF) spécifique.
Prise en charge d’UDP RSS
Cette fonction ajoute un commutateur ON/OFF pour le hachage sur certains types de débit. Le paramètre par défaut est
désélectionné. REMARQUE : les paquets fragmentés peuvent arriver déclassés quand la prise en charge RSS UDP
est configurée.
Commandes et options ethtool prises en charge
-n --show-nfc
Récupère les configurations de classification de débit de réseau reçues.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Récupère les options de hachage pour le type de trafic de réseau spécifié.
-N --config-nfc
Configure la classification du débit de réseau reçu.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r...
Configure les options de hachage pour le type de trafic de réseau spécifié.
udp4 UDP over IPv4
udp6 UDP over IPv6
f hachure sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx.
n hachure sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx.
Déchargement matériel VXLAN Overlay
Le pilote i40e pour Linux offre la prise en charge du déchargement matériel VXLAN Overlay. Les deux commandes
suivantes sont utilisées pour afficher et configurer VXLAN sur un périphérique prenant en charge le déchargement
VXLAN-overlay.
Cette commande affiche les déchargements et leur état actuel :
# ethtool -k ethX
Cette commande active/désactive la prise en charge VXLAN par le pilote.
# ethtool -K ethX tx-udp_tnl-segmentation [off|on]
Pour plus d'informations sur la configuration de votre réseau pour la prise en charge de VXLAN overlay, consultez le
dossier technique Intel "Création de réseaux overlay en utilisant les cartes réseau convergent Ethernet" (Division Intel
Networking Division, août 2013) :
http://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/ overlay-networks-using-convergednetwork-adapters-brief.pdf
NPar
Sur les cartes réseau X710/XL710 qui le prennent en charge, vous pouvez configurer plusieurs fonctions sur chaque
port physique. Ces fonctions sont configurées au moyen de la Configuration système/BIOS.
Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra
allouer, en pourcentage de la vitesse totale de liaison du port physique. La bande passante allouée n'est jamais
inférieure au niveau spécifié ici.
La plage des valeurs de bande passante minimale
1 à ((100 moins le nombre de partitions sur le port physique) plus 1).
Par exemple, si un port physique comporte 4 partitions, la plage serait
1 à ((100 - 4) + 1 = 97)
La bande passante maximum représente la bande passante de transmission maximum de la partition sous la forme
d'un pourcentage de la vitesse de liaison du port physique complet. La plage de valeurs acceptable va de 1 à 100. La
valeur peut être utilisée comme limiteur si vous décidez qu'une fonction donnée ne pourra pas consommer la totalité
de la bande passante d'un port (en cas de disponibilité). La somme de toutes les valeurs de bande passante maximale
n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port.
Une fois la configuration initiale terminée, vous pouvez définir différentes allocations de bande passante pour chaque
fonction de la manière suivante :
1. Créez un nouveau répertoire nommé /config
2. Modifiez etc/fstab pour inclure :
configfs /config configfs defaults
3. Chargez (ou rechargez) le pilote i40e
4. Mount /config
5. Créez sous config un nouveau répertoire pour chaque partition pour laquelle vous souhaitez configurer la
bande passante.
Trois fichiers apparaissent dans le répertoire config/partition :
- max_bw
- min_bw
- commit
Lisez à partir de max_bw pour afficher le paramètre actuel de bande passante maximale.
Écrivez dans max_bw pour fixer la bande passante maximale pour cette fonction.
Lisez à partir de min_bw pour afficher le paramètre actuel de bande passante minimale.
Écrivez dans min_bw pour fixer la bande passante minimale pour cette fonction.
Écrivez un '1' pour confirmer l'enregistrement (commit) des modifications.
REMARQUES :
l Commit est en écriture seule. Toute tentative de lecture provoquera une erreur.
l L'écriture dans commit n'est prise en charge que pour la première fonction d'un port donné. L'écriture
pour une des fonctions suivantes provoquera une erreur.
l La réécriture de la bande passante minimale n'est pas prise en charge. Le NVM du périphérique sousjacent règle la bande passante maximale sur les valeurs prises en charge de manière indéterminée.
Supprimez tous les répertoires sous config et rechargez-les pour voir quelles sont les valeurs réelles.
l Pour décharger le pilote, vous devez tout d'abord supprimer les répertoires créés à l'étape 5 ci-dessus.
Exemple de réglage de la bande passante maximale et minimale (en supposant quatre fonctions sur le port eth6-eth9,
et que eth6 soit la première fonction du port) :
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Optimisation des performances
Les paramètres par défaut du pilote lui permettent de s'adapter à un grand nombre de charges de travail différentes. Si
des optimisations sont nécessaires, il est conseillé d'essayer les paramètres ci-après.
Reliez les IRQ de la carte réseau à des cœurs spécifiques en désactivant le service irqbalance et en exécutant le script
set_irq_affinity inclus.
Les paramètres suivants permettront de répartir les IRQ de manière équitable sur tous les cœurs :
# scripts/set_irq_affinity –x all <interface1> , [ <interface2>,… ]
Les paramètres suivants permettront de répartir les IRQ sur tous les cœurs en local de la carte (même nœud NUMA) :
# scripts/set_irq_affinity –x local <interface1> ,[ <interface2>,… ]
Consultez le texte d'aide du script pour plus d'options.
Pour des charges de travail demandant une fréquence du processeur élevée, il est conseillé de relier les IRQ à tous
les cœurs.
Pour le Transfert IP : désactiver la fonction ITR adaptative et baisser les interruptions rx et tx par file d'attente à l'aide
d'ethtool. La définition de rx-usecs et de tx-usecs à 125 limitera les interruptions à environ 8 000 par seconde par file
d'attente.
# ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 125 tx-usecs 125
Pour réduire l'utilisation du processeur : désactiver la fonction ITR adaptative et baisser les interruptions rx et tx par file
d'attente à l'aide d'ethtool. La définition de rx-usecs et de tx-usecs à 250 limitera les interruptions à environ 4000 par
seconde et par file d'attente.
# ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 250 tx-usecs 250
Pour une latence plus faible : désactiver les fonctions ITR et ITR adaptative en définissant rx et tx sur 0 à l'aide
d'ethtool.
# ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 0 tx-usecs 0
Problèmes connus
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir :
"Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h
manquante)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant :
make include/linux/version.h
Dégradation des performances avec les trames Jumbo
Une dégradation du débit peut être observée avec certaines trames Jumbo. Dans ce cas, il peut s’avérer utile
d’augmenter la taille de socket de l’application et/ou les valeurs d’entrée de /proc/sys/net/ipv4/tcp_*mem. Pour d’autres
détails, consultez la documentation spécifique de l’application dans le fichier texte ip-sysctl.txt de la documentation du
noyau.
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(ceci ne fonctionne que si la version du noyau est postérieure à 2.4.5), ou installez les interfaces dans des domaines
de diffusion différents.
Problème de perte de paquet lors du test de montée en charge UDP
Pendant le test de montée en charge UDP avec des petits paquets et le pilote i40e, le système Linux peut perdre des
paquets UDP parce que les descripteurs de socket sont pleins. Il est possible de régler les variables de contrôle de
flux du pilote à la valeur minimale pour le contrôle de la réception des paquets.
Une autre option consiste à accroître la taille par défaut des tampons pour udp en modifiant les valeurs dans
/proc/sys/net/core/rmem_default and rmem_max.
Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution
Sur les noyaux de versions 2.6.32 et supérieures, le système ne répond plus (sauf à la commande Ctrl+Alt+Supp.) si le
câble réseau est débranché alors que ethtool -p est en cours d’exécution. Le redémarrage du système semble être le
seul recours.
Erreurs d’allocation de la page de réception
Erreurs d’allocation d’ordre d’échec : 0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de versions
supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
Désactiver GRO pour l’acheminement/ le pontage
En raison de problèmes de noyau connus, GRO doit être désactivé pour l’acheminement ou le pontage. GRO peut être
désactivé à l’aide de ethtool.
ethtool -K ethX gro off
où ethX est l’interface Ethernet que vous tentez de modifier.
Performances inférieures aux attentes
Certains connecteurs PCIe x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une bande
passante insuffisante pour les débits de ligne de 10GbE avec des périphériques 10GbE à 2 et 4 ports. En outre, si
vous placez une carte réseau compatible PCIe Gen 3 sur un connecteur PCIe Gen 2, vous n’obtiendrez pas la totalité
de la bande passante. Le pilote peut détecter cette situation et écrit le message suivant dans le journal système : “PCI
Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8 PCIExpress slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir des
performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé).
Si cette erreur se produit, placez la carte dans un véritable connecteur x8 pour résoudre le problème.
Il est possible qu’ethtool affiche incorrectement un module SFP+ Fiber comme un câble à fixation
directe
En raison de limitations du noyau, le type de port ne peut être affiché correctement que sur les noyaux 2.6.33 ou de
versions supérieures.
L’exécution de la commande ethtool-t ethX cause des plantages entre le PF et client de test
Lorsqu’il y a des VF actifs, la commande "ethtool -t" n’exécutera qu’un test de lien. Le pilote enregistrera également
dans le syslog que les VF devraient être arrêtés pour effectuer un test complet de diagnostic.
Activation de SR-IOV dans un système d'exploitation invité Microsoft* Windows* Server 2008/R2 32 bits
ou 64 bits sous Linus KVM
KVM Hypervisor/VMM prend en charge l’attribution d’un périphérique PCIe vers un VM. Cela comprend les
périphériques PCIe classiques ainsi que les périphériques compatibles SR-IOV utilisant les contrôleurs avec chipset
Intel 82599 et X540.
Pendant l’attribution directe d’un périphérique PCIe ou d’une fonction virtuelle (VF) SR-IOV vers un VM de base Linux
exécutant un noyau 2.6.32 ou une version ultérieure, il existe un problème connu avec Microsoft Windows Server
2008/R2 VM qui entraîne une erreur "point d’exclamation jaune". KVM VMM est à l’origine de ce problème, et ne vient
pas du pilote Intel ou de la logique SR-IOV du VMM. Le KVM imite un ancien modèle de processeur pour les hôtes et
cet ancien modèle ne prend pas en charge les interruptions MSI-X, condition requise sur Intel SR-IOV.
Si vous souhaitez utiliser les contrôleurs Intel X540 ou 82599 en mode SR-IOV avec KVM et un invité Microsoft
Windows Server 2008/R2, essayez la solution suivante. La solution consiste à dire au KVM d’imiter un modèle de
processeur différent en utilisant qemu pour créer l’hôte KVM :
"-cpu qemu64,model=13"
Impossible d’obtenir le bail DHCP au démarrage avec Red Hat
Pour les configurations où la négociation automatique prend plus de cinq secondes, le script de démarrage risque
d’échouer avec le message suivant :
"ethX: failed. No link present. Check cable?"
Si cette erreur apparaît bien que la présence d’une liaison puisse être confirmée à l’aide d’ethtool ethX, définissez
LINKDELAY=15 dans /etc/sysconfig/network-scripts/ifcfg-ethX.
REMARQUE : l’établissement de la liaison peut mettre jusqu’à 30 secondes. Ajustez la valeur de LINKDELAY
en conséquence.
Il est également possible d’utiliser NetworkManager pour configurer les interfaces, ce qui évite d’avoir à définir de
délais. Pour savoir comment effectuer des configurations à l’aide de NetworkManager, reportez-vous à la
documentation fournie avec votre distribution.
Le chargement du pilote i40e dans les noyaux 3.2.x et supérieurs affiche le message comme quoi le
noyau est taché (Tainted)
En raison de modifications récentes du noyau, le chargement d’un pilote "out of tree" va "tacher" le noyau.
Le pontage logiciel ne marche pas avec les fonctions virtuelles SR-IOV
Les fonctions virtuelles SR-IOV ne parviennent pas à envoyer ou recevoir de trafic entre les VM à l’aide de connexions
émulées sur un pont logiciel Linux et des connexions utilisant les VF SR-IOV.
Dépannage
Problèmes courants et solutions
Problème
Votre serveur ne trouve pas la carte réseau.
Solution
l
l
l
l
l
l
l
Les tests de diagnostic sont bons, mais la
connexion échoue.
l
l
l
l
l
Une autre carte ne fonctionne plus après
l’installation d’une deuxième.
l
l
l
l
l
La carte s’est arrêtée de fonctionner sans aucune
raison apparente.
l
l
l
l
l
l
L’indicateur lumineux de liaison est éteint
l
l
l
l
l
Assurez-vous que la carte est correctement insérée dans
son emplacement.
Essayez un autre emplacement PCI Express*.
Utilisez les pilotes fournis avec la carte ou téléchargez
les pilotes les plus récents depuis le site d’Assistance à
la clientèle.
Vérifiez si votre carte mère possède le dernier BIOS.
Essayez de redémarrer le serveur.
Essayez une autre carte Intel.
Assurez-vous que le logement de la carte est compatible
avec le type de carte utilisé.
Vérifiez le partenaire de liaison répondant.
Assurez-vous que le câble est correctement branché,
qu’il est du type approprié et qu’il n’excède pas les
longueurs recommandées.
Essayez un autre câble.
Essayez d’exécuter le test de diagnostic ExpéditeurRépondeur.
Assurez-vous que les paramètres de vitesse et de mode
duplex de la carte correspondent à ceux du
commutateur.
Assurez-vous que le câble est bien branché.
Assurez-vous que le BIOS est à jour.
Vérifiez la présence de conflits d’interruption et de
problèmes de partage. Assurez-vous que l’autre carte
prend en charge les interruptions partagées. Assurezvous également que votre système d’exploitation prend
en charge les interruptions partagées.
Déchargez tous les pilotes de périphériques PCI
Express, puis rechargez tous les périphériques.
Essayez de réinsérer toutes les cartes.
Il se peut que les fichiers des pilotes de réseau soient
endommagés ou supprimés. Réinstallez les pilotes.
Essayez de remettre en place la carte dans son
emplacement ou dans un autre emplacement si
nécessaire.
Essayez de redémarrer le serveur.
Essayez un autre câble.
Essayez une autre carte réseau.
Exécutez les tests de réseau et de carte décrits dans la
rubrique Test de la carte.
Exécutez les tests de réseau et de carte décrits dans la
rubrique Test de la carte.
Assurez-vous que le pilote de la carte est chargé.
Vérifiez toutes les connexions à la carte et au
commutateur.
Essayez un autre port du commutateur.
Assurez-vous que le câble est correctement branché.
Assurez-vous également qu’il est du type approprié et
qu’il n’excède pas les longueurs recommandées.
Problème
Solution
l
l
L’indicateur lumineux de liaison est allumé, mais
les communications ne sont pas correctement
établies.
l
l
Assurez-vous que le partenaire de liaison est configuré
pour prendre en charge la négociation automatique (ou
qu’il corresponde à la carte).
Vérifiez que votre commutateur est compatible avec le
port de votre carte réseau.
Assurez-vous que le pilote approprié (et le plus récent)
est chargé.
La carte et son partenaire de liaison doivent être
configurés pour prendre en charge la négociation
automatique ou manuelle avec les mêmes paramètres
de vitesse et de mode duplex.
REMARQUE : il se peut que l’indicateur lumineux de
liaison de la carte s’allume même si la communication
entre la carte et son partenaire de liaison n’a pas été
correctement établie. D’un point de vue technique,
l’indicateur lumineux de liaison indique la présence d’un
signal porteur, mais pas nécessairement la capacité de
communication adéquate avec un partenaire de liaison. Il
s’agit d’une situation normale conforme à la spécification
IEEE du fonctionnement de la couche physique.
L’utilitaire de diagnostic indique que la carte n’est
pas activée par le BIOS.
l
l
Le BIOS ne configure pas correctement la carte.
Essayez un autre emplacement PCI Express.
Le serveur se bloque lorsque les pilotes sont
chargés.
l
Changez les paramètres d’interruptions du BIOS.
La carte ne peut pas se connecter au
commutateur à la vitesse correcte (câblage cuivre
uniquement).
Applicable uniquement aux connections en cuivre.
l Essayez un autre câble.
l Assurez-vous que le câble est un câble de catégorie 5
ou 5 e.
l Assurez-vous que le partenaire de liaison est configuré
pour prendre en charge la négociation automatique.
l Vérifiez que votre commutateur est compatible avec le
port de votre carte réseau et que vous exécutez la
dernière révision du système d’exploitation de votre
commutateur.
Le périphérique ne se connecte pas à la vitesse
attendue.
Lorsque le mode Maître-Esclave Gigabit est forcé sur le mode
Maître sur la carte Intel et sur son partenaire de liaison, la
vitesse de liaison obtenue par la carte Intel peut être inférieure
aux attentes.
Après la mise à niveau des systèmes
d’exploitation, Intel® PROSet n’est plus
disponible.
Si vous mettez à niveau des systèmes d’exploitation Windows et
que le logiciel Intel® PROSet est installé, celui-ci sera supprimé
au cours du processus de mise à niveau. Vous devrez réinstaller
Intel® PROSet.
Les tests de matériel échouent dans Intel®
PROSet, DIAGS, Dell OpenManage Server
Administrator ou ethtool.
Un composant de la carte ne fonctionne pas correctement.
Le test de liaison échoue dans Intel® PROSet,
DIAGS, Dell OpenManage Server Administrator
ou ethtool.
Essayez une autre carte. Si le test échoue après le
remplacement de la carte, il se peut que la carte mère ou un
autre périphérique du bus ne fonctionne pas correctement.
Contactez l’Assistance à la clientèle pour plus d’informations.
l
l
Assurez-vous que le câble réseau est correctement
connecté à la carte et au partenaire de liaison.
Essayez de connecter le câble sur un autre port du
Problème
Solution
l
l
l
l
l
Les tests de connexion échouent dans Intel®
PROSet.
l
l
l
Le test de connexion Intel® PROSet signale qu’il
ne peut se connecter à la vitesse maximale de la
carte car le partenaire de liaison ne prend pas en
charge cette vitesse (cartes cuivre uniquement).
l
l
l
l
partenaire de liaison.
Essayez de brancher un autre câble.
Pour les connexions gigabit en cuivre, veillez à utiliser
un câble 4 paires de catégorie 5 ou supérieure.
Pour les connexions 10 Gigabit en cuivre, veillez à
utiliser un câble 4 paires de catégorie 6 ou supérieure.
Assurez-vous que la longueur du câble ne dépasse pas
les spécifications.
Si le câble est correctement branché, essayez de le
brancher à un autre port du partenaire de liaison ou
utilisez un autre câble.
Assurez-vous que le câble réseau est correctement
connecté à la carte et au partenaire de liaison.
Vérifiez le connecteur aux deux extrémités du câble.
Si le câble est correctement branché, essayez de le
brancher à un autre port du partenaire de liaison ou
utilisez un autre câble.
Vérifiez que votre commutateur est compatible avec le
port de votre carte réseau.
Assurez-vous que le partenaire de liaison est configuré
pour prendre en charge la négociation automatique.
Pour les connexions gigabit en cuivre, veillez à utiliser
un câble 4 paires de catégorie 5 ou supérieure.
Pour les connexions 10 Gigabit en cuivre, veillez à
utiliser un câble 4 paires de catégorie 6 ou supérieure.
Le test de câblage échoue dans Intel® PROSet.
Un échec du test de câblage indique une coupure, un courtcircuit ou un mauvais raccordement du câble réseau attaché à la
carte. Essayez de rebrancher le câble ou utilisez un câble
différent.
La DEL Fan Fail de la carte réseau 10 Gigabit AT
pour serveurs est allumée (rouge).
La solution de refroidissement du ventilateur ne fonctionne pas
correctement. Contactez l’assistance à la clientèle pour obtenir
des instructions complémentaires.
Autres éléments à contrôler
l
l
l
l
l
l
Utilisez les pilotes fournis avec la carte réseau ou téléchargez les pilotes les plus récents depuis le site
d’Assistance à la clientèle.
Assurez-vous que le câble est bien installé. Le câble réseau doit être correctement branché à toutes les
connexions. Si le problème persiste bien que le câble soit branché, essayez un câble différent.
Pour les connexions cuivre, assurez-vous que le câble est un câble 4 paires de catégorie 5 pour 1000BASE-T
ou 100BASE-TX ou un câble 4 paires de catégorie 6 pour 10GBASE-T.
Assurez-vous que les partenaires de liaison correspondent ou sont configurés pour prendre en charge la
négociation automatique. Assurez-vous que le pilote mis à jour est bien chargé.
Testez la carte. Exécutez les tests de réseau et de carte décrits dans la rubrique Test de la carte.
Consultez le tableau Problèmes courants et essayez les solutions conseillées.
Indicateurs lumineux
La carte réseau convergent Ethernet Intel® XL710-Q2 comporte les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
Vert
Liaison à 40 Gbits
Jaune
Liaison à 1/10 Gbits
Clignotement
Transmission ou réception active de données
Désactivé
Pas de liaison.
ACT/LNK
La carte Ethernet Intel® 40G 2P X710 QSFP+ rNDC comporte les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
La carte réseau convergent Ethernet Intel® X550-t comporte les indicateurs lumineux suivants :
Étiquette
Link (Liaison)
Descriptif
Signification
Vert
Liaison à 10 Gbits.
Jaune
Liaison à 1 Gbits.
Désactivé
Liaison à 100 Mbits/s.
Désactivé
Pas de liaison.
Clignotement
Transmission ou réception active de données.
Activité
Les Cartes réseau Ethernet Intel® X520-2 pour serveurs comportent les
indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
ACT/LNK
Vert clignotant
Activité de données
Désactivé
Pas de liaison
Vert allumé
Liaison 10 Gbit/s
Jaune allumé
Liaison 1 Gbit/s
Désactivé
Pas de liaison
10G
Les Cartes réseau Ethernet Intel® X520-T2 pour serveurs comportent les
indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
ACT
Vert clignotant
Activité de données
Désactivé
Pas de liaison
Vert allumé
Liaison 10 Gbit/s
Jaune allumé
Liaison 1 Gbit/s
Désactivé
Pas de liaison
LNK
Les Cartes réseau Ethernet Intel® 10G 2P X520 comportent les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Les Cartes réseau Ethernet Intel® 10G 2P X540-t comportent les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Les Cartes Ethernet Intel® 10G 4P X540/I350 rNDC et Intel® Gigabit 4P X540/I350 rNDC comportent les
indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Les Cartes Ethernet Intel® 10G 4P X520/I350 rNDC et Intel® Gigabit 4P X520/I350 rNDC comportent les
indicateurs lumineux suivants :
Étiquette
Descriptif
LNK (vert/jaune) Vert allumé
ACT (vert)
Signification
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant Activité de données.
Désactivé
Aucune activité.
La Carte réseau Intel® Gigabit 2P I350-t et la Carte réseau Intel® Gigabit 4P I350-t possèdent les indicateurs
lumineux suivants :
Étiquette
Descriptif
Signification
LNK
(vert/jaune)
Vert
allumé
Fonctionnement à vitesse de
port maximale.
Jaune
allumé
Fonctionnement à vitesse de
port minimale.
Désactivé
Pas de liaison.
Vert
clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Deux ports
Quatre ports
La Carte Intel® Gigabit 4P I350-t rNDC possède les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Les Cartes Ethernet Intel® Gigabit 4P X710/I350 rNDC et Intel® 10G 4P X710/I350 rNDC comportent les
indicateurs lumineux suivants :
Étiquette
Descriptif
LNK (vert/jaune) Vert allumé
ACT (vert)
Signification
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant Activité de données.
Désactivé
Aucune activité.
La Carte réseau convergent Intel® X710 comporte les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
ACT/LINK
Vert clignotant
Activité de données sur le port.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert
Fonctionnant à 10G.
Jaune
Fonctionnant à 1G.
(vert/jaune)
1234
Quatre ports
La Carte réseau convergent Intel® X710 comporte les indicateurs lumineux suivants.
Étiquette
Descriptif
Signification
10G
(vert/jaune)
Vert allumé
Fonctionnant à 10G.
Jaune
allumé
Fonctionnement à vitesse de port
minimale.
Désactivé
Pas de liaison.
Vert
clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Format Low
Profile
Format Full Profile
La Carte Ethernet Intel® 10G 4P x710 SFP+ rNDC comporte les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Cartes multiples
Lors de la configuration d’un environnement multicarte, vous devez mettre à niveau toutes les cartes Intel de
l’ordinateur avec les pilotes et les logiciels les plus récents.
Si l’ordinateur ne détecte pas tous les ports, considérez les points suivants :
l Il se peut que le système d’exploitation doive énumérer à nouveau le bus, surtout si des périphériques utilisent
des puces de pont. Pour forcer la nouvelle énumération, désinstallez ou déchargez les pilotes de tous les
périphériques PCI installés et arrêtez l’ordinateur. Redémarrez ensuite l’ordinateur et réinstallez ou rechargez
tous les pilotes.
l Le paramètre "Plug and Play OS" (SE Plug-and-Play) du BIOS doit être défini sur Non pour les systèmes
d’exploitation autres que Windows.
l Les cartes sur lesquelles Intel Boot Agent est activé nécessitent une portion de la mémoire de démarrage
limitée pour chaque carte activée. Désactivez le service sur les cartes qui ne nécessitent pas Pre-Boot
Execution Environment (PXE).
Pour de plus amples informations, consultez les sections relatives à l’installation du pilote sous votre système
d’exploitation.
Autres problèmes de performances
Pour atteindre des vitesses de l'ordre du gigabit, un grand nombre de composants doivent opérer à un niveau de
rendement maximum. Parmi ces composants, on retrouve :
l Qualité et longueur du câble. Ne pas utiliser un câble plus long que celui qui est recommandé. Des câbles
plus courts donnent de meilleurs résultats. Éliminez les torsions et vérifiez que le câble n’est pas endommagé.
l Vitesse de bus et trafic
l Vitesse et charge du processeur Consultez vos programmes de surveillance des performances pour voir si le
trafic est affecté par la vitesse du processeur, la mémoire disponible ou d’autres processus.
l Mémoire disponible
l Taille de trame de transmission. Les performances du réseau peuvent être améliorées en réglant ou
optimisant la taille des trames de transmission. Les systèmes d’exploitation, commutateurs et cartes imposent
des limites différentes sur la taille maximum des trames. Voir la description des trames Jumbo.
l Système d’exploitation. Les fonctionnalités varient selon la compatibilité du système d’exploitation, par
exemple le délestage et le threading multiprocesseur.
Dépannage de la configuration PCI Express
Si la carte n’est pas reconnue par votre système d’exploitation ou si elle ne fonctionne pas, il peut être nécessaire de
modifier certains paramètres du programme de configuration du BIOS. Implémentez les suggestions suivantes
uniquement si vous rencontrez des problèmes avec la carte.
l Vérifiez si le paramètre "Plug-and-Play" est compatible avec le système d’exploitation utilisé.
l Activez l’emplacement PCI Express. Dans certains ordinateurs PCI, il peut être nécessaire d’utiliser le
programme de configuration du BIOS pour activer l’emplacement.
l Réservez des interruptions et/ou des adresses de mémoire. Cela empêche que plusieurs bus ou
emplacements de bus utilisent les mêmes interruptions. Vérifiez les options IRQ dans le BIOS.
Problèmes connus
Le Code 10 jaune signale les erreurs et périphériques manquants dans le gestionnaire de
périphériques Windows
Sur un périphérique X710 dans un système Microsoft Windows Server 2008 R2 avec NParEP activé, le pilote se
charge uniquement sur les huit premières fonctions physiques. Le deuxième ensemble de huit fonctions physiques
s'accompagne du code 10 jaune d'erreur dans le Gestionnaire de périphériques Windows. Il s'agit d'une limite du
système d'exploitation.
Perte de paquets reçus sur les réseaux 10/100 Half-duplex
Si vous disposez d’une carte Intel PCI Express fonctionnant à 10 Mbit/s ou 100 Mbit/s, half-duplex avec la
fonctionnalité de délestage des segments TCP (TSO) activée, il est possible que vous constatiez une perte
occasionnelle de paquets reçus. Pour résoudre ce problème, désactiver la fonctionnalité TSO ou modifiez le réseau
pour qu’il opère en Full duplex ou à 1 Gbit/s.
Chute du débit après un remplacement à chaud
Si une carte Gigabit Intel est soumise à un stress élevé ou est remplacée à chaud, le débit risque de chuter
substantiellement. Cela peut être dû à la configuration des propriétés PCI par le logiciel de remplacement à chaud. Si
cela se produit, le débit peut être rétabli en redémarrant le système.
Taux d’utilisation des processeurs plus élevé que prévu
Définir une valeur supérieure à 4 pour les files d’attente RSS n’est conseillé que pour les gros serveurs Web dotés de
plusieurs processeurs. Les valeurs supérieures à 4 risquent d’augmenter le taux d’utilisation des processus à des
niveaux inacceptables et d’affecter négativement la performance du système.
Vitesse de liaison à faible consommation plus lente que prévu
Si vous désactivez le paramètre "Reduce Power During Standby" (Réduire la consommation électrique en mode de
veille) et que vous supprimez l’alimentation du système, la liaison du système peut être de 10 Mbit/s seulement au lieu
de 100 Mbit/s ou plus une fois l’alimentation restaurée. La liaison du système restera à 10 Mbit/s jusqu’à ce que le
système d’exploitation soit chargé. Ce paramètre sera restauré une fois le système d’exploitation chargé.
La création du réseau VLAN échoue sur une association comportant une carte fantôme non Intel
Si vous ne parvenez pas à créer un réseau virtuel sur une association comportant une carte fantôme non Intel, utilisez
le Gestionnaire de périphériques pour supprimer l’association, puis recréez-la en excluant la carte fantôme et ajoutez
l’association au réseau virtuel.
Les informations d’adresse IP statique d’une association/d’un réseau VLAN ne peuvent pas toujours
être restaurées
Si vous avez configuré les informations d’adresse IP statique d’une association ou d’un réseau virtuel dans un
environnement Windows Server et que vous procédez à une mise à niveau vers le logiciel Intel Network Connection
(version 11.0 ou une version antérieure), les éléments configurés peuvent ne pas être restaurés à chaque fois et les
valeurs par défaut de l’association/du réseau VLAN sont alors utilisées.
Un réseau VLAN créé sur une carte Intel doit être supprimé avant de pouvoir créer une association de
cartes de différents fabricants
Pour pouvoir créer une association, vous devez commencer par supprimer le réseau virtuel.
Problèmes connus sous Windows
ID d'événements d'erreur d'application 789, 790 et 791 dans le journal des événements
Si le Pontage de centre de données (DCB) est activé, et que le port activé perd la liaison, les trois événements
suivants peuvent être consignés dans le journal des événements :
l ID d'événement 789 : la fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est
passée à l'état Non opérationnelle.
l ID d'événement 790 : la fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à l'état
Non opérationnelle.
l ID d'événement 791 : la fonctionnalité Application sur un périphérique est passée à l'état Non opérationnelle
(FCoE).
Il s'agit du comportement attendu lorsqu'un port activé DCB perd la liaison. DCB recommence à fonctionner dès que la
liaison est rétablie. Un port perd la liaison si le câble est déconnecté, si le pilote ou le paquet logiciel est mis à jour, si
le partenaire de la liaison est arrêté ou pour d'autres raison.
Le port est absent du contrôleur de durée de vie (Lifecycle Controller) : Paramètres réseau
Si un port est configuré pour le démarrage iSCSI ou FCoE, et qu'il se connecte à sa cible de démarrage, il est
impossible de modifier les paramètres du port dans le contrôleur de cycle de vie (Lifecycle Controller).
Procédure d’installation et de mise à niveau des pilotes et utilitaires
Intel recommande de ne pas installer/mettre à niveau les pilotes et le logiciel Intel® PROSet en utilisant une connexion
réseau. Installez (ou mettez à niveau) plutôt les pilotes et utilitaires à partir de chaque système. Pour installer ou mettre
à niveau les pilotes et utilitaires, suivez les instructions du guide de l’utilisateur.
Avertissement "Script malveillant détecté" de Norton AntiVirus lors de la désinstallation de PROSet
Le processus de désinstallation d’Intel® PROSet utilise un script Virtual Basic. Norton AntiVirus et d’autres logiciels
antivirus peuvent à tort juger ce script malveillant ou dangereux. Autorisez l’exécution de ce script pour permettre au
processus de désinstallation de se dérouler normalement.
Message d’erreur "Code 10" Windows lors de l’installation ou de la mise à niveau des pilotes
Si vous rencontrez un message d’erreur "Code 10" Windows lors de l’installation ou de la mise à niveau des pilotes,
redémarrez pour résoudre le problème.
Modification des paramètres de l’onglet Advanced Properties (Propriétés avancées) lorsque du trafic
est présent
Il est conseillé de ne pas modifier les paramètres de l’onglet Advanced Properties (Propriétés avancées) d’Intel®
PROSet lorsque les charges réseau sont élevées. Autrement, un redémarrage peut s’avérer nécessaire pour que les
modifications soient prises en compte.
Perte inattendue de la connectivité
Si vous désélectionnez la case "Autoriser l’ordinateur à éteindre ce périphérique pour économiser l’énergie" sous
l’onglet Gestion de l’alimentation et que vous mettez ensuite le système en mode de veille, vous risquez de perdre la
connectivité en réactivant le système. Vous devez désactiver puis activer la carte réseau pour résoudre ce problème.
L’installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows permet également de résoudre ce
problème.
Des pertes de liaison intermittentes et une dégradation des performances à haut niveau de stress
peuvent se produire sur les systèmes Windows Server 2012
Sur un système basé sur Windows Server 2012 avec processeurs multicœurs, des pertes de liaison intermittentes et
une dégradation des performances à haut niveau de stress peuvent se produire en raison d'une affectation RSS
incorrecte du processeur. Des informations complémentaires ainsi qu'un correctif Microsoft sont disponibles à :
http://support.microsoft.com/kb/2846837.
Perte de liaison entre la machine virtuelle et le système Microsoft Windows Server 2012 R2
Si vous modifiez le paramètre BaseRssProcessor d'un système Microsoft Windows Server 2012 R2 sur lequel des files
d'attente d'ordinateurs virtuels (VMQ) sont activées, puis que vous procédez à l'installation de Microsoft Hyper-V et à la
création d'une ou de plusieurs machines virtuelles, il se peut que les machines virtuelles perdent la liaison.
L'installation du correctif cumulatif d'avril 2014 pour Windows RT 8.1, Windows 8.1 et Windows Server 2012 R2
(2919355) et du correctif logiciel 3031598 permettent de résoudre le problème. Consultez les sites
http://support2.microsoft.com/kb/2919355 et http://support2.microsoft.com/kb/3031598 pour davantage d'informations.
Dans un environnement Microsoft Hyper-V, les machines virtuelles associées aux partitions NPAR ne
communiqueront pas entre elles
Dans un environnement Microsoft Hyper-V, si NPAR est activé sur un port et que les machines virtuelles sont
associées aux partitions de ce port, les machines virtuelles ne peuvent pas communiquer entre elles. Cela se produit
parce que le commutateur virtuel dans Hyper-V envoie les paquets vers le port physique, qui envoie les paquets au
commutateur connecté au port. Le commutateur physique peut ne pas être configuré en tant que relai réfléchissant
(renvoi d'appel en U). Il peut donc ne pas renvoyer les paquets à la connexion dont il les a reçus. La connexion du port
à un commutateur avec agrégateur de port Ethernet virtuel (VEPA) résoudra le problème.
Problèmes connus de la carte réseau Intel 10GbE
L'inventaire matériel du système (iDRAC) indique que la négociation automatique est désactivée sur le
contrôleur d'interface réseau, mais que partout ailleurs, la négociation automatique du mode duplex et
de la vitesse est activée
Si un module optique est branché sur le LOM Intel® Ethernet 10G X520 d'un PowerEdge C6320, l'inventaire matériel
du système (iDRAC) indiquera que la négociation automatique est désactivée. Le Gestionnaire de périphériques
Windows et la base HII indiquent néanmoins que la négociation automatique du mode duplex et de la vitesse de
liaison est activée. De fait, le pilote contient un algorithme qui permet au LOM d'établir une liaison avec les partenaires
SFP à 10 Gbit/s ou 1 Gbit/s. Si cette information est communiquée au Gestionnaire de périphériques Windows et à la
base HII, il ne s'agit pourtant pas d'une réelle négociation automatique. iDRAC lisant le microprogramme du
périphérique qui ne connaît pas l'algorithme, il signale que la négociation automatique est désactivée.
Les allocations de bande passante ETS ne correspondent pas aux paramètres
Lorsque le paramètre Trames Jumbo est configuré à 9K avec une carte réseau 10GbE, une distribution de trafic ETS
de 90 %/10 % ne sera obtenue sur aucun port, malgré les paramètres effectués sur le commutateur DCB. Lorsque ETS
est configuré pour une répartition de 90%/10%, une répartition réelle de 70%/30% est plus probable.
Module SFP ou SFP+ pris en charge non reconnu par le système
Si vous essayez d’installer un module non pris en charge, le port risque de ne plus installer les modules subséquents,
qu’ils soient ou non pris en charge. Le port affichera une icône jaune sous le Gestionnaire de périphériques Windows
et un ID d’événement 49 (module non pris en charge) sera ajouté au journal système dès l’apparition de ce problème.
Pour résoudre le problème, le système doit être complètement mis hors tension.
Perte de liaison sur les périphériques 10GbE avec les trames Jumbo activées
Ne définissez pas le paramètre Receive_Buffers ou Transmit_Buffers en dessous de 256 si les trames Jumbo sont
activées sur un périphérique Intel(R) 10GbE. La liaison risquerait d’être perdue.
Performances inférieures sur les périphériques 10GbE 2 ports
Certains connecteurs PCI Express x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une
bande passante insuffisante pour les débits de ligne de 10GbE avec des périphériques 10GbE à 2 ports. Le pilote peut
détecter cette situation et écrit le message suivant dans le journal système : "PCI Express bandwidth available for this
card is not sufficient for optimal performance. For optimal performance a x8 PCI-Express slot is required" (La bande
passante PCI-Express disponible pour cette carte est insuffisante pour obtenir des performances optimales. Pour des
performances optimales, un connecteur PCI-Express x8 est exigé). Si cette erreur se produit, placez la carte dans un
véritable connecteur x8 pour résoudre le problème.
Échec de la connexion et instabilité possible du système
Si des périphériques réseau non Intel compatibles avec la fonctionnalité de mise à l’échelle côté réception sont
installés sur votre système, la valeur par défaut 0x0 du mot-clé de registre Microsoft Windows "RSSBaseCPU" peut
avoir été modifiée pour pointer vers un processeur logique. Si ce mot-clé a été modifié, les périphériques basés sur les
contrôleurs Ethernet 10 Gigabit Intel(R) 82598 ou 82599 risquent de ne pas transmettre le trafic. Si vous tentez de
modifier le pilote lorsque cet état est actif, cela peut entraîner l’instabilité du système. Définissez la valeur de
RSSBaseCPU à 0x0 ou une valeur correspondant à un processeur physique, puis redémarrez le système pour
résoudre le problème.
La carte Ethernet Intel® 10G 2P/4P X710-k bNDC n'établit pas de liaison et ne s'affiche pas dans le
Gestionnaire de périphériques Windows
Si vous installez une carte Ethernet Intel® 10G 2P X710-k bNDC ou une carte Ethernet Intel® 10G 4P X710-k bNDC
sur un serveur-lame Dell PowerEdge M630/M830, et que vous installez la lame dans un châssis M1000e, il se peut
que la carte bNDC ne parvienne pas à établir de liaison et affiche un triangle jaune, ou qu'elle n'apparaisse pas du
tout dans le Gestionnaire de périphériques Windows. Ceci vaut uniquement pour la version 1.0 du plan
intermédiaire M1000e.
La carte Ethernet Intel® 10G X520 LOM établit une liaison à 10 Gbit/s alors que l'option Full Duplex à
1 Gbit/s est sélectionnée
Lorsqu'elle est connectée au moyen d'un câble direct, la carte Ethernet Intel® 10G X520 LOM se connectera toujours à
10 Gbit/s.
Journal d'événements Windows*
Noms des services du journal d'événements Windows
Contrôleur Ethernet
Intel®
Nom des fichiers du pilote
NDIS
Nom des services du journal d'événements
Windows
I350
E1r*.sys
e1rexpress
I354
E1s*.sys
e1sexpress
X520
Ixn*.sys
ixgbn
X540
Ixt*.sys
ixgbt
X550
Ixs*.sys
ixgbs
X710
I40ea*.sys
i40ea
Messages des cartes réseau Intel®
Ci-dessous figure une liste des messages d'événements personnalisés apparaissant dans le journal d'événements
Windows pour les cartes réseau Ethernet Intel® :
ID
Message
d’événement
Gravité
6
PROBLÈME : Impossible d’allouer les registres de mappage nécessaires à
l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et redémarrez.
Erreur
7
PROBLÈME : Impossible d’affecter une interruption à la carte réseau.
ACTION : Essayez un autre emplacement PCIe.
ACTION : Installez le dernier pilote à partir du site
http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
23
PROBLÈME : Il est possible que l’EEPROM de la carte réseau soit endommagée.
ACTION : Consultez le site Web d’assistance sur le site
http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
24
PROBLÈME : Impossible de démarrer la carte réseau.
ACTION : Installez le dernier pilote à partir du site
http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
25
PROBLÈME : L’adresse MAC de la carte réseau est invalide.
ACTION : Allez sur http://www.intel.com/support/fr/go/network/adapter/home.htm où
vous pourrez trouver une assistance.
Erreur
27
La liaison réseau a été interrompue.
Avertissement
30
PROBLÈME : La carte réseau est configurée pour la négociation automatique mais
le partenaire de liaison ne l’est pas. Cela peut entraîner une discordance de mode
duplex.
ACTION : Configurez le partenaire de liaison pour la négociation automatique.
Avertissement
31
La liaison réseau a été établie à 10 Gbit/s Full duplex.
Pour
information
32
La liaison réseau a été établie à 1 Gbit/s Full duplex.
Pour
information
33
La liaison réseau a été établie à 100 Mbit/s Full duplex.
Pour
information
34
La liaison réseau a été établie à 100 Mbit/s Half duplex.
Pour
information
ID
Message
d’événement
Gravité
35
La liaison réseau a été établie à 10 Mbit/s Full duplex.
Pour
information
36
La liaison réseau a été établie à 10 Mbit/s Half duplex.
Pour
information
37
PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante
pour obtenir un rendement maximal.%n
ACTION : Installez la carte dans un logement x8 PCI Express.
Avertissement
40
Smart Speed a réduit la vitesse de la liaison maximale annoncée.
Pour
information
41
Le pilote de la carte réseau a été arrêté.
Pour
information
42
Le pilote de la carte réseau a été démarré.
Pour
information
43
PROBLÈME : Impossible d’allouer la mémoire partagée nécessaire à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis
redémarrez.
Erreur
44
PROBLÈME : Impossible d’allouer la mémoire nécessaire à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis
redémarrez.
Erreur
45
PROBLÈME : Impossible d’allouer un pool de ressources nécessaire à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis
redémarrez.
Erreur
46
PROBLÈME : Impossible d’initialiser les ressources DMA de dispersion-collecte
nécessaires à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et redémarrez.
Erreur
47
PROBLÈME : Impossible de mapper la mémoire flash de la carte réseau.
ACTION : Installez le dernier pilote à partir du site
http://www.intel.com/support/fr/go/network/adapter/home.htm.
ACTION : Essayez un autre connecteur.
Erreur
48
PROBLÈME : Le ventilateur de la carte réseau est tombé en panne.
ACTION : Mettez l’ordinateur hors tension et remplacez la carte réseau.
Erreur
49
PROBLÈME : Le chargement du pilote a échoué car un module SFP+ non pris en
charge est installé sur la carte.
ACTION : Remplacez le module :
ACTION : Installez le dernier pilote à partir du site
http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
50
PROBLÈME : La carte réseau a été arrêtée car elle surchauffait.
ACTION : Redémarrez l’ordinateur. Si le problème persiste, arrêtez l’ordinateur et
remplacez la carte réseau.
Erreur
51
PROBLÈME : La vitesse de liaison de la carte réseau a été réduite car la carte
surchauffait.
Erreur
52
PROBLÈME : La carte réseau a été arrêtée car elle surchauffait.
Erreur
53
Impossible de configurer les trames Jumbo lorsque MACSec est activé.
Pour
information
54
PROBLÈME : Un pilote VF malveillant a été détecté.
Avertissement
ID
Message
d’événement
Gravité
56
Le pilote réseau a été interrompu, car la carte réseau a été retirée.
Pour
information
58
La liaison réseau a été établie à 25 Gbit/s Full duplex.
Pour
information
60
La liaison réseau a été établie à 50 Gbit/s Full duplex.
Pour
information
61
La liaison réseau a été établie à 20 Gbit/s Full duplex.
Pour
information
64
L'ID etrack de cette carte réseau est :
Pour
information
65
PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante
pour obtenir un rendement maximal.%n
ACTION : déplacer la carte vers un logement PCI Express x4 de 3e génération.
Avertissement
66
PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante
pour obtenir un rendement maximal.%n
ACTION : déplacer la carte vers un logement PCI Express x8 de 3e génération.
Avertissement
67
La partition a détecté une vitesse de liaison inférieure à 10 Gbit/s.
Avertissement
68
Le pilote du périphérique s'est arrêté car l'image NVM est plus récente que le pilote.
Vous devez installer la version la plus récente du pilote réseau.
Erreur
69
Le pilote du périphérique a détecté une version plus récente qu'attendu de l'image
NVM. Veuillez installer la version la plus récente du pilote réseau.
Avertissement
70
Le pilote du périphérique a détecté une version plus ancienne qu'attendu de l'image
NVM. Veuillez mettre à jour l'image NVM.
Pour
information
71
Le chargement du pilote a échoué, car un module de type non pris en charge a été
détecté.
Erreur
72
PROBLÈME : le chargement du pilote a échoué, car la carte réseau n'a pas reçu les
ressources d'interruption MSI-X requises.
ACTION : déplacer la carte réseau vers un autre logement ou une autre plate-forme.
Erreur
73
Les paramètres utilisateur « Vitesse et duplex » et « Contrôle de flux » ne peuvent
pas être modifiés, car ce périphérique fonctionne en mode de connexion virtuelle.
Pour
information
Messages du module iANS (Services réseau avancés Intel)
Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans
le journal d'événements Windows :
ID
Message
d’événement
Gravité
2
Impossible d’allouer les ressources nécessaires. Libérez des ressources mémoire et Erreur
redémarrez.
3
Impossible de lire les paramètres de registre nécessaires. Pour résoudre ce
problème, supprimez l’association de cartes et créez-en une autre.
Erreur
4
Association impossible avec la carte physique. Pour résoudre ce problème,
supprimez l’association de cartes et créez-en une autre.
Erreur
5
Impossible d’initialiser une association de cartes. Pour résoudre ce problème,
supprimez l’association de cartes et créez-en une autre.
Erreur
ID
Message
d’événement
Gravité
6
La carte principale est initialisée : <description de la carte membre>
Pour
information
7
La carte principale est initialisée : <description de la carte membre>
Pour
information
8
N° association <ID association> : L'association est initialisée.
Pour
information
9
N° association <ID> : La carte virtuelle pour <nom du réseau VLAN> [VID=<ID
VLAN>] est initialisée.
Pour
information
10
La carte principale actuelle commute depuis : <description de la carte membre>
Pour
information
11
Lien de la carte inactif : <description de la carte membre>
Avertissement
12
La carte secondaire a pris la main : <description de la carte membre>
Pour
information
13
La carte <description de la carte membre> a été désactivée de l’association.
Avertissement
14
La carte secondaire a rejoint l’association : <description de la carte membre>
Pour
information
15
Lien de la carte actif : <description de la carte membre>
Pour
information
16
N° association <ID> : La dernière carte a perdu la liaison. La connexion réseau a été Erreur
perdue.
17
N° association <ID> : Une carte a rétabli la liaison. La connexion réseau a été
restaurée.
Pour
information
18
La carte principale préférée a été détectée : <description de la carte membre>
Pour
information
19
La carte secondaire préférée a été détectée : <description de la carte membre>
Pour
information
20
La carte principale préférée a pris la main : <description de la carte membre>
Pour
information
21
La carte secondaire préférée a pris la main : <description de la carte membre>
Pour
information
22
La carte principale n’a détecté aucune sonde : <description de la carte membre>
Possible reason, partitioned team (Raison probable : association partitionnée).
Avertissement
23
N° association <ID> : Une carte virtuelle n’a pas pu s’initialiser.
Erreur
32
Une situation de boucle illégale s’est produite sur la carte <description de la carte
membre>. Vérifiez la configuration pour vous assurer que toutes les cartes de
l’association sont connectées aux ports compatibles 802.3ad du commutateur.
Avertissement
35
Initialisation de l’association <ID> dans laquelle <nombre de cartes manquantes>
des cartes sont manquantes. Vérifiez la configuration pour vous assurer que toutes
les cartes sont présentes et opérationnelles.
Avertissement
37
La carte virtuelle pour <nom du réseau VLAN> [VID=<ID VLAN>] a été supprimée de
l’association <ID association>.
Pour
information
38
Carte supprimée de l’association <ID>.
Pour
information
ID
Message
d’événement
Gravité
39
Vous ne pourrez probablement pas modifier les paramètres de la carte virtuelle.
Pour résoudre ce problème, rechargez le pilote.
Avertissement
40
Le processus de déchargement de la carte virtuelle a probablement échoué. Le
pilote n’est probablement pas déchargé. Pour résoudre ce problème, redémarrez le
système.
Avertissement
Messages d'Intel® DCB
Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans
le journal d'événements Windows :
ID
Message
d’événement
Gravité
256
Chaîne de débogage de service
Pour
information
257
La fonctionnalité de sélection de transmission améliorée ETS a été activée sur un
périphérique.
Pour
information
258
La fonctionnalité de sélection de transmission améliorée ETS a été désactivée sur un
périphérique.
Pour
information
259
La fonctionnalité de contrôle de flux prioritaire PFC a été activée sur un périphérique.
Pour
information
260
La fonctionnalité de contrôle de flux prioritaire PFC a été désactivée sur un
périphérique.
Pour
information
261
La fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est
passée à l'état Opérationnelle.
Pour
information
262
La fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à
l'état Opérationnelle.
Pour
information
263
La fonctionnalité Application sur un périphérique est passée à l'état Opérationnelle.
Pour
information
264
La fonctionnalité Application a été désactivée sur un périphérique.
Pour
information
265
La fonctionnalité Application a été activée sur un périphérique.
Pour
information
269
La fonctionnalité de liaison logique sur un périphérique est passée à l'état
Opérationnelle.
Pour
information
270
La fonctionnalité de liaison logique a été désactivée sur un périphérique.
Pour
information
271
La fonctionnalité de liaison logique a été activée sur un périphérique.
Pour
information
768
Échec du service au démarrage.
Erreur
770
Échec du gestionnaire de services lors de l'installation.
Erreur
771
Le service n'a pas pu allouer suffisamment de mémoire.
Erreur
772
Le service n'a pas pu utiliser la carte réseau.
Erreur
773
Le service a rejeté la configuration : total des groupes de bandes passantes de
transmission non valide.
Erreur
ID
Message
d’événement
Gravité
774
Le service a rejeté la configuration : total des groupes de bandes passantes de
réception non valide.
Erreur
775
Le service a rejeté la configuration : index des groupes de bandes passantes de
transmission non valide.
Erreur
776
Le service a rejeté la configuration : index des groupes de bandes passantes de
réception non valide.
Erreur
777
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur une
classe de trafic de transmission.
Erreur
778
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur une
classe de trafic de réception.
Erreur
779
Le service a rejeté la configuration : bande passante nulle sur une classe de trafic de
transmission.
Erreur
780
Le service a rejeté la configuration : bande passante nulle sur une classe de trafic de
réception.
Erreur
781
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur un
groupe de trafic de transmission.
Erreur
782
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur un
groupe de trafic de réception.
Erreur
783
Le service a rejeté la configuration : total de transmission non valide pour le groupe de
bandes passantes.
Erreur
784
Le service a rejeté la configuration : total de réception non valide pour le groupe de
bandes passantes.
Erreur
785
Le service ne peut pas configurer les services WMI requis.
Erreur
786
Le service a rencontré une erreur d'état de transmission.
Erreur
787
Le service a rencontré une erreur d'état de réception.
Erreur
789
La connexion du service au pilote du protocole LLDP a échoué.
Erreur
790
La fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est
passée à l'état Non opérationnelle.
Erreur
791
La fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à
l'état Non opérationnelle.
Erreur
792
La fonctionnalité Application sur un périphérique est passée à l'état Non
opérationnelle.
Erreur
793
Le service a rejeté la configuration : des groupes de bandes passantes multiples avec
liaison stricte ont été détectés.
Erreur
794
La fonctionnalité de liaison logique sur un périphérique est passée à l'état Non
opérationnelle.
Erreur
795
Impossible d'ouvrir le périphérique.
Erreur
796
Les paramètres de pontage de centre de données de la carte réseau ne sont pas
valides.
Erreur
797
Les paramètres de pontage de centre de données de la carte réseau ne sont pas
valides - AppSelector.
Erreur
798
Composant de pilote de carte réseau non optimal détecté. Installez la version 3.5 du
Erreur
ID
Message
d’événement
Gravité
pilote de carte réseau ou une version supérieure.
Messages d'Intel® iSCSI DCB
Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans
le journal d'événements Windows :
ID
Message
d’événement
Gravité
4352
Chaîne de débogage de service :
Pour
information
4353
L'agent DCB iSCSI a ajouté un filtre QOS pour le trafic iSCSI.
Pour
information
4354
L'agent DCB iSCSI a supprimé un filtre QOS pour le trafic iSCSI.
Pour
information
4355
L'agent DCB iSCSI a modifié un filtre QOS pour le trafic iSCSI.
Pour
information
4356
L'agent de pontage de centre de données iSCSI a été notifié par le service QoS
qu'une carte de pontage de centre de données iSCSI a été fermée.
Pour
information
4357
Les fonctionnalités de contrôle de flux prioritaire et de priorité des utilisateurs
d'application sont configurées pour le trafic DCB iSCSI.
Pour
information
4358
Tous les membres de l'association configurés pour le trafic DCB iSCSI ont une
configuration DCB valide.
Pour
information
8704
Certains membres de l'association configurés pour le trafic DCB iSCSI ont une
configuration DCB non valide.
Avertissement
13056
Échec du service au démarrage.
Erreur
13057
Échec du gestionnaire de services lors de l'installation.
Erreur
13058
Erreur retournée par l'interface de contrôle du trafic.
Erreur
13059
Le service n'a pas pu allouer suffisamment de mémoire.
Erreur
13060
L'agent DCB iSCSI ne peut pas ajouter le filtre QOS pour le trafic iSCSI.
Erreur
13061
L'agent du pontage de centre de données iSCSI a été notifié par le service QoS que
tous les filtres QoS d'une carte du pontage de centre de données iSCSI ont été
supprimés.
Erreur
13062
Les fonctionnalités de contrôle de flux prioritaire et de priorité des utilisateurs
d'application ne sont pas correctement configurées pour le trafic DCB iSCSI.
Erreur
13063
La fonctionnalité TLV du contrôle de flux prioritaire n'est pas opérationnelle pour le
trafic DCB iSCSI.
Erreur
13064
La fonctionnalité TLV de l'application n'est pas opérationnelle pour le trafic DCB
iSCSI.
Erreur
13065
Système d'exploitation non pris en charge détecté.
Erreur
13066
Aucun membre de l'association configuré pour le trafic DCB iSCSI ne dispose d'une
configuration DCB valide.
Erreur
Utilitaires de test des cartes
Présentation
Le logiciel de diagnostic d’Intel vous permet de tester la carte pour détecter les problèmes éventuels de matériel, de
câblage ou de connexion réseau. Vous pouvez également utiliser les diagnostics pour isoler les problèmes au cours
d’un dépannage.
DIAGS.EXE est exécutable sous MS-DOS* et sur les systèmes d’exploitation ultérieurs compatibles. Il ne peut être
exécuté à partir d’une invite de commande Windows* sous n’importe quel système d’exploitation Microsoft Windows
ou un autre système d’exploitation non MS-DOS.
Cet utilitaire est conçu pour tester le fonctionnement matériel et confirmer la capacité de la carte à communiquer avec
une autre carte sur le même réseau. Il ne s’agit pas d’un outil de mesure du débit.
DIAGS peut tester la carte, qu’il y ait un récepteur ou non. Afin d’effectuer un test complet, vous devez cependant
configurer un second système sur le réseau faisant office de récepteur avant de lancer le test. Si des touches d’accès
rapide sont présentes, les lettres seront mises en surbrillance.
Démarrage de l’utilitaire de test
REMARQUE : si un pilote réseau MS-DOS est installé, tel que NDIS2 ou DOS-ODI, l’utilitaire de test et le pilote
de réseau risquent de devenir instables. Vous devriez redémarrer votre ordinateur et vous assurer qu’il n’y a
aucun pilote réseau chargé.
1. Redémarrez en mode MS-DOS.
2. Accédez au répertoire \DOSUtilities\UserDiag, puis tapez DIAGS à l’invite de commande et appuyez sur
<Entrée>.
L’utilitaire de test recherche automatiquement le matériel et affiche la liste de toutes les cartes basées sur des
chipsets Intel. Elles sont répertoriées de la manière suivante :
l Si votre système ne possède qu’une seule connexion réseau, cet écran est ignoré.
l Si vous avez une carte à deux ou à quatre ports, chaque port est listé séparément, en commençant par
le port A, puis le port B, etc. Les informations relatives au port se trouvent sur l’étiquette du support.
3. Sélectionnez la carte que vous souhaitez tester en déplaçant la surbrillance et en appuyant sur <Entrée>. Le
menu principal de l’utilitaire de test s’affiche.
Afficher la configuration de la carte
Sélectionnez View Adapter Configuration (la configuration de la carte) pour afficher l’écran de configuration de la
carte. Cet écran décrit différentes propriétés de la carte.
Vous pouvez afficher des informations supplémentaires sur l’emplacement PCI occupé par la carte en appuyant sur
<F5>. Ces informations sont principalement utilisées à des fins de dépannage par l’Assistance technique.
Appuyez sur n’importe quelle touche pour retourner à la configuration de la carte.
Menu Tester la carte
Sélectionnez Test Adapter (Tester la carte) dans le menu principal pour afficher l’écran du menu Test. Ce menu vous
permet de sélectionner les tests à effectuer sur la carte et de configurer les options des tests.
Lancer les tests de cartes
La sélection de cette option affiche l’écran de test. Pendant l’exécution des tests, une toupie en rotation s’affiche pour
indiquer que l’application est toujours "active". Les résultats sont affichés après chaque test. Si vous avez choisi
d’exécuter les tests en plusieurs passes, les résultats indiquent le compte des échecs. Une liste contenant des zéros
indique que tous les tests ont été réussis. Les tests particuliers indiquent "Passed" (Réussi) ou "Failed" (Échec) pour
chaque passe.
Changer les options de test
L’écran de configuration de test vous permet de configurer et de sélectionner les tests voulus. Chaque option peut être
basculée en déplaçant le curseur à l’aide des touches de direction et en appuyant sur <Entrée>. Le nombre de tests
est défini en entrant simplement le nombre dans le champ approprié à l’aide du clavier. S’il y a un blanc dans le menu,
cela signifie que le test n’est pas pris en charge par votre carte. Par défaut, les diagnostics locaux sont exécutés
automatiquement alors que les diagnostics réseau sont eux désactivés.
REMARQUE : le programme test teste les attributs qui s’appliquent à votre carte. Seuls les tests pris en charge
sont affichés.
Registres de périphérique - Des modèles de test sont écrits, lus et vérifiés dans les registres de périphérique de la
carte afin d’assurer une bonne fonctionnalité.
FIFO - Écrit des modèles de vérification des bits dans les mémoires tampons FIFO de la carte, afin de s’assurer qu’ils
fonctionnent correctement. Les tests FIFO ne sont pas pris en charge sur toutes les cartes et peuvent ne pas apparaître
dans la liste des tests.
EEPROM - Ce test vérifie la lisibilité de l’EEPROM ainsi que l’intégrité des données qui y sont stockées. Il lit l’EEPROM
et calcule le total de contrôle. Ce total de contrôle est ensuite comparé à celui stocké dans l’EEPROM. Si les valeurs
sont différentes, le test signale un échec.
Interruption - Le test d’interruption vérifie la capacité de la carte à générer une interruption et à la propager par le
système au PIC (Programmable Interrupt Controller). Le test déclenche une interruption en activant le registre de
causes d’interruptions, puis vérifie qu’une interruption a été déclenchée.
Bouclage - Deux tests de bouclage internes sont disponibles. Ces tests paramètrent la carte dans le mode de
bouclage approprié et renvoient des paquets via le circuit et la logique de réception de la carte. Ces tests sont
dépendants du jeu de chipsets et peuvent ne pas être sélectionnables.
Liaison - Le test de liaison vérifie si la carte dispose ou non d’une liaison.
Test de réseau - Le test de réseau recherche un récepteur, puis envoie des paquets. Si aucun récepteur n’est trouvé,
le test signale un échec. Si les paquets sont reçus du récepteur, le test signale une réussite.
REMARQUE : dans certains cas, le test peut échouer lorsque celui-ci est connecté à un commutateur sur lequel
le protocole Spanning Tree est activé.
Menu Réseau
Le menu Réseau comporte des tests spécifiques au réseau tels que la détection Spanning Tree et le récepteur de test
de réseau.
Configurer comme récepteur
Cette option permet à l’utilisateur de configurer la carte en tant que récepteur afin qu’un autre système connecté
puisse effectuer la partie test de réseau des tests de diagnostic. Bien que vous puissiez utiliser une variété de cartes
comme récepteur, et soit établir une connexion directe (avec une câble inverseur), soit utiliser un commutateur, les
résultats idéaux seront obtenus en utilisant le même type de carte.
Lorsque vous appuyez sur <Echap>, le fonctionnement du récepteur est annulé et le système vous ramène
immédiatement au menu Réseau.
Détection Spanning Tree
Le protocole Spanning Tree peut être une source de problèmes dans une configuration réseau. L’option Détection
Spanning Tree tente de détecter si un protocole Spanning Tree existe sur le réseau. Pour ce faire, la liaison est
réinitialisée et les paquets Spanning Tree sont détectés, le cas échéant.
Déclaration de conformité aux réglementations
Produits de la classe A FCC
Produits 40 Gigabit Ethernet
l
l
Carte Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Carte réseau convergent Ethernet Intel® XL710-Q2
Produits 10 Gigabit Ethernet
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Carte Ethernet Intel® 10G 2P X520-k bNDC
Carte Ethernet Intel® 10G 4P X710-k bNDC
Carte Ethernet Intel® 10G 2P X710-k bNDC
Carte Ethernet Intel® 10G X710-k bNDC
Carte réseau convergent Intel® X710
Carte Ethernet Intel® 10G 4P X710/l350 rNDC
Carte Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte Ethernet Intel® 10G X710 rNDC
Produits Gigabit Ethernet
l
l
l
l
l
l
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350-t bNDC
Produits de la classe B FCC
Produits 10 Gigabit Ethernet
l
l
Carte réseau Ethernet Intel® 10G 2P X520
Carte Ethernet Intel® 10G X520 LOM
Produits Gigabit Ethernet
l
l
l
Carte réseau Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350 bNDC
Conformité aux normes de sécurité
Les normes de sécurité suivantes s'appliquent à tous les produits répertoriés ci-dessus.
l UL 60950-1, 2e édition, 2011-12-19 (Équipement informatique - Sécurité - Partie 1 : Généralités)
l CSA C22.2 No. 60950-1-07, 2e édition, 2011-12 (Équipement informatique - Sécurité - Partie 1 : Généralités)
l EN 60950-1:2006/A11:2009/A1:2010/A12:2011 (Union européenne)
l IEC 60950-1:2005 (2e édition); Am 1:2009 (International)
l Directive DBT UE : 2006/95/EC
Conformité EMC. Les normes suivantes peuvent s'appliquer :
Produits de classe A :
l
l
l
l
l
l
l
l
l
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
CAN ICES-3(A)/NMB-3(A) - Émissions rayonnées et conduites (Canada)
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022 : 2010 - Émissions rayonnées et conduites (Union européenne)
EN55024 : 2010 + A1:2001 + A2:2003 - (Immunité) (Union européenne)
Directive CEM 2004/108/CE
VCCI (Classe A) - Émissions rayonnées et conduites (Japon)
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
AS/NZS CISPR 22 - Émissions par rayonnement et par conduction (Australie/Nouvelle-Zélande)
NRRA num. 2012-13 (2012.06.28), avis NRRA num. 2012-14 (2012.06.28) (Corée)
Produits de Classe B :
l
l
l
l
l
l
l
l
l
l
l
FCC Part 15 Classe B - Émissions rayonnées et conduites (États-Unis)
CAN ICES-3(B)/NMB-3(B) - Émissions rayonnées et conduites (Canada)
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022 : 2010 - Émissions rayonnées et conduites (Union européenne)
EN55024 : 2010 - Immunité (Union européenne)
EU - Directive CEM 2004/108/EC
VCCI (Classe B) - Émissions rayonnées et conduites (Japon) (sauf fibre optique)
CNS13438 (Classe B) - 2006 - Émissions rayonnées et conduites (Taïwan) (sauf fibre optique)
AS/NZS CISPR 22 - Émissions par rayonnement et par conduction (Australie/Nouvelle-Zélande)
KN22; KN24 - Émissions et immunité (Corée)
NRRA num. 2012-13 (2012.06.28), avis NRRA num. 2012-14 (2012.06.28) (Corée)
Marques de conformité réglementaires
Lorsque c’est exigé, ces produits sont fournis avec des marques de certification :
l Marque d’homologation UL pour les États-Unis et le Canada
l Marque CE
l Logo EU WEEE
l Marques FCC
l Marque VCCI
l Marque C-Tick australienne
l Marque MSIP coréenne
l Marque BSMI taïwanaise
l Marque "EFUP" de la République populaire de Chine
Informations de la FCC pour les utilisateurs d’appareils de
classe A
Les produits de classe A ci-dessus respectent les normes de la partie 15 de la FCC. Son utilisation est soumise aux
deux conditions suivantes :
1. Cet appareil ne doit pas causer d’interférences nuisibles.
2. Cet appareil doit accepter les interférences reçues, y compris les interférences qui peuvent engendrer un
comportement inapproprié.
REMARQUE : cet appareil a été soumis à des tests qui ont attesté sa conformité aux limites d’émission
d’énergie des appareils numériques de la classe A définies dans la Partie 15 des règles de la FCC (Federal
Communications Commission). Ces limites sont conçues pour fournir une protection raisonnable contre les
interférences nuisibles lorsque l’équipement fonctionne dans un environnement commercial. Cet équipement
génère, utilise et peut émettre de l’énergie radioélectrique. S’il n’est pas installé et utilisé conformément aux
instructions fournies, il peut causer des interférences nuisibles aux communications radio. L’utilisation de cet
équipement dans des zones résidentielles provoquera probablement des interférences nuisibles, auquel cas
l’utilisateur sera tenu de corriger les interférences à ses propres frais.
ATTENTION : les modifications apportées à l'équipement qui n'auront pas été préalablement approuvées par
Intel pourront entraîner l'annulation de votre autorisation d'utilisation de cet équipement.
Conformité aux spécifications canadiennes (Industrie Canada)
CAN ICES-3(A)/NMB-3(A)
Déclaration VCCI pour la Classe A
Déclaration BSMI pour la Classe A
Avis KCC pour la Classe A (Corée uniquement)
Avis BSMI pour la Classe A (Taïwan)
Informations de la FCC pour les utilisateurs d’appareils de
classe B
Cet appareil a été soumis à des tests qui ont attesté sa conformité aux limites d’émission d’énergie des appareils
numériques de la classe B définies dans la Partie 15 des règles de la FCC (Federal Communications Commission).
Ces limites sont conçues en vue d’offrir une protection raisonnable contre les interférences nuisibles dans le cadre
d’installations résidentielles. Cet équipement génère, utilise et peut émettre de l’énergie radioélectrique. S’il n’est pas
installé et utilisé conformément aux instructions fournies, il peut causer des interférences nuisibles aux
communications radio. Il n’est cependant pas garanti que des interférences ne se produiront pas dans le cadre
d’installations particulières.
Si cet équipement crée des interférences nuisibles qui affectent la réception radio ou télévision, ce qui peut être
déterminé en mettant l’équipement sous tension et puis hors tension, l’utilisateur est invité à tenter d’éliminer
l’interférence d’une ou de plusieurs façons :
l En réorientant ou déplaçant l’antenne de réception
l En éloignant l’équipement du récepteur.
l En branchant le matériel sur un circuit électrique différent de celui du récepteur.
l En consultant le revendeur ou un technicien radio/TV expérimenté.
ATTENTION : les modifications apportées à l'équipement qui n'auront pas été préalablement approuvées par
Intel pourront entraîner l'annulation de votre autorisation d'utilisation de cet équipement.
REMARQUE : cet appareil est conforme à la Section 15 des règlements de la FCC. Son fonctionnement est
soumis aux deux conditions suivantes : (1) cet appareil ne provoquera pas d'interférences nuisibles, (2) cet
appareil doit absorber les interférences qu'il reçoit y compris celles qui peuvent provoquer un fonctionnement
inopiné.
Avis de compatibilité électromagnétique
Déclaration de conformité FCC
Les produits suivants ont été testés et sont conformes aux normes de la FCC pour un usage privé ou en entreprise.
Carte réseau PRO/1000 MT, PRO/1000 PT, PRO/1000 GT, Gigabit PT, Gigabit ET, I210-T1, I340-T2/T4, I350-T2/T4,
carte réseau PRO/100 M pour PC de bureau, carte réseau PRO/100 S pour PC de bureau, carte réseau PRO/100 S
pour serveurs et carte réseau deux ports PRO/100 S pour serveurs
Conformité aux spécifications canadiennes (Industrie Canada)
CAN ICES-3 (B)/NMB-3 (B)
Déclaration de conformité VCCI classe B (Japon)
Avis KCC pour la Classe B (Corée uniquement)
Logo EU WEEE
Déclaration du fabricant Communauté européenne
Déclaration du fabricant
Intel Corporation déclare que l’équipement décrit dans ce document est conforme aux exigences de la directive du
Conseil européen répertoriée ci-dessous :
l Directive basse tension 2006/95/CE
l Directive CEM 2004/108/CE
l Directive européenne RoHS 2011/65/UE
Ces produits respectent les dispositions de la directive européenne 1999/5/CE.
Dette produkt er i overensstemmelse med det europæiske direktiv 1999/5/EC.
Dit product is in navolging van de bepalingen van Europees Directief 1999/5/EC.
Tämä tuote noudattaa EU-direktiivin 1999/5/EC määräyksiä.
Ce produit est conforme aux exigences de la Directive Européenne 1999/5/EC.
Dieses Produkt entspricht den Bestimmungen der Europäischen Richtlinie 1999/5/EC.
Þessi vara stenst reglugerð Evrópska Efnahags Bandalagsins númer 1999/5/EC.
Questo prodotto è conforme alla Direttiva Europea 1999/5/EC.
Dette produktet er i henhold til bestemmelsene i det europeiske direktivet 1999/5/EC.
Este produto cumpre com as normas da Diretiva Européia 1999/5/EC.
Este producto cumple con las normas del Directivo Europeo 1999/5/EC.
Denna produkt har tillverkats i enlighet med EG-direktiv 1999/5/EC.
Cette déclaration est fondée sur la conformité des produits de classe A aux normes suivantes :
EN 55022:2010 (CISPR 22 Classe A) Contrôle des émissions aux fréquences radio.
EN 55024:2010 (CISPR 24) Immunité aux interférences électromagnétiques.
EN 60950-1:2006/A11:2009A1:2010/A12:2011 Équipement informatique - Sécurité - Partie 1 : Généralités.
EN 50581:2012 - Documentation technique pour l'évaluation des produits électriques et électroniques conformément
aux restrictions relatives aux matières dangereuses.
Cette déclaration est fondée sur la conformité des produits de classe B aux normes suivantes :
EN 55022:2010 (CISPR 22 Classe B) Contrôle des émissions aux fréquences radio.
EN 55024:2010 (CISPR 24) Immunité aux interférences électromagnétiques.
EN 60950-1:2006/A11:2009/A1:2010/A12:2011 Équipement informatique - Sécurité - Partie 1 : Généralités.
EN 50581:2012 - Documentation technique pour l'évaluation des produits électriques et électroniques conformément
aux restrictions relatives aux matières dangereuses.
AVERTISSEMENT : Dans un environnement domestique, les produits de classe A peuvent provoquer des
interférences radio, auquel cas l'utilisateur peut être tenu de prendre des mesures adéquates.
Partie responsable
Intel Corporation, Mailstop JF3-446
5200 N.E. Elam Young Parkway
Hillsboro, OR 97124-6497 (États-Unis)
Téléphone 1-800-628-8686
Déclaration RoHS de Chine
Produits laser de Classe 1
Les cartes serveur répertoriées ci-dessus peuvent contenir des périphériques laser utilisés à des fins de
communication. Ces périphériques sont conformes aux exigences définies pour les produits laser de classe 1 et
peuvent être utilisés en toute sécurité. Au cours des opérations normales, l’émission de ces périphériques laser
n’excède pas les limites définies pour la protection des yeux et ne peut pas faire de mal.
Pour que les opérations continuent à ne pas être nuisibles même si les circonstances deviennent anormales, assurezvous que le capot du connecteur laser fourni est bien en place ou qu’un câble à fibres optiques compatible est
correctement connecté lorsque le produit est alimenté.
Le périphérique laser doit être réparé UNIQUEMENT en usine et par le fabricant du périphérique ! AUCUN réglage,
aucune réparation ou opération de maintenance ne doit être effectué autrement .
ATTENTION : l'utilisation de contrôles ou d'ajustements de la performance ou des procédures autres que
ceux spécifiés ici peut résulter en une exposition dangereuse aux radiations.
Ces périphériques laser de Classe 1 sont :
conformes à la norme CFR21, sous-chapitre J de la FDA/CDRH.
Respectent la norme IEC 60825-1:2007.
Fin de vie/Recyclage du produit
Les exigences et systèmes de recyclage et de reprise en fin de vie des produits varient en fonction des pays.
Contactez le revendeur ou distributeur de ce produit pour obtenir des informations sur le recyclage et/ou la reprise des
produits.
Assistance
Web et sites Internet
http://support.dell.com/
Techniciens d’assistance à la clientèle
Si les procédures de dépannage décrites dans ce document ne vous aident pas à résoudre le problème, contactez
Dell, Inc. pour obtenir une aide technique (consultez la section "Obtenir de l’aide" de la documentation du système).
Avant d’appeler...
Installez-vous devant votre ordinateur, exécutez le logiciel et munissez-vous de la documentation.
Le technicien peut vous demander les informations suivantes :
l Votre adresse et votre numéro de téléphone
l Le nom et le numéro du modèle du produit qui fait l’objet de votre appel
l Le numéro de série et l’étiquette de service du produit
l Les noms et numéros de version des logiciels utilisés avec le produit
l Le nom et le numéro de version du système d’exploitation utilisé
l Le type de votre ordinateur (fabricant et numéro de modèle)
l Les cartes d’extension ou additionnelles installées
l La capacité mémoire de votre ordinateur.
Spécifications des cartes
Spécifications relatives aux cartes réseau Intel® 40 Gigabit
Fonction
Carte réseau convergent Ethernet Intel® XL710-Q2
Connecteur de bus
PCI Express 2.0
Vitesse du bus
x8
Mode de transmission/Connecteur QSFP+
Câblage
40GBase-SR4, Twinax DAC (7 m max.)
Alimentation requise
6,5 W maximum à +12 V
Dimensions
(support exclu)
5,21 x 2,71 po
13,3 x 6,9 cm
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
159 ans
Vitesses disponibles
10 Gbit/s/40 Gbit/s
Modes de duplex
Full uniquement
Indicateurs lumineux
Deux par port :
Liaison et Activité
Conformité aux normes
IEEE 802.3ba
SFF-8436
PCI Express 2.0
Sécurité et réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction
(International)
EN55022-1998 - Émissions rayonnées et conduites (Union
européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications relatives aux cartes filles réseau Intel® 40GbE
(NDC)
Fonction
Connecteur de bus
Carte Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
PCI Express 2.0
x8
Vitesse du bus
Mode de transmission/Connecteur QSFP+
Câblage
40GBase-SR4, Twinax DAC (7 m max.)
Alimentation requise
6,2 W maximum à +12 V
Dimensions
(support exclu)
3,66 x 6,081 po
9,3 x 15,5 cm
Température de fonctionnement
32 - 140 deg. F
(0 - 60 deg. C)
MTBF
112 ans
Vitesses disponibles
10 Gbit/s/40 Gbit/s
Modes de duplex
Full uniquement
Indicateurs lumineux
Deux par port :
Liaison et Activité
Conformité aux normes
IEEE 802.3ba
SFF-8436
PCI Express 2.0
Sécurité et réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction
(International)
EN55022-1998 - Émissions rayonnées et conduites (Union
européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications des cartes réseau Intel® 10 Gigabit
Fonction
Carte réseau Ethernet
Intel® 10G 2P X540-t
Carte réseau Ethernet Intel®
10G 2P X520
Carte réseau Ethernet
Intel® X520-T2 pour
serveurs
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 2.0
Vitesse du bus
x8
x8
x8
Twinax cuivre/SFP+
10GBase-T/RJ-45
10GBase-T (Catégorie 6A)
10 Gigabit Ethernet sur câble SFP+
Direct Attach cuivre (10GSFP+Cu)
10GBase-T (Catégorie 6A)
15 W maximum en +12 V
6,2 W Maximum @ +3,3 V
25 W maximum en +12 V
10GBase-T/RJ-45
Mode de
transmission/Connecteur
Câblage
Alimentation requise
Fonction
Carte réseau Ethernet
Intel® 10G 2P X540-t
Carte réseau Ethernet Intel®
10G 2P X520
Carte réseau Ethernet
Intel® X520-T2 pour
serveurs
Dimensions
(support exclu)
5,7 x 2,7 po
14,5 x 6,9 cm
5,7 x 2,7 po
14,5 x 6,9 cm
6,59 x 2,71 po
16,7 x 6,9 cm
Température de
fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
108 ans
83,9 ans
83,15 ans
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Indicateurs lumineux
Deux par port :
Deux par port :
Liaison et Activité
Liaison et Activité
Link (Liaison)
Activité
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3an
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et
réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
IEEE 802.1p
IEEE 802.1Q
IEEE 802.1ae
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3an
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
REMARQUE : pour la carte réseau Intel® 10 Gigabit AT pour serveurs, en vue d’assurer la conformité avec les
normes CISPR 24 et EN55024 (Union européenne), ce produit doit être utilisé uniquement avec des câbles
blindés de catégorie 6a dotés de terminaisons correctes d’après les recommandations de la norme EN50174-2.
Fonction
Carte réseau Ethernet Intel®
X520-2 pour serveurs
Carte réseau
convergent Intel®
X710
Carte réseau Ethernet
Intel® 10G 2P X550-t
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 2.0
Vitesse du bus
x8
x8
x8
SFP+
10GBase-T/RJ-45
Twinax
10GBase-SR/LR
10GBase-T (Catégorie 6A)
10GBase-SR/SFP+
Mode de
transmission/Connecteur
Fibre multimode
Câblage
Fonction
Carte réseau Ethernet Intel®
X520-2 pour serveurs
Carte réseau
convergent Intel®
X710
Carte réseau Ethernet
Intel® 10G 2P X550-t
Alimentation requise
10,7 Watts à +12 V
À déterminer
13 W maximum à +12 V
Dimensions
(support exclu)
5,73 x 2,71 po
14,6 x 6,9 cm
6,578 x 4,372 po
16,708 x 11,107 cm
5,13 x 2,7 po
13,0 x 6,9 cm
Température de
fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
83,9 ans
À déterminer
À déterminer
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Indicateurs lumineux
Liaison/Activité
1Gig/10Gig
Liaison/Activité
1Gig/10Gig
Link (Liaison)
Activité
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
PCI Express 2.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et
réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications des cartes mezzanine Intel® 10 Gigabit
Carte
mezzanine
2 ports
Ethernet
Intel®
X520
10GbE
KX4
Fonction
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Connecteur de
bus
PCI Express 2.0
PCI Express
2.0
Vitesse du bus
x8
x8
7,4 Watts (maximum) à 3,3 V
7,4 Watts
(maximum) à
3,3 V
3,65 x 3,3 po
3,65 x 3,3 po
Alimentation
requise
Dimensions
32 - 131 deg. F (0 - 55 deg. C)
Température
de
fonctionnemen
t
32 - 131 deg.
F (0 - 55 deg.
C)
MTBF
147 ans
147 ans
Vitesses
disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1
Gbit/s
Modes de
duplex
Full uniquement
Full
uniquement
Conformité
aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE
802.3ac
IEEE
802.3ad
IEEE
802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express
2.0
Sécurité et
réglementatio
n
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications relatives aux cartes filles réseau Intel® 10GbE
(NDC)
Fonction
Carte Ethernet Intel® 10G 4P
X540/I350 rNDC
Carte Ethernet Intel® 10G 4P
X520/I350 rNDC
Carte Ethernet
Intel® 10G 2P
X520-k bNDC
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 2.0
Vitesse du bus
x8
2 x8
x8
SFP+
Cuivre/Fond de panier
Cuivre torsadé/RJ-45
Mode de
transmission/Connecteur
1000Base-T (Catégorie 5 ou
Catégorie 3 sur 10 Mbit/s uniquement)
SFP+ SR/DA
10GBase-KR et
1000Base-KX
5,5 Watts (maximum) à 3,3 V
10,1 Watts (maximum) à 12 V
0,6 Watts à 3,3 V
(AUX), 6,3 Watts à 1,2
V (VCORE)
Dimensions
3,93 x 3,67 po
4,3 x 3,7 po
3,0 x 2,5 po
Température de
fonctionnement
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55
deg. C)
MTBF
68 ans
65 ans
147 ans
2 ports à 10 Gbit/s/(2 ports à 1 Gbit/s,
voir Ethernet Intel® Gigabit 4P
X520/I350 rNDC)
10 Gbit/s/1 Gbit/s
Vitesses disponibles
2 ports à 10 Gbit/s/(2 ports à 1 Gbit/s,
voir Ethernet Intel® Gigabit 4P
X540/I350 rNDC)
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ap
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et
réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
Câblage
Alimentation requise
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Fonction
Carte Ethernet Intel® 10G 4P
X540/I350 rNDC
Carte Ethernet Intel® 10G 4P
X520/I350 rNDC
Carte Ethernet
Intel® 10G 2P
X520-k bNDC
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 2.0
Vitesse du bus
x8
2 x8
x8
SFP+
Cuivre/Fond de panier
1000Base-T (Catégorie 5 ou
Catégorie 3 sur 10 Mbit/s uniquement)
SFP+ SR/DA
10GBase-KR et
1000Base-KX
5,5 Watts (maximum) à 3,3 V
10,1 Watts (maximum) à 12 V
0,6 Watts à 3,3 V
(AUX), 6,3 Watts à 1,2
V (VCORE)
3,93 x 3,67 po
4,3 x 3,7 po
3,0 x 2,5 po
Cuivre torsadé/RJ-45
Mode de
transmission/Connecteur
Câblage
Alimentation requise
Dimensions
Température de
fonctionnement
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55
deg. C)
MTBF
68 ans
65 ans
147 ans
2 ports à 10 Gbit/s/(2 ports à 1 Gbit/s,
voir Ethernet Intel® Gigabit 4P
X520/I350 rNDC)
10 Gbit/s/1 Gbit/s
Vitesses disponibles
2 ports à 10 Gbit/s/(2 ports à 1 Gbit/s,
voir Ethernet Intel® Gigabit 4P
X540/I350 rNDC)
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ap
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et
réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Fonction
Carte Ethernet Intel®
10G 4P X710-k bNDC
Carte Ethernet Intel® 10G
4P X710/l350 rNDC
Carte Ethernet Intel® 10G
4P X710 SFP+ rNDC
Connecteur de bus
Dell bNDC 13G
Dell bNDC 13G
Dell bNDC 13G
Vitesse du bus
x8
x8
x8
SFP+
SFP+
Fond de panier
Cat-5e
Twinax
10GBase-SR/LR
Alimentation requise
À déterminer
À déterminer
À déterminer
Dimensions
3,000x2,449 po
7,62x6,220 cm
4,331x3,661 po
11,0x9,298 cm
4,331x3,661 po
11,0x9,298 cm
Température de
fonctionnement
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
MTBF
À déterminer
À déterminer
À déterminer
Vitesses disponibles
1G/10G
1G/10G
1G/10G
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Indicateurs lumineux
Aucune
Liaison/Activité
Vitesse
Liaison/Activité
Vitesse
Conformité aux normes
PCI Express 2.0
IEEE 802.3ap
PCI Express 2.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 2.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Sécurité et
réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
KX/KR
Mode de
transmission/Connecteur
Câblage
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications des cartes réseau Intel® Gigabit
Fonction
Carte réseau Intel® Gigabit 2P I350-t et Carte réseau Intel® Gigabit 4P
I350-t
Connecteur de bus
PCI Express 2.0
Vitesse du bus
x4
Mode de
transmission/Connecteur
Cuivre torsadé/RJ-45
Câblage
1000Base-T (Catégorie 3 ou Catégorie 5)
Alimentation requise
Carte réseau Intel® Gigabit 2P I350-t : 4,8 Watts @ 12 V
Carte réseau Intel® Gigabit 4P I350-t : 6,0 Watts @ 12 V
Dimensions
(support exclu)
5,3 x 2,7 po
13,5 x 6,9 cm
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
68 ans
Vitesses disponibles
10/100/1000
Négociation automatique
Modes de duplex
Full ou Half duplex à 10/100 Mbit/s ; Full seulement à 1000 Mbit/s
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3az
IEEE 802.3u
IEEE 802.3x
IEEE 802.3z
ACPI v1.0
PCI Express 2.0
Indicateurs lumineux
Deux par port :
Activités et vitesse
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
Sécurité et réglementation
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications des cartes mezzanine Intel® Gigabit
Fonction
Carte mezzanine Intel® Gigabit 4P I350-t
Connecteur de bus
PCI Express 2.0
Vitesse du bus
x4
Alimentation requise
3,425 Watts (maximum) à 3,3 V
Dimensions
3,65 x 3,3 po
Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C)
MTBF
108 ans
Vitesses disponibles
Full uniquement à 1000 Mbit/s
Modes de duplex
Full à 1000 Mbit/s
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction
(International)
EN55022-1998 - Émissions rayonnées et conduites (Union
européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications relatives aux cartes filles réseau Intel® Gigabit
Fonction
Carte Intel® Gigabit 4P X710/I350
rNDC
Carte Intel® Gigabit 4P I350
bNDC
Connecteur de bus
Dell bNDC 13G
Dell rNDC 13G
Vitesse du bus
x2
x4
Mode de
transmission/Connecteur
1000Base-T
KX
Câblage
Fond de panier
Fond de panier
Alimentation requise
À déterminer
À déterminer
Dimensions
(support exclu)
4,331 x 3,661 po
11,007 x 9,298 cm
3,000 x 2,449 po
7,620 x 6,220 cm
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
À déterminer
À déterminer
Vitesses disponibles
10/100/1000
1G
Modes de duplex
Full
Full
Indicateurs lumineux
Deux par port :
Aucune
Liaison/Activité
Vitesse
Conformité aux normes
PCI Express 2.1
IEEE 802.3i
IEEE 802.3ab
IEEE 802.3u
IEEE 802.3ad
IEEE 802.3az
Sécurité et réglementation
Conformité aux normes de sécurité
l UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
PCI Express 2.0
IEEE 802.3ap
Conformité CEM
l FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Normes
l
l
l
l
l
l
l
l
l
l
l
l
l
l
IEEE 802.1p : Files de priorité (priorité du trafic) et niveaux de qualité de service
IEEE 802.1Q : Identification de réseau local virtuel
IEEE 802.3ab : Ethernet gigabit sur cuivre
IEEE 802.3ac : Étiquetage
IEEE 802.3ad : SLA (FEC/GEC/Agrégation de liens - mode statique)
IEEE 802.3ad : Mode dynamique
IEEE 802.3ae : Ethernet 10 Gbit/s
IEEE 802.3an : 10GBase-T 10 Gbit/ps Ethernet sur paire torsadée non blindée
IEEE 802.3ap : Fond de panier Ethernet
IEEE 802.3u : Ethernet à haut débit
IEEE 802.3x : Contrôle de flux
IEEE 802.3z : Ethernet gigabit sur fibre optique
ACPI : Advanced Configuration and Power Interface (Interface de configuration et d'énergie avancée)
PCI Express : spécification du bus système : 32/64 bits, x1, x2, x4, x8, x16
Des informations supplémentaires sur les normes IEEE 802 sont disponibles à l'adresse http://www.ieee802.org.
Réseaux locaux virtuels IEEE 802.3ac :
Les réseaux locaux virtuels requièrent des commutateurs compatibles implicites (commutateur uniquement) ou
explicites (IEEE 802.3ac). Les réseaux locaux virtuels IEEE 802.3ac permettent d'associer plusieurs réseaux par carte,
car celle-ci et le commutateur utilisent une étiquette dans l'en-tête de paquet qui permet de trier les réseaux locaux
virtuels.
Les cartes réseau Intel Gigabit et 10 Gigabit prennent en charge les réseaux locaux virtuels implicites et explicites.
Contrat de licence du logiciel
CONTRAT DE LICENCE DU LOGICIEL INTEL (licence finale)
IMPORTANT - À LIRE AVANT TOUTE TENTATIVE DE COPIE, D’INSTALLATION OU D’UTILISATION.
Veuillez ne pas utiliser ou charger ce logiciel et tout programme associé (regroupés sous la désignation
"Logiciel") tant que vous n’avez pas lu attentivement les conditions suivantes. En chargeant ou en utilisant le
Logiciel, vous acceptez les termes de ce contrat. Si vous êtes en désaccord avec les termes de ce contrat,
veuillez ne pas installer ou utiliser le Logiciel.
CONTRATS DE LICENCE
Veuillez noter :
l Si vous êtes un administrateur réseau, reportez-vous à la "Licence de site" ci-dessous.
l Si vous êtes un utilisateur final, reportez-vous à la "Licence utilisateur unique" ci-dessous.
LICENCE DE SITE. Vous pouvez copier le Logiciel sur les ordinateurs de votre organisation afin que les employés
puissent l’utiliser et vous pouvez sauvegarder un nombre raisonnable de copies du Logiciel, conformément à ces
conditions :
1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel.
L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette
licence.
2. Vous n’êtes pas autorisé(e) à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du
Logiciel, sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non
autorisée du Logiciel.
3. Vous n’êtes pas autorisé(e) à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler.
4. Vous n’êtes pas autorisé(e) à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de
l’utiliser simultanément.
5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une
licence accompagnant ces portions.
LICENCE UTILISATEUR UNIQUE. Vous pouvez copier le Logiciel sur un seul ordinateur pour une utilisation
personnelle et non commerciale, et vous pouvez effectuer une copie de sauvegarde du Logiciel, conformément à ces
conditions :
1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel.
L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette
licence.
2. Vous n’êtes pas autorisé(e) à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du
Logiciel, sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non
autorisée du Logiciel.
3. Vous n’êtes pas autorisé(e) à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler.
4. Vous n’êtes pas autorisé(e) à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de
l’utiliser simultanément.
5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une
licence accompagnant ces portions.
PROPRIÉTÉ DU LOGICIEL ET COPYRIGHT (DROITS D’AUTEUR). Intel ou ses fournisseurs demeurent les
propriétaires de toutes les copies du Logiciel. Le logiciel est protégé par la loi sur le copyright, les lois en vigueur aux
États-Unis et dans d’autres pays, ainsi que par les dispositions de traités internationaux. Vous n’êtes pas autorisés à
retirer la mention de copyright du Logiciel. Intel peut modifier le Logiciel ou des éléments référencés dans ce
document, à tout moment et sans préavis, mais n’est pas dans l’obligation de mettre à jour le Logiciel ni d’offrir une
assistance. Sauf stipulation expresse contraire, Intel exclut tout droit, explicite ou implicite, vis à vis des brevets,
copyrights et marques Intel, et tout autre droit de propriété intellectuelle. Vous pouvez transférer le Logiciel uniquement
si le bénéficiaire accepte d’être lié par ces termes et si vous ne conservez aucune copie du Logiciel.
GARANTIE LIMITÉE DU SUPPORT. Si le logiciel a été remis par Intel sur un support physique, Intel garantit que celuici est exempt de défauts matériels pendant une période de quatre-vingt-dix jours à compter de la date de livraison par
Intel. Si un tel défaut est détecté, renvoyez le support à Intel qui pourra choisir de le remplacer ou d’employer une autre
méthode de livraison.
EXCLUSION DE TOUTE AUTRE GARANTIE. À L’EXCEPTION DES CAS CI-DESSUS, LE LOGICIEL EST FOURNI
"EN L’ÉTAT", SANS GARANTIE EXPRESSE OU IMPLICITE D’AUCUNE SORTE, NOTAMMENT TOUTE GARANTIE
DE QUALITÉ MARCHANDE, D’ABSENCE DE CONTREFAÇON OU D’ADÉQUATION À UN USAGE PARTICULIER.
Intel ne garantit pas la précision ni l’exhaustivité des informations, des textes, des graphiques, des liens ou d’autres
éléments contenus dans le Logiciel et ne peut en être tenu responsable.
LIMITATION DE RESPONSABILITÉ. EN AUCUN CAS INTEL OU SES FOURNISSEURS NE POURRONT ÊTRE
TENUS POUR RESPONSABLES DE TOUT DOMMAGE, DE QUELQUE NATURE QUE CE SOIT (Y COMPRIS, MAIS
DE MANIÈRE NON LIMITATIVE, TOUTE PERTE DE BÉNÉFICES, INTERRUPTION D’ACTIVITÉ OU PERTE
D’INFORMATIONS), RÉSULTANT DE L’UTILISATION OU DE L’IMPOSSIBILITÉ D’UTILISER LE LOGICIEL, ET CE
MÊME SI INTEL A ÉTÉ PRÉVENU DE L’ÉVENTUALITÉ DE TELS DOMMAGES. CERTAINES JURIDICTIONS
N’AUTORISENT PAS L’EXCLUSION OU LA LIMITATION DE RESPONSABILITÉ POUR LES GARANTIES
IMPLICITES OU LES DOMMAGES INDIRECTS OU ACCESSOIRES, DE SORTE QUE LA LIMITATION CI-DESSUS
PEUT NE PAS VOUS ÊTRE APPLICABLE. VOUS POUVEZ ÉGALEMENT DISPOSER D’AUTRES DROITS QUI
VARIENT DE JURIDICTION EN JURIDICTION.
RÉSILIATION DE CE CONTRAT. Intel peut résilier ce contrat à tout moment si vous n’en respectez pas les termes.
Dans ce cas, vous devez immédiatement détruire le Logiciel et retourner toutes les copies dudit Logiciel à Intel.
LOIS APPLICABLES. Toute réclamation établie dans le cadre de ce contrat sera régie par les lois de l’État de
Californie (États-Unis), à l’exception de ses principes de conflit des lois et de la convention des Nations Unies sur les
contrats pour la vente de biens. Vous n’êtes pas autorisés à exporter le Logiciel en infraction des lois et des
régulations d’exportation applicables. Intel n’est contraint par aucun autre contrat à moins que celui-ci ne soit établi par
écrit et signé par un représentant habilité d’Intel.
LIMITATION DES DROITS DU GOUVERNEMENT. Le Logiciel est fourni avec des "DROITS LIMITÉS". L’utilisation, la
duplication ou la diffusion par le gouvernement est soumise à des restrictions comme indiqué dans les clauses
FAR52.227-14 et DFAR252.227-7013 et seq. ou son successeur. L’utilisation du Logiciel par le gouvernement
constitue la reconnaissance des droits de propriété de Intel mentionnés dans ce document. Le sous-traitant ou le
fabricant est Intel.

Manuels associés