11 votos

RHEL 6.4: Modo 1 canal de vinculación de no fallar más

Estoy ejecutando red hat enterprise linux 6.4, kernel 2.6.32-358.el6.i686, en un HP ML 350 G5 con dos a bordo de Broadcom NetXtreme II BCM5708 1000Base-T Nic. Mi objetivo es canalizar unir las dos interfaces en un mode=1 de conmutación por error de par.

Mi problema es que a pesar de toda la evidencia de que el vínculo que se establece y aceptado, tirar del cable de la NIC principal causa de que toda comunicación de cese.

ifcfg-etho y ifcfg-eth1

En primer lugar, ifcfg-eth0:

DEVICE=eth0
HWADDR=00:22:64:F8:EF:60
TYPE=Ethernet
UUID=99ea681d-831b-42a7-81be-02f71d1f7aa0
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes

Siguiente, ifcfg-eth1:

DEVICE=eth1
HWADDR=00:22:64:F8:EF:62
TYPE=Ethernet
UUID=92d46872-eb4a-4eef-bea5-825e914a5ad6
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes

ifcfg-bond0

Mi vínculo del archivo de configuración:

DEVICE=bond0
IPADDR=192.168.11.222
GATEWAY=192.168.11.1
NETMASK=255.255.255.0
DNS1=192.168.11.1
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
BONDING_OPTS="mode=1 miimmon=100"

/etc/modprobe.d/la unión.conf

Tengo una /etc/modprobe.d/bonding.conf archivo que está poblada de este modo:

alias bond0 bonding

la dirección ip de origen de la salida de

El enlace está arriba y puedo acceder al servidor público de servicios a través de los bonos de la dirección IP:

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP qlen 1000
    link/ether 00:22:64:f8:ef:60 brd ff:ff:ff:ff:ff:ff
3: eth1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP qlen 1000
    link/ether 00:22:64:f8:ef:60 brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP 
    link/ether 00:22:64:f8:ef:60 brd ff:ff:ff:ff:ff:ff
    inet 192.168.11.222/24 brd 192.168.11.255 scope global bond0
    inet6 fe80::222:64ff:fef8:ef60/64 scope link 
       valid_lft forever preferred_lft forever

La Vinculación De Módulos Del Kernel

...se carga:

# cat /proc/modules | grep bond
bonding 111135 0 - Live 0xf9cdc000

/sys/class/net

El /sys/class/net sistema de ficheros muestra cosas buenas:

cat /sys/class/net/bonding_masters 
bond0
cat /sys/class/net/bond0/operstate 
up
cat /sys/class/net/bond0/slave_eth0/operstate 
up
cat /sys/class/net/bond0/slave_eth1/operstate 
up
cat /sys/class/net/bond0/type 
1

/var/log/messages

Nada de preocupación aparece en el archivo de registro. De hecho, todo parece bastante feliz.

Jun 15 15:47:28 rhsandbox2 kernel: Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: setting mode to active-backup (1).
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: setting mode to active-backup (1).
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: setting mode to active-backup (1).
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: setting mode to active-backup (1).
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: Adding slave eth0.
Jun 15 15:47:28 rhsandbox2 kernel: bnx2 0000:03:00.0: eth0: using MSI
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: making interface eth0 the new active one.
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: first active interface up!
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: enslaving eth0 as an active interface with an up link.
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: Adding slave eth1.
Jun 15 15:47:28 rhsandbox2 kernel: bnx2 0000:05:00.0: eth1: using MSI
Jun 15 15:47:28 rhsandbox2 kernel: bonding: bond0: enslaving eth1 as a backup interface with an up link.
Jun 15 15:47:28 rhsandbox2 kernel: 8021q: adding VLAN 0 to HW filter on device bond0
Jun 15 15:47:28 rhsandbox2 kernel: bnx2 0000:03:00.0: eth0: NIC Copper Link is Up, 1000 Mbps full duplex
Jun 15 15:47:28 rhsandbox2 kernel: bnx2 0000:05:00.0: eth1: NIC Copper Link is Up, 1000 Mbps full duplex

Así que ¿cuál es el problema?!

Extraer el cable de red eth0 provoca que toda la comunicación a ir a oscuras. Lo que el problema podría ser y qué pasos debo tomar para solucionar esto?

EDITAR:

Solución De Problemas:

La red es una subred única, de una sola VLAN proporcionada por un ProCurve 1800-8G switch. He añadido primary=eth0 a ifcfg-bond0 y reiniciar los servicios de red, pero que no ha cambiado ningún comportamiento. Me registré /sys/class/net/bond0/bonding/primary antes y después de la adición de primary=eth1 y tiene un valor nulo, que no estoy seguro de que es bueno o malo.

Colas /var/log/messages cuando eth1 tiene su cable quitado muestra nada más que:

Jun 15 16:51:16 rhsandbox2 kernel: bnx2 0000:03:00.0: eth0: NIC Copper Link is Down
Jun 15 16:51:24 rhsandbox2 kernel: bnx2 0000:03:00.0: eth0: NIC Copper Link is Up, 1000 Mbps full duplex

He añadido use_carrier=0 a ifcfg-bond0's BONDING_OPTS sección que permite el uso de MII/ETHTOOL ioctl. Después de reiniciar el servicio de red, no hubo ningún cambio en los síntomas. Tirar del cable de eth0 todas las causas de la red de comunicación a cesar. Una vez más, no hay errores en /var/log/messages ahorrar para la notificación de que el enlace en que puerto se fue hacia abajo.

21voto

Wesley Puntos 22784

LEER. TU. CONFIGS.

Y cuando eso falla...

LEER. TODOS. SALIDAS.

¿Ve usted lo que es en ifcfg-bond0? No, entender lo que está en ifcfg-bond0?
Lo que en el mundo de la resbaladizo pingüinos es miimmon=100?
Oh lo siento, ¿te refieres miimon=100?

Sí, creo que significaba miimon e no miimmon.

También, un gran regalo es que al reiniciar el servicio de red que ver esto:

service network restart
Shutting down interface bond0:                             [  OK  ]
Shutting down loopback interface:                          [  OK  ]
Bringing up loopback interface:                            [  OK  ]
Bringing up interface bond0:  ./network-functions: line 446: /sys/class/net/bond0/bonding/miimmon: No such file or directory
./network-functions: line 446: /sys/class/net/bond0/bonding/miimmon: No such file or directory
                                                           [  OK  ]

Preste atención a todo lo que usted escribe y cuando usted hace su inevitable error de escritura, preste atención a cada una de las salidas que ver.

Eres una mala persona y usted debe sentirse mal.

2voto

dmourati Puntos 9454

Intente especificar una de las NIC como el esclavo primario.

DEVICE=bond0
IPADDR=192.168.11.222
GATEWAY=192.168.11.1
NETMASK=255.255.255.0
DNS1=192.168.11.1
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
BONDING_OPTS="mode=1 miimmon=100 primary=eth0"

Más documentación de RH:

principal= Especifica el nombre de la interfaz, tales como eth0, del dispositivo principal. El dispositivo principal es la primera de las interfaces vinculadas a utilizarse y no se abandona a menos que falle. Esta opción es particularmente útil cuando una NIC en la interfaz de unión es más rápido y, por lo tanto, capaz de manejar una carga más grande. Esta configuración sólo es válida cuando la unión interfaz está en modo de respaldo activo. Consulte /usr/share/doc/kernel-doc-/Documentation/networking/bonding.txt para obtener más información.

0voto

mcw Puntos 21

Agregue la siguiente vinculación opción downdelay=xxxx en milisec que falla un eth después de que se ha detectado un error y establecer el esclavo primario para el resto. Si este parámetro no está en el bonding_opt, el vínculo detecte la falla (porque incluyen miimom=aaaa), pero nunca deja la eth0. Usted puede ver que esto sucede por buscar en el archivo /proc/net/enlaces/bondX archivo.

De todos modos, con red hat enterprise linux 6.3 (casi la misma versión que la tuya) vamos a tener otros problemas, a la vinculación con los relacionados a fallar de nuevo, duplicado mac addr visto desde el interruptor.

la buena suerte.

EnMiMaquinaFunciona.com

EnMiMaquinaFunciona es una comunidad de administradores de sistemas en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros sysadmin, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X