9 votos

Desde la actualización a Solaris 11, mi ARCO tamaño siempre ha dirigido 119MB, a pesar de tener 30 GB de RAM. Qué? Por qué?

Me encontré con un NAS/SAN cuadro en Solaris 11 Express antes de Solaris 11 fue lanzado. El cuadro es una HP X1600 con un adjunto D2700. En todos, 12x 1 tb a 7200 SATA discos, 12x 300GB 10k SAS discos en distintos zpool. Total de memoria RAM que es de 30 gb. Los servicios prestados son CIFS, NFS e iSCSI.

Todo estaba bien, y yo tenía una ZFS gráfico de uso de memoria en busca de esta manera:

captureap.png

Bastante saludable Arco tamaño de alrededor de 23 GB - haciendo uso de la memoria disponible para el almacenamiento en caché.

Sin embargo, luego he actualizado a Solaris 11 cuando salió. Ahora, mi gráfica se parece a esto:

capture2pj.png

Resultado parcial de arc_summary.pl está:

System Memory:
     Physical RAM:  30701 MB
     Free Memory :  26719 MB
     LotsFree:      479 MB

ZFS Tunables (/etc/system):

ARC Size:
     Current Size:             915 MB (arcsize)
     Target Size (Adaptive):   119 MB (c)
     Min Size (Hard Limit):    64 MB (zfs_arc_min)
     Max Size (Hard Limit):    29677 MB (zfs_arc_max)

Es targetting 119MB mientras está sentado en 915MB. Tiene 30 GB para jugar con. Por qué? Hicieron cambiar algo?

Editar

Para aclarar, arc_summary.pl de Ben Rockwood, y la importancia de las líneas de generación de las anteriores estadísticas son:

my $mru_size = ${Kstat}->{zfs}->{0}->{arcstats}->{p};
my $target_size = ${Kstat}->{zfs}->{0}->{arcstats}->{c};
my $arc_min_size = ${Kstat}->{zfs}->{0}->{arcstats}->{c_min};
my $arc_max_size = ${Kstat}->{zfs}->{0}->{arcstats}->{c_max};
my $arc_size = ${Kstat}->{zfs}->{0}->{arcstats}->{size};

El Kstat son las entradas, apenas estoy consiguiendo valores impares de ellos.

Edit 2

Acabo de volver a medir el arco del tamaño de la con arc_summary.pl - he verificado estos números con kstat:

System Memory:
     Physical RAM:  30701 MB
     Free Memory :  26697 MB
     LotsFree:      479 MB

ZFS Tunables (/etc/system):

ARC Size:
     Current Size:             744 MB (arcsize)
     Target Size (Adaptive):   119 MB (c)
     Min Size (Hard Limit):    64 MB (zfs_arc_min)
     Max Size (Hard Limit):    29677 MB (zfs_arc_max)

La cosa que me llama la atención es que el Destino es el Tamaño de 119MB. Mirando el gráfico, que está dirigido el mismo valor exacto (124.91 M de acuerdo a los cactus, 119M según arc_summary.pl - creo que la diferencia es sólo 1024/1000 problemas de redondeo) desde Solaris 11 se ha instalado. Parece que el kernel está haciendo el menor esfuerzo para cambiar el tamaño de destino para algo diferente. El tamaño actual es fluctuante como las necesidades del sistema (grande) lucha con el tamaño de destino, y parece que el equilibrio entre 700 y 1000MB.

Así que la pregunta ahora es un poco más que señalar - ¿por qué Solaris 11 de disco duro configuración de mi ARCO tamaño de destino para 119MB, y ¿cómo la cambio? Debo aumentar el tamaño mínimo para ver qué pasa?

He pegado la salida de kstat -n arcstats más en http://pastebin.com/WHPimhfg

Edición 3

Ok, rareza ahora. Sé flibflob mencionaron que hay un parche para solucionar esto. No he aplicado esta revisión (todavía ordenamiento interno de problemas de soporte) y no he aplicado ninguna otra actualización de software.

El pasado jueves, el cuadro se estrelló. Como en, completamente dejado de responder a todo. Cuando reinicié, volví multa, pero aquí es lo que mi gráfica se parece ahora.

graphimage.png

Parece que han solucionado el problema.

Este es adecuada la la land cosas ahora. He literalmente ni idea de lo que está pasando. :(

4voto

flibflob Puntos 355

Por desgracia no puedo resolver tu problema, pero aquí un poco de información de fondo:

  • El ARCO del tamaño de destino no parece ser un valor fijo. Me experimentar el mismo problema en un Solaris 11 de la máquina y después de cada reinicio, en algún punto el tamaño de destino parece bloqueo en un valor de entre ~100 ~500 MB.

  • Al menos 3 personas se enfrentan al mismo problema, como se discutió en la http://mail.opensolaris.org/pipermail/zfs-discuss/2012-January/050655.html

  • También hay un abrir informe de error (7111576) en "My Oracle Support" (https://support.oracle.com). Si su servidor está bajo un contrato de soporte válido, debe presentar una solicitud de servicio y se refieren a ese error. A partir de ahora, cualquier corrección de errores parece ser todavía un trabajo en progreso...

Aparte de eso, no hay mucho que se puede hacer. Si usted todavía no he actualizar su zpool/zfs versiones, usted puede tratar de arrancar en su viejo Solaris 11 Express entorno de arranque y ejecutar hasta que Oracle finalmente decide liberar a un SRU que corrige el problema.

Edit: Puesto que la cuestión de la degradación de rendimiento ha sido mencionado más arriba: Todo depende de lo que estás haciendo. He visto horrible latencias en mi Solaris 11 de recurso compartido de NFS desde la actualización a Solaris 11 11/11. En comparación con el sistema, sin embargo, tengo relativamente pocos ejes y dependen en gran medida del ARCO y de L2ARC de almacenamiento en caché de trabajo como se esperaba (por favor, ser conscientes de que el problema también es causa de L2ARC no crecer a cualquier tamaño razonable). Ciertamente, esto no es un problema de mal interpretado estadísticas.

A pesar de que podría no confiar demasiado en ARC/L2ARC, usted probablemente será capaz de reproducir con la lectura de un archivo de gran tamaño (que normalmente caben en la memoria RAM) varias veces con dd. Probablemente se dará cuenta de que el primer tiempo a la lectura, el archivo será más rápido que cualquier lecturas consecutivas del mismo archivo (debido a la ridícula de ARCO de tamaño y un sinnúmero de caché de desalojos).

Edit: ahora he logrado recibir un IDR parche de Oracle que resuelve este problema. Si su sistema está bajo de apoyo, usted debe pedir a la IDR parche para CR 7111576. El parche se aplica a Solaris 11 11/11 con SRU3.

1voto

Curt Sampson Puntos 10866

Se cambió el kstats.

Oracle Solaris 11 ha eliminado las siguientes estadísticas de zfs:0:arcstats:

  • evict_l2_cached
  • evict_l2_eligible
  • evict_l2_ineligible
  • evict_skip
  • hdr_size
  • l2_free_on_write
  • l2_size recycle_miss

y añadió lo siguiente zfs:0:arcstats:

  • buf_size
  • meta_limit
  • meta_max
  • meta_used

Así que esta básicamente sólo podría ser un problema con el script.

EnMiMaquinaFunciona.com

EnMiMaquinaFunciona es una comunidad de administradores de sistemas en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros sysadmin, hacer tus propias preguntas o resolver las de los demás.

Powered by: