Pandora: Documentation es: Monitorizacion entornos Virtuales

From Pandora FMS Wiki
Jump to: navigation, search

Volver a Indice de Documentacion Pandora FMS

Contents

1 Monitorizacion de entornos virtuales

1.1 Monitorización de entornos Amazon EC2

Esta monitorización específica utiliza el CloudWatch API para monitorizar sus instancias en el servicio Amazon EC2.Necesita tener activado el cloudwatch habilitado en su instancia. Puede obtener el plugin gratuito en la sección de la libreríaa de módulos de pandorafms.com (busque por EC2).

La idea principal de este plugin de servidor remoto es obtener información para sus instancias utilizando el servidor de plugin de red. Esto significa que necesitará registrar el plugin en el servidor, y hacer que modulos diferentes graben la información en sus servidores EC2.

Este es un ejemplo de la ejecución:

/home/slerena/ec2_plugin.sh -A AKIAILTVJ3S26GTKLD4A -S CgmQ6DxUWES05txfe+juJLoM57acDudHogkLotWk -i i-9d0b4af1 -n AWS/EC2 -m CPUUtilization

Devolverá un % de valor numérico de la métrica "CPUUtilization" en la instancia i-9d0b4af1

Para la instalación necesitará:

1. Tener un sistema JAVA, y ahora su directorio home JAVA. En la aplicación Pandora FMS (Vmware/Image) está instalada en /usr/

2. Copiar este plugin a una ruta, y fijar los permisos en 755, y fijar la ruta base en la variable AWS_CLOUDWATCH_HOME que está presente en las primeras líneas del plugin. Necesita editar las primeras líneas del plugin.

El plugin tiene varios ficheros:

/ec2_plugin.sh - Plugin itself /bin/* - Componentes de Amazon CloudWatch (Monitoring) Command Line Tools, incluidos en este paquete. Estos scripts están distribuidos bajo la Licencia Apache

Ponga el paquete completo en un directorio del servidor, por ejemplo:

/usr/share/pandora_server/plugin/ec2 

Y fije el AWS_CLOUDWATCH_HOME en /usr/share/pandora_server/plugin/ec2

Si tiene dudas sobre si está correctamente instalado, ejecute directamente este comando:

/usr/share/pandora_server/plugin/ec2/mon-cmd --version 

Debería devolver algo similar a :

Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01) 

Si obtiene la misma cadena, entonces ya está listo para utilizar el plugin.

Si no, probablemente necesitará instalar y configurar adecuadamente las herramientas de linea de comandos del Amazon CloudWatch (monitorizacion). Siga estos pasos para hacerlo:

1.1.1 Instalación

1. Asegúrese de que tiene instalada en su sistema la versión de Java 1.5 o superior: (java -version) 2. Descomprima el fichero zip de despliegue. 3. Fije las siguientes variables de entorno: 3.1 AWS_CLOUDWATCH_HOME - El directorio donde se copiaron los ficheros de despliegue para chequearlos con: Unix: ls ${AWS_CLOUDWATCH_HOME}/bin should list mon-list-metrics ...) Windows: dir %AWS_CLOUDWATCH_HOME%\bin should list mon-list-metrics ...) 3.2 JAVA_HOME - Directorio Home de la instalación de Java .4. Añada ${AWS_CLOUDWATCH_HOME}/bin (En Windows: %AWS_CLOUDWATCH_HOME%\bin) a su ruta

1.1.2 Configuración

Ponga sus credenciales AWS de usuario en la herramienta de linea de comandos. Existen dos maneras para proporcionar las credenciales:Las contraseñas AWS o utilizando los certificados X.509

1.1.3 Utilización de Contraseñas AWS

1. Crear un fichero de credencial. El despliegue incluye un fichero de plantilla ${AWS_CLOUDWATCH_HOME}/credential-file-path.template.

  1. . Editar una copia de este fichero para añadir si información.
  2. . En UNIX, limitar los permisos para el propietario del fichero de credenciales:$ chmod 600 <the file created above>.

2. Hay varias maneras de proporcionar su información de credencial:

  1. . Fije la siguiente variable de entorno: AWS_CREDENTIAL_FILE=<the file created in 1>
  2. . O también puede proporcionar la siguiente opcion con cada comando --aws-credential-file <the file created in 1>
  1. . Especifique de manera explícita las credenciales en la linea de comando: --I ACCESS_KEY --S SECRET_KEY

1.1.4 Utilización de certificados X.509

1. Grabe su cerfificado y contraseñas privadas en los ficheros: e.g. my-cert.pem and my-pk.pem.

2. Existen dos modos de proporcionar la información certificada a la línea de comandos:

  1. .Fije las siguientes variables de entorno:
       EC2_CERT=/path/to/cert/file
       EC2_PRIVATE_KEY=/path/to/key/file
  1. . Especifique los ficheros directamente en la línea de comandos para todos los comandos
       <command> --ec2-cert-file-path=/path/to/cert/file --ec2-private-key-file-path=/path/to/key/file

1.1.5 Instalación de las propiedades de JVM

Al fijar la variable de entorno SERVICE_JVM_ARGS, podrá pasar arbitrariamente las propiedades JVM a la línea de comando. Por ejemplo,la siguiente línea fija las propiedades en Linux/UNIX export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"

1.1.6 Puesta en marcha

1. Compruebe que su instalación funcione correctamente, ejecute el siguiente comando:

  $ mon-cmd --help

Debería ver la página de uso para todos los comandos de monitorización

  $ mon-list-metrics --headers

Debería ver también una línea de cabecera. Si tiene alguna métrica definida, debería verla también.

1.2 Monitorización de entornos VMware

Los entornos virtuales tienen una gran importancia en las arquitecturas IT de todas las empresas y por ello su monitorización es esencial. Con Pandora FMS Enterprise podrás tener acceso a VMware Monitoring Plugin un plugin que permite tener bajo control la arquitectura virtual VMware de forma sencilla.

1.2.1 Arquitectura VMware a monitorizar

Con este sistema se pueden monitorizar arquitecturas como la que se muestra en el siguiente esquema:



Esq arq vmware.png



Pandora FMS puede monitorizar servidores ESXi, Datastores y Máquinas Virtuales. Pandora FMS se apoya en el API web que proporciona el vCenter Server de VMware para la recolección de datos.

1.2.2 Monitorización con VMware Monitoring Plugin

La monitorización de entornos virtualizados con VMware se basa en varios componentes:

  1. Un plugin de agente encargado del descubrimiento de entidades presentes en el entorno y de la recolección de información para la monitorización de las mismas. Para versiones 5.0 o superiores de Pandora FMS el plugin actualiza unos parámetros de los agentes necesarios para el uso de las extensiones y además puede realizar una copia de los eventos de vCenter de VMware a la consola de Pandora FMS.
  2. Una extensión de configuración básica para poder correr sin problemas desde la ISO (Enterprise) el plugin de VMware.
  3. Extensiones VMware View y VMware Manager que permiten ver las entidades VMware de una forma sencilla y gestionar máquinas virtuales.

Con este sistema obtenemos un agente por cada host ESXi, Datastore o máquina virtual encontrado, además de uno adicional para el Datacenter. Esto nos permitirá tratarlos como entidades independientes sin importar la relación que exista entre ellos dentro de la arquitectura de virtualización. Además cada agente tendrá los módulos correspondientes para su monitorización según el tipo de entidad VMware que represente.

1.2.2.1 Funcionamiento interno del plugin

Para versiones 5.0 o superiores el plugin realiza todas las funciones: auto-descubrimiento de entidades, recolección de información, copiado de eventos y configuración de custom fields.

Por cada entidad descubierta, el plugin envía un archivo XML al servidor de Pandora para ser procesado. Esta entidad se convertirá en un agente dentro de Pandora FMS. Los eventos copiados a la consola aparecerán en la vista de eventos y será posible gestionarlos como los propios eventos generados por el sistema.

El plugin mantiene unos archivos auxiliares que contienen información relativa a la configuración de monitorización: logs, entidades monitorizadas, puntero para monitorización de eventos, etc.

Template warning.png

Es importante que estos archivos no se borren ya que podría afectar al rendimiento de la monitorización

 


1.2.3 Requisitos del plugin

Los requisitos para el funcionamiento del plugin VMware son los siguientes:

  • Pandora FMS 4.0.3 o superior (Las extensiones sólo funcionan a partir de Pandora FMS 4.0.3 Parche 130310)
  • Agente de Pandora FMS instalado en la máquina.
  • Sistema Linux/Unix o Windows
  • Comando curl (para versiones de Pandora FMS 5.0 o superiores el agente de Windows incorpora el comando curl)
  • Comando ping
  • VMware vSphere SDK para Perl

1.2.4 Configuración del vCenter para la monitorización

El plugin hace uso de los contadores de rendimiento que proporciona el vCenter de VMware. La disponibilidad de estos contadores depende de los niveles configurados para recolección de estadísticas del vCenter.

Estos niveles se pueden cambiar en el menú vCenter Server Settings y en la opción Statistics. Para cada opción de tiempo y cada nivel obtendrá la descripción de los contadores que recolecta el vCenter. El nivel mínimo para monitorizar con el plugin de Pandora FMS es el Nivel 2.

Niveles vmware.png



Dependiendo de la configuración del vCenter, es posible que algunos módulos no reporten datos en Pandora FMS. Esto puede ser porque falte instalar algún plugin en el vCenter, sea necesario instalar un agente VMware en la entidad o simplemente porque la entidad esté apagada (máquina virtual o ESXi). Para solucionar estos problemas deberá consultar la documentación de VMware.

Algunas soluciones, como por ejemplo la monitorización del estado del hardware (Hardware Status), podrían requerir una configuración avanzada tanto del vCenter como de los host que soportan los ESX.

1.2.5 Instalación de VMware vSphere SDK para Perl

La url del centro de descargas para el software VMware es:

http://communities.vmware.com/community/developer/downloads

1.2.5.1 Instalación SDK Linux

Info.png

Las versiones del SDK probadas con este proceso de instalación han sido la 4.1 y la 5.1

 


Template warning.png

Se recomienda el uso del SDK 4.1 con componentes VMware de la versión 4.1. Se recomienda el uso del SDK 5.1 con componentes VMware de la versión 5.1

 


Primero descomprimiremos el SDK con el siguiente comando:

# tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz

Ahora compilaremos e instalaremos el SDK con los siguientes comandos:

# perl Makefile.PL
# make
# make install

Si la instalación fue correcta y no se mostró ningún error podrá conectar con el vCenter con el siguiente comando:

# /usr/lib/vmware-viperl/apps/general/connect.pl --server <vcenter_ip> --username <vcenter_user> --password <vcenter_pass>

La respuesta debería ser algo así:

Connection Successful
Server Time : 2013-02-21T16:24:05.213672Z

1.2.5.2 Instalación SDK sobre Windows

La versión de PERL que se distribuye con el vSphere SDK no funciona con las librerías de VMware para PERL. Para solucionar este problema siga los siguientes pasos:

  • Instale el VMware vSphere SDK.
  • Instale Strawberry PERL versión 5.12 de http://strawberryperl.com/releases.html.
  • Copie el directorio C:\Archivos de Programa\VMware\VMware vSphere CLI\Perl\lib\VMware a C:\strawberry\perl\lib.
  • Desinstale el VMware vSphere SDK.

1.2.6 Instalación del plugin con la extensión VMware Settings

Info.png

Esta extensión viene instalada por defecto en la ISO Enterprise de la versión 5.1.

 


Con la extensión VMware Settings podemos configurar directamente desde la consola de Pandora la ejecución del plugin VMware. Aparecerá en Setup > VMware.


Vmware settings800.png



Dentro de la misma deberemos configurar la ruta del plugin, la ruta del archivo de configuración y los parámetros IP del V-Center, nombre del Datacenter, usuario, contraseña y el tiempo de ejecución del plugin.

Vmware settings.png



La ejecución del plugin se añadirá como una nueva Cron Job y para que esta se pueda ejecutar cada 5, 10, 15 minutos..., la ejecución de la extensión cron de Pandora, añadida dentro del fichero /etc/crontab, debe configurarse así:

*/1 * * * * root wget -q -O http//localhost/pandora_console/enterprise/extensions/cron/cron.php >> /var/www/html/pandora_console/pandora_console.log



Template warning.png

Esta extensión requiere la versión 5.1 de PandoraFMS instalada para que sea compatible la ejecución de la cron job de Pandora con un intervalo de un minuto, sin este requisito la extensión no funcionará correctamente

 




Una vez configurado el plugin se añadirá una nueva tarea, dentro de las tareas programadas con la siguiente configuración:

200px‎



Template warning.png

Esta tarea programada SOLO se puede configurar desde la extensión VMware Settings, cualquier configuración que se realice sobre la misma dentro de las tareas programadas, provocará un mal funcionamiento en el plugin.

 


1.2.7 Instalación del plugin manualmente

1. Acceder al directorio en el que se han extraído los ficheros del plugin VMWare

2. Copia las extensiones a la carpeta pandora_console/enterprise/extensions/

sudo -u apache cp -R extensions/vmware* /var/www/html/pandora_console/enterprise/extensions/

3. Copia vmware-plugin.{pl,conf} al directorio correspondiente

sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/
sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf}
sudo chmod g+w /usr/share/pandora_server/util/plugin/vmware-plugin.conf

4. Edita el fichero de configuración vmware-plugin.conf

tentacle_ip: Dirección IP del servidor de Pandora
pandora_url: "http://127.0.0.1/pandora_console" 
server: Dirección IP de vCenter
datacenter: Nombre de centro de datos
user: usuario con permisos en vCenter
pass: contraseña

server, datacenter, user, pass pueden ser ajustados desde la consola de Pandora

5. En el menú "Configuración" de la consola de Pandora asigna una contraseña a la API

por ejemplo

api password: 1234

6. Copia vmware-plugin.{pl,conf} para el agente de Pandora

 sudo cp /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} /etc/pandora/plugins/

No hay un fichero de configuración vmware-plugin-events.conf en el .tar pero puedes crearlo copiando vmware-plugin.conf y modificando 'event_mode' a 1 manualmente.

1.2.8 Instalación y puesta en marcha del plugin de agente

Para instalar el plugin de agente sólo tiene que copiar los archivos vmware-plugin.pl y vmware-plugin.conf a la carpeta /etc/pandora/plugins, con el siguiente comando:

cp vmware-plugin.pl vmware-plugin.conf /etc/pandora/plugins

Ahora hay que añadir un nuevo módulo de tipo plugin al archivo de configuración del agente, con la siguiente línea:

module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin.conf

Si además queremos realizar el copiado de los eventos debemos crear otro módulo plugin con un archivo de configuración diferente que habilite la copia de eventos. La sintaxis sería la siguiente:

module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-events.conf

En sistemas Windows será necesario especificar el intérprete usado. El comando sería:

module_plugin perl "C:\Program Files\pandora_agent\util\vmware-plugin.pl" "C:\Program Files\pandora_agent\util\vmware-plugin.conf"

En las siguientes secciones se explica en detalle los parámetros del archivo de configuración del plugin.

Template warning.png

El plugin de VMware requiere mucho tiempo de ejecución debido al uso de una API SOAP pesada. Por ello en sistemas con gran cantidad de entidades a monitorizar podría ser necesario distribuir la carga entre varios agentes software de Pandora FMS. Toda la información al respecto está en las siguientes secciones

 


Info.png

Si está usando Pandora FMS 5.0 o una versión superior y desea usar las extensiones del plugin o la monitorización de eventos, deberá configurar correctamente el API de Pandora FMS. Para ello deberá añadir una contraseña del API y dar acceso a las direcciones pertinentes en la lista de acceso al API. Estos campos se definen en la configuración general de la consola de Pandora FMS

 


1.2.9 Monitorización de la arquitectura virtual VMware

Para ver el resultado de la ejecución del plugin sólo tenemos que acceder al submenú Agent Detail dentro del menú Views.

Menu monitoring.png



En esta vista aparecerán los agentes creados por el plugin junto con los demás agentes de Pandora FMS.

Agent detail screen.jpg



Si pulsamos en el nombre de un agente veremos la vista de agente de Pandora FMS donde aparecerán los módulos monitorizados por el plugin VMware.

Agent screen.jpg



Por defecto el plugin despliega una monitorización básica para cada uno de los elementos VMware. La configuración por defecto para las diferentes entidades es la siguiente:

1.2.9.1 Monitorización por defecto para Datacenter

  • Ping
  • Check 443 port

1.2.9.2 Monitorización por defecto para Datastore

  • Capacity
  • Free Space
  • Disk Overallocation
  • Free Space Bytes

1.2.9.3 Monitorización por defecto defecto para ESXi

  • CPU Usage
  • Memory Usage
  • Data received
  • Data transmitted
  • Disk Read Latency
  • Disk Write Latency
  • Host Alive
  • Disk Rate
  • Net Usage

1.2.9.4 Monitorización por defecto para máquinas virtuales

  • CPU Usage
  • Memory Usage
  • Tools Running Status
  • Host Alive
  • Disk Free
  • Disk Read Latency
  • Disk Write Latency
  • Data received
  • Data transmitted
  • Net Usage

En la siguiente sección se explican con detalle todos los módulos disponibles y la información que reporta cada módulo

1.2.10 Módulos de agentes de la arquitectura virtual VMware

Algunos módulos podrían no estar disponibles dependiendo de la versión de VMware y de la configuración del entorno, en las siguientes tablas se describen los diferentes módulos disponibles y sus características de disponibilidad.


Info.png

El plugin permite configurar Performance Counters personalizados para los hosts ESX y máquinas virtuales. Podrá ver cómo hacerlo en la sección que detalla el contenido del archivo de configuración

 


1.2.10.1 Módulos para agentes del tipo Datacenter

Módulo Descripción Versión API Disponibilidad
Ping Chequeo ping a la máquina que soporta el vCenter Todas Siempre
Check 443 port Chequeo al puerto 443 de la máquina que soporta el vCenter Todas Siempre

1.2.10.2 Módulos para agentes del tipo Datastore

Módulo Descripción Versión API Disponibilidad
Capacity Capacidad máxima del Datastore en bytes Todas Siempre
Free Space Porcentaje de espacio libre del Datastore Todas Siempre
Disk Overallocation Porcentaje de sobre asignación del disco ≥v4.0 Siempre
Free Space Bytes Cantidad de espacio libre en bytes Todas Siempre

1.2.10.3 Módulos para agentes del tipo host ESXi

Módulo Descripción Versión API Disponibilidad
Boot Time Última fecha en la que se encendió el host Todas Siempre
CPU Info [x] Información general de la CPU (Se crea un módulo por CPU del ESXi) Todas Si conectado
Memory Size Cantidad total de memoria física del host en Bytes Todas Si conectado
Overall CPU Usage Suma del uso de todas las CPUs en Mhz Todas Si conectado
Overall Memory Usage Overall Memory Usage of VMware Hosts Todas Si conectado
Power State Estado de la energía del host ≥v2.5 Siempre
SSL Thumbprint Huella SSL del host ≥v4.0 Si configurado
Uptime Uptime del host en segundos ≥v4.1 Si conectado
VNIC Info [x] Información sobre interfaces de red virtuales del host Todas Si conectado y configurado
Host Alive Módulo que vale 1 si el ESX está conectada y 0 en caso contrario Todas Siempre
Connection State Estado de la conexión del host Todas Siempre
Disk Read Tasa de Kbps leidos del disco Todas Nivel stats ≥2
Disk Write Tasa de Kbps escritos del disco Todas Nivel stats ≥2
Disk Read Latency Latencia de lectura del disco en milisegundos Todas Nivel stats ≥2
Disk Write Latency Latencia de escritura del disco en milisegundos Todas Nivel stats ≥2
Data received Tasa de Kbps recibidos del host Todas Nivel stats ≥2
Data transmitted Tasa de Kbps enviados del host Todas Nivel stats ≥2
Packages Received Número de paquetes recibidos en el intervalo Todas Nivel stats ≥2
Packages Transmitted Número de paquetes enviados en el intervalo Todas Nivel stats ≥2
CPU Usage Porcentaje de uso de CPU Todas Nivel stats ≥2
Memory Usage Porcentaje de uso de la memoria RAM Todas Nivel stats ≥2
Net Usage Datos de red recibidos y enviados de todas las NICs Todas Nivel stats ≥2
Disk Rate Tasa I/O agredada en KB/seg Todas Nivel stats ≥2
Max. Disk Latency Latencia máxima de todos los discos Todas Nivel stats ≥2
HA Status Estado HA del host ≥v5.0 Si configurado
Sensor* Estado de los sensores de hardware (un módulo por sensor) Todas ESXi >= 3.5

1.2.10.4 Módulos para agentes del tipo máquina virtual

Estos módulos ofrecen la información desde el punto de vista de la arquitectura VMware. Si se desea monitorizar otros parámetros relativos a la máquina virtual se deberían considerar otras opciones como la Monitorización con agentes software o la Monitorización remota

Módulo Descripción Versión API Disponibilidad
Boot Time Última fecha en la que se encendió la máquina virtual Todas Si conectado
Connection State Estado de la conexión Todas Siempre
Consumed Overhead Memory Cantidad de memoria consumida por la máquina virtual en MB ≥v4.0 Si configurado
CPU Allocation Información sobre los recursos asignados a la CPU de la máquina virtual Todas Si configurado
Disk Free [x] Porcentaje libre del disco de la máquina virtual. (Habrá un módulo por cada disco que contenga la máquina virtual) Todas Si configurado
Guest State Modo de operación del sistema operativo huésped Todas Si configurado
Host Info Información sobre el host VMware Todas Si configurado
Host Alive Módulo que vale 1 si la máquina virtual está en ejecución y 0 en caso contrario Todas Siempre
Host Memory Usage Memoria consumida por la máquina virtual en MB Todas Si conectado
Host Name Nombre del host asociado Todas Si configurado
IP Address [x] Dirección IP de la máquina. (Aparecerá una por interfaz de red disponible) ≥v4.1 Si configurado
MAC Address [x] Dirección MAC de la máquina. (Aparecerá una por interfaz de red disponible) Todas Si configurado
Max CPU Usage Límite superior de uso de la CPU de la máquina virtual Todas Si conectado
Max Memory Usage Límite superior de uso de la memoria RAM de la máquina virtual Todas Si conectado
Memory Allocation Límite de los recursos para la memoria Todas Si configurado
Memory Overhead Cantidad de memoria usada por la máquina virtual por encima de las necesidades del sistema operativo huésped en Bytes Todas Si configurado
Overall CPU Demand Estadísticas básicas sobre el rendimiento de la CPU en Mhz ≥v4.0 Si conectado
Overall CPU Usage Estadísticas básicas sobre el uso de la CPU en Mhz Todas Si conectado
Power State Estado actual de la máquina virtual Todas Siempre
Private Memory Cantidad de memoria en MB que se otorga a la máquina virtual de la memoria no compartida ≥v4.0 Si conectado
Shared Memory Cantidad de memoria en MB que se otorga a la máquina virtual de la memoria compartida ≥v4.0 Si conectado
Tools Running Status Estado actual de ejecución de VMware Tools instaladas en el sistema operativo huésped ≥v4.0 Si configurado
Trigger Alarm State Estado de las alarmas de VMware Todas Si configurado
Uptime Seconds Uptime de la máquina virtual en segundos ≥v4.1 Si conectado
Virtual Image Path Ruta del archivo de configuración de la máquina virtual (.vmx) Todas Siempre
Disk Read Tasa de Kbps leidos del disco Todas Nivel stats ≥2
Disk Write Tasa de Kbps escritos del disco Todas Nivel stats ≥2
Disk Read Latency Latencia de lectura del disco en milisegundos Todas Nivel stats ≥2
Disk Write Latency Latencia de escritura del disco en milisegundos Todas Nivel stats ≥2
Data received Tasa de Kbps recibidos del host Todas Nivel stats ≥2
Data transmitted Tasa de Kbps enviados del host Todas Nivel stats ≥2
Packages Received Número de paquetes recibidos en el intervalo Todas Nivel stats ≥2
Packages Transmitted Número de paquetes enviados en el intervalo Todas Nivel stats ≥2
CPU Usage Porcentaje de uso de CPU Todas Nivel stats ≥2
Memory Usage Porcentaje de uso de la memoria RAM Todas Nivel stats ≥2
Net Usage Datos de red recibidos y enviados de todas las NICs Todas Nivel stats ≥2
Disk Rate Tasa I/O agredada en KB/seg Todas Nivel stats ≥2
Max. Disk Latency Latencia máxima de todos los discos Todas Nivel stats ≥2
HeartBeat Número de heartbeats de la máquina virtual Todas Nivel stats ≥2
CPU Ready Porcentaje de tiempo que la máquina está en lista, pero no encolada para ejecutarse en la CPU física Todas Nivel stats ≥2
Number Snapshots Número de snapshots para la máquina virtual (Este módulo puede afectar al rendimiento de la monitorización', por ello se recomienda ejecutarlo con un valor de intervalo alto, por ejemplo cada hora) Todas Si configurado
HA Status Estado HA para la máquina virtual ≥v5.0 Si configurado


Template warning.png

Algunos módulos requieren tener instalado las VMware tools

 


1.2.11 Monitorización de eventos VMware

Esta funcionalidad realiza una copia de los eventos presentes en el vCenter de VMware a la lista de eventos de Pandora FMS.

Estos eventos pasan a formar parte del flujo de eventos normales de Pandora FMS y quedan asociados de forma automática al agente que representa el vCenter del que provienen (si el agente existe en el momento de creación del evento).

Evnetos vmware plugin.png



En el proceso de volcado de eventos se respeta la información y severidad que VMware indica en la creación del evento, de tal forma que los eventos con un nivel de severidad crítico, advertencia o informativo conservaran estos niveles en Pandora. La siguiente imagen muestra un ejemplo de la información detallada de un evento volcado de VMware a Pandora FMS.

Detalle evento vmware plugin.png



Con todos los eventos presentes en Pandora FMS podrá realizar todas las acciones disponibles para la gestión de eventos como por ejemplo: creación de alertas, configuración de filtros, apertura de incidencias, etc.

1.2.12 Gestión y visualización de la arquitectura virtual VMware

Junto con el plugin VMware se distribuyen dos extensiones VMware Manager y VMware View. VMware View permite visualizar todos los componentes de la arquitectura VMware de una forma cómoda, además con VMware Manager podrá gestionar máquinas virtuales parando, arrancando, reseteando o suspendiendo su actividad desde la consola de Pandora FMS. Estas extensiones son opcionales y sólo funcionan con versiones de Pandora FMS 4.0 o superior.
A partir de la versión 4.1 del plugin, estas extensiones estan englobadas en una única extensión que a su vez se divide en las 2 citadas anteriormente, y una última extensión de configuración del plugin VMware Settings. Esta última extensión es compatible únicamente a partir de la versión 5.1 de Pandora FMS.

1.2.12.1 Instalación de extensiones VMware Manager, VMware View y VMware Settings

Para instalar las extensiones simplemente debe copiar el contenido de la carpeta extensions que encontrará al descomprimir el plugin en la carpeta Extensions de la parte Enterprise de la consola de Pandora FMS, los comandos a ejecutar son los siguientes:

cp -R extensions/* <pandora_console_dir>/enterprise/extensions/

Desde ese momento ya estarán las extensiones del plugin VMware.


Info.png

Para usar la extensión VMware Manager es necesario instalar el SDK de VMware para Perl en la máquina donde está encuentra la consola de Pandora FMS

 


1.2.12.2 Usando la extensión VMware View

Para comenzar a usar el visor de arquitecturas VMware haga click en el submenú VMware View dentro del menú Monitoring.


Vmware view menu.png


La extensión VMware View le mostrará un mapa similar al de abajo con toda la arquitectura VMware.


Vmware view map.png



El mapa contiene los elementos de la arquitectura VMware (máquinas virtuales, ESX, Datastores y Datacenters) con diferentes iconos que los identifican así como el estado de los agentes de Pandora FMS que representan cada elemento. Además se muestra la relación que existe entre máquinas virtuales, ESX y DataCenter. De esta manera de un vistazo se puede ver el estado de la arquitectura VMware de un forma muy sencilla.

Esta extensión tiene unas opciones que ayudan a mejorar la visualización de la arquitectura ocultando elementos, aumentando el tamaño de letra y permitiendo hacer zoom para poder ver los elementos más de cerca.

Vmware view map options.png



Usando las opciones anteriores podríamos ver sólo los Datacenter y los ESX con un tamaño de fuente 14 y con un zoom de 2x


Vmware view map options example.png



1.2.12.2.1 VMware View Dashboards (version 5.0 o superior)

Para versiones de Pandora FMS 5.0 o superior la extensión VMware View aporta dos vistas adicionales además de la vista de mapa topológico de la arquitectura virtual. Los nuevos tabs permiten cambiar entre las diferentes vistas de la extensión VMware View.


Vmware tabs 50.png



La primera vista es un dashboard general en el que podrá ver de un vistazo el estado general de la arquitectura virtual en números, es decir, cuántas máquinas virtuales, host ESXi o datastores tienen problemas. Además podrá ver parámetros de rendimiento generales gracias a las gráficas que muestran las 5 máquinas virtuales que más memoria, CPU, disco y red consumen de toda la arquitectura virtual.


Vmware general dashboard.png



La segunda vista permite ver los parámetros de rendimiento de cada host ESX. En esta vista podrá escoger un host ESX para el que se cargará un cuadro de mando en el que se mostrará el estado del host y de las máquinas virtuales, así como unas métricas de rendimiento relativas al uso de CPU, memoria, disco y red del host ESXi. Además esta vista también ofrece unas gráficas que muestran las máquinas virtuales que más recursos (CPU, memoria, disco y red) consumen del host seleccionado.


Vmware esx detail dashboard.png



1.2.12.3 Usando la extensión VMware Manager

Para usar la extensión VMware Manager debe ir a la vista de operación de un agente que se corresponda con una máquina virtual en la arquitectura VMware. Dentro de esta vista podrá ver un icono con el símbolo de VMware que corresponde a la extensión.



Vmware manager icon.png



La extensión VMware Manager permite gestionar máquinas virtuales desde la consola de Pandora FMS. La extensión muestra el estado actual de la máquina virtual con un código de colores (verde = encendida, naranja = suspendida y gris = parada), además en un combo muestra los estados disponibles y permite cambiar el estado de la máquina virtual al seleccionado pulsando el botón Change Status.



Vmware manager options.png



Con esta extensión podríamos parar una máquina virtual que está encendida seleccionando el estado Stop como en la siguiente imagen:



Vmware manager example stop.png



Lo que provocaría que la máquina se parase y la vista de la extensión VMware Manage cambiara mostrando que la máquina ahora está parada como se ve en la siguiente imagen:



Vmware manager example stopped.png



Template warning.png

Esta extensión requiere la instalación del SDK de VMware para Perl en la misma máquina que soporta la consola de Pandora, sin este requisito la extensión no funcionará

 



1.2.13 Configuración del plugin

Por defecto el plugin de VMware descubre todas las entidades y añade los chequeos por defecto. Mediante el archivo de configuración podrá configurar la monitorización y escoger qué variables desea monitorizar.

El archivo de configuración contiene toda la información necesaria para realizar la monitorización agrupada las siguientes secciones: Configuration, Rename, Reject, Datacenter, Datastore, ESX, VM. A continuación se explica cada sección y sus posibles configuraciones.


Info.png

Todos los errores relativos al archivo de configuración son presentados en el log de errores del servidor de Pandora y además en el visor de eventos de la consola de Pandora. Por ello, podrá ver si existe cualquier con el archivo de configuración consultando cualquiera de estas dos fuentes

 


1.2.13.1 Archivo de configuración

1.2.13.1.1 Configuración global

La configuración general está definida por el token Configuration y contiene los siguientes parámetros:

  • server: IP del vCenter.
  • user: usuario del vCenter.
  • pass: contraseña de acceso al vCenter.
  • datacenter: datacenter a monitorizar.
  • temporal: directorio temporal.
  • logfile: ubicación del fichero de log.
  • entities_list: ubicación del fichero que contiene la lista de entidades que son monitorizadas.
  • transfer_mode: modo de transferencia para los XMLs, puede ser tentacle o local.
    • tentacle: envía los archivos XMLs al servidor de Pandora usando el protocolo Tentacle.
    • local: copia los archivos a una carpeta local, el agente debe ejecutarse en la misma máquina donde se encuentra la carpeta local..
  • tentacle_ip: IP del servidor de Pandora al que enviar la información.
  • tentacle_port: puerto del servidor de Pandora al que enviar la información (por defecto 41121).
  • tentacle_opts: opciones adicionales para el envío con tentacle (por defecto ninguna).
  • local_folder: directorio destino para realizar la copia de XMLs con el modo local activado.
  • pandora_url: url de la consola de Pandora (por ejemplo: http://192.168.70.81/pandora_console).
  • api_pass: password de la API de la consola de Pandora.
  • api_user: usuario de la consola de Pandora.
  • api_user_pass: password del usuario de la consola de Pandora.
  • retry_send: Activa (1) o desactiva (0) el reenvío de ficheros .data en el directorio temporal
  • event_mode: flag que activa el modo de recolección de eventos. Si vale 1 está activado, si vale 0 desactivado.
  • event_pointer_file: ubicación del archivo temporal que guarda el puntero para recolección de eventos.
  • verbosity: Nivel de log (0 sólo errores que impiden el funcionamiento del plugin, 1 todos los errores).
  • threads: Número de hilos del plugin. (Por defecto 1).
  • interval: Intervalo de los agentes que representan las entidades VMware.

Un ejemplo de esta sección en el archivo de configuración podría ser la siguiente:

Configuration
server 192.168.70.249
user Administrator
pass S1stemas
datacenter artica
temporal /tmp
logfile /tmp/vmware_plugin.log
entities_list /tmp/vmware_entities_list.txt
transfer_mode tentacle
tentacle_ip 192.168.70.81
tentacle_port 41121
tentacle_opts
local_folder /var/spool/pandora/data_in
pandora_url http://192.168.70.81/pandora_console
api_pass 1234
api_user admin
api_user_pass pandora
event_mode 0
event_pointer_file /tmp/vmware_events_pointer.txt


Info.png

Si está usando el plugin en sistemas Windows será necesario cambiar todas las rutas de los archivos por rutas compatibles con Windows

 


1.2.13.1.2 Renombrado de entidades

El renombrado de entidades se realiza usando el token Rename y permite cambiar el nombre a las entidades descubiertas por el plugin. Usando esta funcionalidad los agentes creados en Pandora aparecerán con el nuevo nombre asignado. La estructura de esta sección es la siguiente:

<nombre actual> TO <nombre nuevo>

Un ejemplo de configuración de esta sección podría ser el siguiente:

#Rename entities
Rename
Debian 11 TO Virtual Machine 1
RedHat 12 TO Web server 
ESX Workstation TO Host Work Sales
1.2.13.1.3 Descarte de entidades

El plugin permite realizar un descarte de entidades por tipo o de forma individual, a continuación se explican ambas opciones.

El descarte de tipos de entidades se realiza usando el token Reject. En esta sección podrá descartar las entidades según su tipo, por ejemplo todas las máquinas virtuales o todos los hosts ESX. Los posibles valores que puede tomar esta sección son los siguientes: all_datastore, all_datacenter, all_esx, all_vm.

Una configuración de esta sección que descarta todas las entidades sería la siguiente:

#Dismissed entities
Reject
all_datastore
all_datacenter
all_esx
all_vm

Para realizar un descarte de entidades de forma individual será necesario borrarlas del archivo de entidades creado por el plugin. El plugin crea este archivo en la ubicación indicada en el parámetro entities_list (por defecto /tmp/vmware_entities_list.txt). El plugin rellena el contenido de este archivo con la primera ejecución, o siempre que no exista, creando una lista con todas las entidades descubiertas. Un ejemplo de archivo podría ser el siguiente:

Datacenter
artica
Datastore
datastore_1
datastore2
ESX
192.168.70.252
VM
Pandora FMS 4.0.3
Debian2
Debian3
Debian4
Redhat
debian5
Debian6
Debian8
Debian7
Debian11
Debian10
Debian9
NSM
Pandora
vcenter
suse11.2

El archivo de configuración se divide en varios tokens: Datacenter, Datastore, ESX y VM donde se listan las diferentes entidades. Una vez que este creado el archivo de configuración el plugin leerá de este archivo las entidades a monitorizar. Para descartar una entidad sólo tiene que borrarla de este fichero. Si por ejemplo no quisiera monitorizar las entidades: Debian2, datastore2, NSM, suse11.2 y 192.168.70.252, el archivo de configuración quedaría así:

Datacenter
artica
Datastore
datastore_1
ESX
VM
Pandora FMS 4.0.3
Debian3
Debian4
Redhat
debian5
Debian6
Debian8
Debian7
Debian11
Debian10
Debian9
Pandora
vcenter

Esta funcionalidad permite realizar una distribución de la carga de monitorización limitando el número de entidades monitorizadas en cada ejecución del plugin. Más adelante se explican varias técnicas de distribución de carga.

1.2.13.1.4 Configuración de monitorización

Las siguientes secciones del archivo configuran los módulos creados para cada tipo de entidad. Las secciones usan los token Datacenter, Datastore, ESX, VM. En estas secciones podrá habilitar/deshabilitar los módulos a monitorizar, en el siguiente ejemplo hemos realizamos una configuración seleccionando los módulos que deseamos crear para los ESX y máquinas virtuales:

...
#ESX Modules
ESX
cpuUsagePercent disabled
diskRead enabled
diskWrite enabled

#VM Modules
VM
diskReadLatency disabled
diskWriteLatency disabled
diskRate enabled
...

Cada línea de configuración se corresponde con un módulo. En el ejemplo anterior los módulos serán creados con los valores por defecto, pero es posible configurar: el nombre, la descripción y los límites para los estados de Advertencia y de Crítico del módulo. Un ejemplo de esta configuración podría ser la siguiente:

...
#VM Modules
VM
diskReadLatency disabled
diskWriteLatency disabled
diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
...

Las opciones disponibles para la configuración de módulos son las siguientes:

  • <modulo> disabled: El módulo NO se creará
  • <modulo> enabled: El módulo SI se creará (con los valores por defecto)
  • <modulo> name = <nombre>; desc = <descripcion>; limits_warn <lim_warn>; limits_crit <lim_crit>: El módulo se creará con el nombre y la descripción proporcionados y además se definirán los umbrales para los máximos y mínimos de los estados Advertencia y Crítico.

Es muy importante tener en cuenta la estructura de las líneas del archivo de configuración y sobre todo ver que el carácter ; va pegado al nombre y la descripción del módulo. Estas dos líneas NO SON EQUIVALENTES (véanse los espacios antes del carácter ; ):

diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
diskRate name = Tasa Disco    ; desc = Tasa Lec/Esc disco    ; limits_warn = 5 10; limits_crit    = 0    4

Los módulos están referenciados por su nombre corto, un nombre equivalente más sencillo de escribir en la línea de comandos. La tabla de correspondencia de nombres cortos y expandidos está en la siguiente sección.

Analicemos la configuración de ejemplo anterior. Hemos configurado el módulo Disk Rate que se creará con los siguientes valores:

* Nombre: Tasa Disco
* Descripción: Tasa Lec/Esc disco
* Min Warning: 5
* Max Warning: 10
* Min Critical: 0
* Max Critical: 4

Hay módulos que se generan de forma dinámica por ejemplo los relativos a discos o interfaces de red. Para estas métricas el plugin crea un módulo por cada elemento descubierto. Estos módulos suelen tener nombres especiales en Pandora, por ejemplo:

Disk Free [0]
Disk Free [1]
Disk Free [2]
...

En estos casos como el nombre tiene parte dinámica, se permite el uso de la macro %s que será sustituida por la parte variable del nombre del módulo. Un ejemplo de configuración de módulos dinámicos sería el siguiente:

diskFree name = Disk (%s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0

En este caso el nombre del módulo por defecto es:

Disk Free [0]

Y pasará a llamarse:

Disk (0) free space

A partir de la versión 5.0 es posible configurar cadenas de texto para los límites de los estados Advertencia y Crítico de los módulos. La configuración sería como la siguiente:

powerState name = Estado funcionamiento; desc = Estado funcionamiento VM; limits_warn = .*suspended.*; limits_crit = .*poweredOff.*

Es posible configurar expresiones regulares para dotar de mayor flexibilidad al establecimiento de los límites.

1.2.13.1.5 Métricas de rendimiento personalizadas

En esta sección es posible configurar nuevos módulos relativos a Performance Counters para las máquinas virtuales y los ESX. Para configurar un nuevo módulo de rendimiento necesitará usar la siguiente estructura:

custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0

Los parámetros a configurar son:

  • type: tipo de métrica a monitorizar. Los tipos de métrica son:
    • cpu: CPU
    • mem: Memory
    • disk: Disk
    • net: Network
    • sys: System
  • metric: métrica a monitorizar (más adelante se explica dónde ver las métricas disponibles).
  • module_type: tipo del módulo de Pandora (por ejemplo: generic_data).
  • name: nombre del módulo.
  • desc: descripción del módulo.
  • limits_warn: límites para el estado Advertencia.
  • limits_crit: límites para el estado Crítico.

Podrá consultar las métricas disponibles para cada tipo en el apartado Performance de cada entidad. Esta vista se encuentra dentro del vCenter y muestra las métricas de rendimiento que es posible monitorizar con el plugin VMware. Por ejemplo, la siguiente imagen muestra la vista de Performance para un host ESX.

Vmware perf view.png



Para ver el listado completo de todas las métricas según su tipo deberá hacer click en el botón Advanced y luego en el boton Char option. Verá una lista con todos los tipos de métricas y las respectivas métricas de cada tipo en una ventana como la que muestra la siguiente imagen.

Vmware perf metrics list.png



Para cada tipo de métrica aparecerán una serie de contadores que son las variables que podremos monitorizar con Pandora. Para monitorizar una variable necesitamos su Internal Name. Además necesitaremos asegurarnos que el nivel de estadísticas, configurado en el vCenter, permite mostrar la variable que buscamos, comparándolo con el campo Collection Level de la métrica.

Vmware perf metrics counter.png



Si por ejemplo queremos ver el uso de CPU de un host ESX, buscaremos las variables tipo cpu para un ESX y de las disponibles escogeremos utilization. La línea que tendremos que añadir al archivo de configuración, en este caso dentro de la sección ESX, será la siguiente:

custom_performance type = cpu; metric = utilization; module_type = generic_data; name = CPU Utilization; desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0

1.2.13.2 Monitorización de varios Datacenter con un mismo agente

Cada módulo plugin configurado en el agente monitoriza un datacenter, por lo que si se quiere monitorizar varios datacenter con un mismo agente software de Pandora FMS será necesario tomar las siguientes consideraciones.

  • Es necesario añadir una module_plugin por cada datacenter a monitorizar, por ejemplo
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
  • En cada archivo de configuración será necesario cambiar los parámetros: logfile, entities_list, event_pointer_file. Los archivos de configuración quedarían como los siguientes:

vmware-plugin-datacenter1.conf

...
logfile /tmp/vmware_plugin_datacenter1.log
entities_list /tmp/vmware_entities_list_datacenter1.txt
event_pointer_file /tmp/vmware_events_pointer_datacenter1.txt
...

vmware-plugin-datacenter2.conf

...
logfile /tmp/vmware_plugin_datacenter2.log
entities_list /tmp/vmware_entities_list_datacenter2.txt
event_pointer_file /tmp/vmware_events_pointer_datacenter2.txt
...


  • Si además desea realizar el copiado de eventos, deberá tener dos módulos plugin más con los respectivos archivos de configuración y activando el flag event_mode. La configuración de los module_plugin sería como la siguiente:
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf

1.2.13.3 Dividir la carga de la monitorización entre varios servidores de Pandora

Las opciones del archivo de configuración del plugin permiten distribuir la carga de monitorización fácilmente entre varios servidores de Pandora FMS. Por ejemplo, supongamos que tenemos la siguiente estructura en nuestro entorno de virtualización:

DC
|
|- Datastore_1
|- DataStore_2
|
|- ESX_1
      |- mv1.1
      |- mv1.2
      |- mv1.3

|- ESX_2
      |- mv2.1
      |- mv2.2
      |- mv2.3

En nuestro entorno disponemos de dos servidores de Pandora FMS para realizar la monitorización. Una manera sencilla de dividir la carga sería monitorizar el Datacenter, los Datastores y los ESX en el primer servidor y todas las máquinas virtuales en el segundo. Los archivos de configuración del plugin serían los siguientes:

Servidor 1:

Reject
all_vm

Servidor 2:

Reject
all_datacenter
all_datastore
all_esx

El Servidor 1 monitoriza todo excepto las máquinas virtuales y el Server 2 sólo monitoriza las máquinas virtuales.

Otra forma de distribuir la carga sería dividiendo la monitorización por ESX, el primer servidor de Pandora monitorizará todo lo relativo al primer servidor ESX y el segundo todo lo perteneciente al segundo ESX. Para ello dividiremos el archivo entities_list.txt en dos archivos y configuraremos dos ejecuciones del plugin en diferentes agentes. Los archivos entities_list.txt quedarían así:

Servidor 1:

Datacenter
DC
Datastore
Datastore_1
ESX
ESX_1
VM
mv1.1
mv1.2
mv1.3

El Servidor 1 omite todo lo relacionado con el segundo grupo de entidades VMware, por lo que se encarga de monitorizar la mitad del entorno.

Servidor 2:

Datastore
DataStore_2
ESX
ESX_2
VM
mv2.1
mv2.2
mv2.3

El Servidor 2 omite todo lo relacionado con el primer grupo de entidades VMware además del Datacenter, ya que esto está siendo monitorizado por el Servidor 1.

La configuración de entidades descartadas es muy flexible y permite dividir la carga asignando unas pocas entidades a cada agente de Pandora FMS.

1.2.13.4 Ejemplos archivo configuración

1.2.13.4.1 Archivo con todos los módulos desactivados
#These lines are comments

#Datacenter Modules
Datacenter
ping disabled
check443 disabled

#Datastore Modules
Datastore
capacity disabled
freeSpace disabled
overallocation disabled
freeSpaceBytes disabled

#ESX Modules
ESX
bootTime disabled
cpuInfo disabled
memorySize disabled
overallCpuUsage disabled
overallMemoryUsage disabled
powerState disabled
sslThumbprint disabled
uptime disabled
vnicInfo disabled
hostAlive disabled
connectionState disabled
diskRead disabled
diskWrite disabled
diskReadLatency disabled
diskWriteLatency disabled
netReceived disabled
netTransmitted disabled
netPkgRx disabled
netPkgTx disabled
cpuUsagePercent disabled
memoryUsagePercent disabled
netUsage disabled
diskRate disabled
maxDiskLatency disabled
haStatus disabled

#VM Modules
VM
bootTime disabled
connectionState disabled
consumedOverheadMemory disabled 
cpuAllocation disabled
diskFree disabled
guestState disabled
host disabled
hostAlive disabled
hostMemoryUsage disabled
hostName disabled
ipAddress disabled
macAddress disabled
maxCpuUsage disabled
maxMemoryUsage disabled
memoryAllocation disabled
memoryOverhead disabled
overallCpuDemand disabled
overallCpuUsage disabled
powerState disabled
privateMemory disabled
sharedMemory disabled
toolsRunningStatus disabled
triggeredAlarmState disabled
virtualImagePath disabled
uptimeSeconds disabled
diskRead disabled
diskWrite disabled
diskReadLatency disabled
diskWriteLatency disabled
netReceived disabled
netTransmitted disabled
netPkgRx disabled
netPkgTx  disabled
cpuUsagePercent disabled
memoryUsagePercent disabled
netUsage disabled
diskRate disabled
maxDiskLatency disabled
heartbeat disabled
cpuReady disabled
snapshotCounter disabled

1.2.13.5 Tabla de correspondencia de nombres cortos

1.2.13.5.1 Datacenter
Nombre expandido Nombre corto
Ping ping
Check 443 port check443
1.2.13.5.2 Datastores
Nombre expandido Nombre corto
Capacity capacity
Free Space freeSpace
Disk Overallocation overallocation
Free Space Bytes freeSpaceBytes
1.2.13.5.3 ESX
Nombre expandido Nombre corto
Boot Time bootTime
CPU Info cpuInfo
Memory Size memorySize
Overall CPU Usage overallCpuUsage
Overall Memory Usage overallMemoryUsage
Power State powerState
SSL Thumbprint sslThumbprint
Uptime uptime
VNIC Info vnicInfo
Host Alive hostAlive
Connection State connectionState
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HA Status haStatus
Sensor* systemHealthInfo
1.2.13.5.4 Máquinas Virtuales
Nombre expandido Nombre corto
Boot Time bootTime
Connection State connectionState
Consumed Overhead Memory consumedOverheadMemory
CPU Allocation cpuAllocation
Disk Free diskFree
Guest State guestState
Host Info host
Host Alive hostAlive
Host Memory Usage hostMemoryUsage
Host Name hostName
IP Address ipAddress
MAC Address macAddress
Max CPU Usage maxCpuUsage
Max Memory Usage maxMemoryUsage
Memory Allocation memoryAllocation
Memory Overhead memoryOverhead
Overall CPU Demand overallCpuDemand
Overall CPU Usage overallCpuUsage
Power State powerState
Private Memory privateMemory
Shared Memory sharedMemory
Tools Running Status toolsRunningStatus
Trigger Alarm State triggeredAlarmState
Uptime Seconds uptimeSeconds
Virtual Image Path virtualImagePath
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HeartBeat heartbeat
CPU Ready cpuReady
Number Snapshots snapshotCounter
HA Status haStatus

1.2.13.6 Tabla de eventos

Info.png

Esta lista de eventos se facilita para hacer más sencilla la tarea de configuración de alertas de eventos en Pandora FMS. Para obtener una referencia completa y actualizada de todos los posibles eventos deberá consultar la documentación que VMware tenga al respecto

 


Evento Severidad Tipo de evento Grupo
An account was created on host {host.name} Informational System All
Account {account} was removed on host {host.name} Informational System All
An account was updated on host {host.name} Informational System All
The default password for the root user on the host {host.name} has not been changed Informational System All
Alarm '{alarm.name}' on {entity.name} triggered an action Informational System All
Created alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} sent email to {to} Informational System All
Alarm '{alarm.name}' on {entity.name} cannot send email to {to} Critical System All
Reconfigured alarm '{alarm.name}' on {entity.name} Informational System All
Removed alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} ran script {script} Informational System All
Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} Critical System All
Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent Informational System All
Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} Critical System All
Alarm '{alarm.name}' on {entity.name} changed from {from.@enum.ManagedEntity.Status} to {to.@enum.ManagedEntity.Status} Informational System All
All running virtual machines are licensed Informational System All
User cannot logon since the user is already logged on Informational System All
Cannot login {userName}@{ipAddress} Critical System All
The operation performed on host {host.name} in {datacenter.name} was canceled Informational System All
Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. Informational System All
Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. Critical System All
Checked cluster for compliance Informational System All
Created cluster {computeResource.name} in {datacenter.name} Informational System All
Removed cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Configuration status on cluster {computeResource.name} changed from {oldStatus.@enum.ManagedEntity.Status} to {newStatus.@enum.ManagedEntity.Status} in {datacenter.name} Informational System All
Created new custom field definition {name} Informational System All
Removed field definition {name} Informational System All
Renamed field definition from {name} to {newName} Informational System All
Changed custom field {name} on {entity.name} in {datacenter.name} to {value} Informational System All
Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. Informational System All
An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. Critical System All
An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. Critical System All
Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. Informational System All
Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. Informational System All
The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. Critical System All
An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. Critical System All
dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. Informational System All
dvPort group {net.name} in {datacenter.name} was deleted. Informational System All
Informational System All
dvPort group {net.name} in {datacenter.name} was reconfigured. Informational System All
dvPort group {oldName} in {datacenter.name} was renamed to {newName} Informational System All
HA admission control disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA admission control enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
Re-established contact with a primary host in this HA cluster Informational System All
Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} Critical System All
All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. Critical System All
HA disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} Critical System All
Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} Warning System All
Created datacenter {datacenter.name} in folder {parent.name} Informational System All
Renamed datacenter from {oldName} to {newName} Informational System All
Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} Informational System All
Removed unconfigured datastore {datastore.name} Informational System All
Discovered datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} Critical System All
<internal> Informational System All
File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
File or directory {targetFile} deleted from {datastore.name} Informational System All
File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
Reconfigured Storage I/O Control on datastore {datastore.name} Informational System All
Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} Informational System All
Removed datastore {datastore.name} from {host.name} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} Informational System All
DRS put {host.name} into standby mode Informational System All
DRS is putting {host.name} into standby mode Informational System All
DRS cannot move {host.name} out of standby mode Critical System All
DRS moved {host.name} out of standby mode Informational System All
DRS is moving {host.name} out of standby mode Informational System All
DRS invocation not completed Critical System All
DRS has recovered from the failure Informational System All
Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. Critical System All
Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules Informational System All
{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule Informational System All
DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
DRS powered On {vm.name} on {host.name} in {datacenter.name} Informational System All
Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} Informational System All
A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. Informational System All
vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. Informational System All
vNetwork Distributed Switch event Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. Informational System All
The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. Warning System All
vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. Informational System All
dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. Informational System All
The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. Informational System All
The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. Informational System All
Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} Informational System All
vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. Informational System All
Host {host.name} in {datacenter.name} has entered maintenance mode Informational System All
The host {host.name} is in standby mode Informational System All
Host {host.name} in {datacenter.name} has started to enter maintenance mode Informational System All
The host {host.name} is entering standby mode Informational System All
{message} Critical System All
Host {host.name} in {datacenter.name} has exited maintenance mode Informational System All
The host {host.name} could not exit standby mode Critical System All
The host {host.name} is no longer in standby mode Informational System All
The host {host.name} is exiting standby mode Informational System All
Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} Informational System All
General event: {message} Informational System All
Error detected on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected on {host.name} in {datacenter.name}: {message} Warning System All
User logged event: {message} Informational System All
Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. Informational System All
A ghost proxy switch {switchUuid} on the host {host.name} was resolved. Informational System All
The message changed: {message} Informational System All
{componentName} status changed from {oldStatus} to {newStatus} Informational System All
Cannot add host {hostname} to datacenter {datacenter.name} Critical System All
Added host {host.name} to datacenter {datacenter.name} Informational System All
Administrator access to the host {host.name} is disabled Warning System All
Administrator access to the host {host.name} has been restored Warning System All
Cannot connect {host.name} in {datacenter.name}: cannot configure management account Critical System All
Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} Critical System All
Cannot connect host {host.name} in {datacenter.name} : server agent is not responding Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect user name or password Critical System All
Cannot connect {host.name} in {datacenter.name}: incompatible version Critical System All
Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. Critical System All
Cannot connect {host.name} in {datacenter.name}: error connecting to host Critical System All
Cannot connect {host.name} in {datacenter.name}: network error Critical System All
Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges Critical System All
Cannot connect host {host.name} in {datacenter.name} Critical System All
Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect host name Critical System All
Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response Critical System All
Host {host.name} checked for compliance. Informational System All
Host {host.name} is in compliance with the attached profile Informational System All
Host configuration changes applied. Informational System All
Connected to {host.name} in {datacenter.name} Informational System All
Host {host.name} in {datacenter.name} is not responding Critical System All
dvPort connected to host {host.name} in {datacenter.name} changed status Informational System All
HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {reason.@enum.HostDasErrorEvent.HostDasErrorReason} Critical System All
HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly Informational System All
Disconnected from {host.name} in {datacenter.name}. Reason: {reason.@enum.HostDisconnectedEvent.ReasonCode} Informational System All
Cannot restore some administrator permissions to the host {host.name} Critical System All
Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format Critical System All
Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached Critical System All
The virtual machine inventory file on host {host.name} is damaged or unreadable. Informational System All
IP address of the host {host.name} changed from {oldIP} to {newIP} Informational System All
Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} Critical System All
Cannot resolve IP address to short name on host {host.name} Critical System All
Host {host.name} could not reach isolation address: {isolationIp} Critical System All
A host license for {host.name} has expired Critical System All
Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Host monitoring state in {computeResource.name} in {datacenter.name} changed to {state.@enum.DasConfigInfo.ServiceState} Informational System All
Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} Critical System All
Host {host.name} has no port groups enabled for HA communication. Critical System All
Host {host.name} currently has no management network redundancy Critical System All
Host {host.name} is not in compliance with the attached profile Critical System All
Host {host.name} is not a cluster member in {datacenter.name} Critical System All
Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Primary agent {primaryAgent} was not specified as a short name to host {host.name} Critical System All
Profile is applied on the host {host.name} Informational System All
Cannot reconnect to {host.name} in {datacenter.name} Critical System All
Removed host {host.name} in {datacenter.name} Informational System All
Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries Critical System All
Cannot resolve short name {shortName} to IP address on host {host.name} Critical System All
Shut down of {host.name} in {datacenter.name}: {reason} Informational System All
Configuration status on host {computeResource.name} changed from {oldStatus.@enum.ManagedEntity.Status} to {newStatus.@enum.ManagedEntity.Status} in {datacenter.name} Informational System All
Cannot synchronize host {host.name}. {reason.msg} Critical System All
Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} Critical System All
The userworld swap is not enabled on the host {host.name} Warning System All
Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. Informational System All
WWNs are changed for {host.name} Warning System All
The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN Critical System All
Host {host.name} did not provide the information needed to acquire the correct set of licenses Critical System All
{message} Informational System All
Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} Critical System All
The license edition '{feature}' is invalid Critical System All
License {feature.featureName} has expired Critical System All
License inventory is not compliant. Licenses are overused Critical System All
Unable to acquire licenses due to a restriction in the option file on the license server. Critical System All
License server {licenseServer} is available Informational System All
License server {licenseServer} is unavailable Critical System All
Created local datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
The Local Tech Support Mode for the host {host.name} has been enabled Informational System All
Datastore {datastore} which is configured to back the locker does not exist Warning System All
Locker was reconfigured from {oldDatastore} to {newDatastore} datastore Informational System All
Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Critical System All
Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Warning System All
Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Warning System All
Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Warning System All
Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Cannot login user {userName}@{ipAddress}: no permission Critical System All
No datastores have been configured on the host {host.name} Informational System All
A required license {feature.featureName} is not reserved Critical System All
Unable to automatically migrate {vm.name} from {host.name} Informational System All
Non-VI workload detected on datastore {datastore.name} Critical System All
Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} Informational System All
The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. Warning System All
Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {propagate.@enum.auth.Permission.propagate} Informational System All
Permission rule removed for {principal} on {entity.name} Informational System All
Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {propagate.@enum.auth.Permission.propagate} Informational System All
Profile {profile.name} attached. Informational System All
Profile {profile.name} was changed. Informational System All
Profile is created. Informational System All
Profile {profile.name} detached. Informational System All
Profile {profile.name} reference host changed. Informational System All
Profile was removed. Informational System All
Remote Tech Support Mode (SSH) for the host {host.name} has been enabled Informational System All
Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} Informational System All
Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} Informational System All
Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Critical System All
New role {role.name} created Informational System All
Role {role.name} removed Informational System All
Modifed role {role.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully Informational System All
Created task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} Critical System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} Critical System All
Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Running task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
A vCenter Server license has expired Critical System All
vCenter started Informational System All
A session for user '{terminatedUsername}' has stopped Informational System All
Task: {info.descriptionId} Informational System All
Task: {info.descriptionId} time-out Informational System All
Upgrading template {legacyTemplate} Informational System All
Cannot upgrade template {legacyTemplate} due to: {reason.msg} Informational System All
Template {legacyTemplate} upgrade completed Informational System All
The operation performed on {host.name} in {datacenter.name} timed out Warning System All
There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available Informational System All
{unlicensed} unlicensed virtual machines found on host {host} Informational System All
The agent on host {host.name} is updated and will soon restart Informational System All
User {userLogin} was added to group {group} Informational System All
User {userName}@{ipAddress} logged in Informational System All
User {userName} logged out Informational System All
Password was changed for account {userLogin} on host {host.name} Informational System All
User {userLogin} removed from group {group} Informational System All
{message} Informational System All
Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
A vMotion license for {host.name} has expired Critical System All
Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {reason.@enum.fault.AgentInstallFailed.Reason} Critical System All
vCenter agent has been uninstalled from {host.name} in {datacenter.name} Informational System All
Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {reason.@enum.fault.AgentInstallFailed.Reason} Critical System All
vCenter agent has been upgraded on {host.name} in {datacenter.name} Informational System All
VIM account password was changed on host {host.name} Informational System All
Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened Informational System All
A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired Informational System All
Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Creating {vm.name} on host {host.name} in {datacenter.name} Informational System All
Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} Informational System All
Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} Informational System All
Cannot clone {vm.name}: {reason.msg} Critical System All
Clone of {sourceVm.name} completed Informational System All
Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found Informational System All
Virtual machine {vm.name} is connected Informational System All
Created virtual machine {vm.name} on {host.name} in {datacenter.name} Informational System All
dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {reason.@enum.VmDasBeingResetEvent.ReasonCode} Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {reason.@enum.VmDasBeingResetEvent.ReasonCode}. A screenshot is saved at {screenshotFilePath}. Informational System All
Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
Unable to update HA agents given the state of {vm.name} Critical System All
HA agents have been updated with the current state of the virtual machine Informational System All
Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back Critical System All
Cannot deploy template: {reason.msg} Critical System All
Template {srcTemplate.name} deployed on host {host.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is disconnected Informational System All
Discovered {vm.name} on {host.name} in {datacenter.name} Informational System All
Cannot create virtual disk {disk} Critical System All
Migrating {vm.name} off host {host.name} in {datacenter.name} Informational System All
End a recording session on {vm.name} Informational System All
End a replay session on {vm.name} Informational System All
Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Critical System All
Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. Critical System All
vCenter cannot start the Secondary VM {vm.name}. Reason: {reason.@enum.VmFailedStartingSecondaryEvent.FailureReason} Critical System All
Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
vCenter cannot update the Secondary VM {vm.name} configuration Critical System All
Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} Warning System All
Fault Tolerance state on {vm.name} changed from {oldState.@enum.VirtualMachine.FaultToleranceState} to {newState.@enum.VirtualMachine.FaultToleranceState} Informational System All
Fault Tolerance protection has been turned off for {vm.name} Informational System All
The Fault Tolerance VM ({vm.name}) has been terminated. {reason.@enum.VmFaultToleranceVmTerminatedEvent.TerminateReason} Informational System All
Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS standby for {vm.name} on {host.name} in {datacenter.name} Informational System All
VM monitoring state in {computeResource.name} in {datacenter.name} changed to {state.@enum.DasConfigInfo.VmMonitoringState} Informational System All
Assign a new instance UUID ({instanceUuid}) to {vm.name} Informational System All
The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) Informational System All
The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} Critical System All
New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} Informational System All
Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} Warning System All
The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Error message on {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Message on {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed Informational System All
No compatible host for the Secondary VM {vm.name} Critical System All
Not all networks for {vm.name} are accessible by {destHost.name} Warning System All
{vm.name} does not exist on {host.name} in {datacenter.name} Warning System All
{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered off Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered on Informational System All
Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. Informational System All
VM ({vm.name}) failed over to {host.name}. {reason.@enum.VirtualMachine.NeedSecondaryReason} Critical System All
Reconfigured {vm.name} on {host.name} in {datacenter.name} Informational System All
Registered {vm.name} on {host.name} in {datacenter.name} Informational System All
Relayout of {vm.name} on {host.name} in {datacenter.name} completed Informational System All
{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary Informational System All
{vm.name} on {host.name} reloaded from new configuration {configPath}. Informational System All
{vm.name} on {host.name} could not be reloaded from {configPath}. Critical System All
Cannot relocate virtual machine '{vm.name}' in {datacenter.name} Critical System All
Completed the relocation of the virtual machine Informational System All
Remote console connected to {vm.name} on host {host.name} Informational System All
Remote console disconnected from {vm.name} on host {host.name} Informational System All
Removed {vm.name} on {host.name} from {datacenter.name} Informational System All
Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} Warning System All
{vm.name} on {host.name} in {datacenter.name} is reset Informational System All
Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} Informational System All
Changed resource allocation for {vm.name} Informational System All
Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed Informational System All
{vm.name} on {host.name} in {datacenter.name} is resumed Informational System All
A Secondary VM has been added for {vm.name} Informational System All
vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. Critical System All
Disabled Secondary VM for {vm.name} Informational System All
Enabled Secondary VM for {vm.name} Informational System All
Started Secondary VM for {vm.name} Informational System All
{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {shutdownResult.@enum.VmShutdownOnIsolationEvent.Operation} Informational System All
Start a recording session on {vm.name} Informational System All
Start a replay session on {vm.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is starting Informational System All
Starting Secondary VM for {vm.name} Informational System All
The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
{vm.name} on {host.name} in {datacenter.name} is stopping Informational System All
{vm.name} on {host.name} in {datacenter.name} is suspended Informational System All
{vm.name} on {host.name} in {datacenter.name} is being suspended Informational System All
Starting the Secondary VM {vm.name} timed out within {timeout} ms Critical System All
Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} Warning System All
Virtual hardware upgraded to version {version} Informational System All
Cannot upgrade virtual hardware Critical System All
Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} Informational System All
Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} Informational System All
Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} Warning System All
BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} Critical System All
New WWNs assigned to {vm.name} Informational System All
WWNs are changed for {vm.name} Warning System All
The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN Critical System All
{message} Warning System All
Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. Warning System All
com.vmware.license.AddLicenseEvent|License {licenseKey} added to VirtualCenter Informational System All
com.vmware.license.AssignLicenseEvent|License {licenseKey} assigned to asset {entityName} with id {entityId} Informational System All
com.vmware.license.DLFDownloadFailedEvent|Failed to download license information from the host {hostname} due to {errorReason.@enum.com.vmware.license.DLFDownloadFailedEvent.DLFDownloadFailedReason} Warning System All
com.vmware.license.LicenseAssignFailedEvent|License assignment on the host fails. Reasons: {errorMessage.@enum.com.vmware.license.LicenseAssignError}. Informational System All
com.vmware.license.LicenseExpiryEvent|Your host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. Warning System All
com.vmware.license.LicenseUserThresholdExceededEvent|Current license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) Warning System All
com.vmware.license.RemoveLicenseEvent|License {licenseKey} removed from VirtualCenter Informational System All
com.vmware.license.UnassignLicenseEvent|License unassigned from asset {entityName} with id {entityId} Informational System All
com.vmware.vc.HA.ClusterFailoverActionCompletedEvent|HA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.HA.ClusterFailoverActionInitiatedEvent|HA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.DasAgentRunningEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running Informational System All
com.vmware.vc.HA.DasFailoverHostFailedEvent|HA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed Critical System All
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent|All shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent|All VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostFailedEvent|A possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostMonitoringDisabledEvent|No virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.HA.DasTotalClusterFailureEvent|HA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.HostDasAgentHealthyEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy Informational System All
com.vmware.vc.HA.HostDasErrorEvent|HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {reason.@enum.HostDasErrorEvent.HostDasErrorReason} Critical System All
com.vmware.vc.VCHealthStateChangedEvent|vCenter Service overall health changed from '{oldState}' to '{newState}' Informational System All
com.vmware.vc.cim.CIMGroupHealthStateChanged|Health of [data.group] changed from [data.oldState] to [data.newState]. Informational System All
com.vmware.vc.datastore.UpdateVmFilesFailedEvent|Failed to update VM files on datastore {ds.name} using host {hostName} Critical System All
com.vmware.vc.datastore.UpdatedVmFilesEvent|Updated VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.datastore.UpdatingVmFilesEvent|Updating VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.ft.VmAffectedByDasDisabledEvent|VMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. Warning System All
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent|Network passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent|Network passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled Informational System All
com.vmware.vc.vcp.FtFailoverEvent|FT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure Informational System All
com.vmware.vc.vcp.FtFailoverFailedEvent|FT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary Critical System All
com.vmware.vc.vcp.FtSecondaryRestartEvent|HA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure Informational System All
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent|FT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long Informational System All
com.vmware.vc.vcp.TestEndEvent|VM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.TestStartEvent|VM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VcpNoActionEvent|HA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting Informational System All
com.vmware.vc.vcp.VmDatastoreFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} Critical System All
com.vmware.vc.vcp.VmNetworkFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} Critical System All
com.vmware.vc.vcp.VmPowerOffHangEvent|HA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying Critical System All
com.vmware.vc.vcp.VmRestartEvent|HA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VmRestartFailedEvent|Virtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.VmWaitForCandidateHostEvent|HA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying Critical System All
com.vmware.vc.vmam.AppMonitoringNotSupported|Application monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent|Application heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent|Application heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
esx.clear.net.connectivity.restored|Network connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.dvport.connectivity.restored|Network connectivity restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.dvport.redundancy.restored|Uplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.redundancy.restored|Uplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.vmnic.linkstate.up|Physical NIC {1} linkstate is up. Informational System All
esx.clear.storage.connectivity.restored|Connectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.clear.storage.redundancy.restored|Path redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.problem.apei.bert.memory.error.corrected|A corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.fatal|A fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.recoverable|A recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.pcie.error.corrected|A corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.fatal|Platform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.recoverable|A recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.iorm.nonviworkload|An external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. Informational System All
esx.problem.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
esx.problem.net.dvport.connectivity.lost|Lost network connectivity on DVPorts: {1}. Physical NIC {2} is down. Critical System All
esx.problem.net.dvport.redundancy.degraded|Uplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.dvport.redundancy.lost|Lost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
esx.problem.net.migrate.bindtovmk|The ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
esx.problem.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
esx.problem.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.uplink.mtu.failed|VMkernel failed to set the MTU value {1} on the uplink {2}. Warning System All
esx.problem.net.vmknic.ip.duplicate|A duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. Warning System All
esx.problem.net.vmnic.linkstate.down|Physical NIC {1} linkstate is down. Informational System All
esx.problem.net.vmnic.watchdog.reset|Uplink {1} has recovered from a transient failure due to watchdog timeout Informational System All
esx.problem.scsi.device.limitreached|The maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. Critical System All
esx.problem.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. Warning System All
esx.problem.scsi.scsipath.limitreached|The maximum number of supported paths of {1} has been reached. Path {2} could not be added. Critical System All
esx.problem.storage.connectivity.devicepor|Frequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} Warning System All
esx.problem.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
esx.problem.storage.connectivity.pathpor|Frequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.connectivity.pathstatechanges|Frequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
esx.problem.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
esx.problem.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
esx.problem.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
esx.problem.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.nfs.mount.connect.failed|Failed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.mount.limit.exceeded|Failed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
esx.problem.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
esx.problem.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All
vim.event.LicenseDowngradedEvent|License downgrade: {licenseKey} removes the following features: {lostFeatures} Warning System All
vprob.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
vprob.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
vprob.net.migrate.bindtovmk|The ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
vprob.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
vprob.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. Warning System All
vprob.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
vprob.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Warning System All
vprob.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
vprob.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. Warning System All
vprob.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
vprob.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
vprob.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
vprob.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
vprob.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
vprob.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. Critical System All
vprob.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
vprob.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
vprob.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
vprob.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All

1.3 Monitorización de entornos RHEV

Red Hat Enterprise Virtualization (RHEV) es una de las tecnologías más usadas por empresas que tienen como base el sistema operativo Red Hat en su Data Center. Pandora FMS Enterprise ofrece la posibilidad de monitorizar las arquitecturas virtuales basadas en RHEV mediante el plugin RHEV Monitoring Plugin que permite controlar de forma sencilla todos los aspectos relacionados con la arquitectura virutal RHEV.

1.3.1 Arquitectura a monitorizar

Con el plugin es posible monitorizar la arquitectura completa de un sistema RHEV: Data Centers, Host Clusters, Storage Domains, Networks, Hosts y Virtual Machines, ofreciendo una visión global del estado del entorno virtual.

Para ello Pandora usa el API oficial que provee el sistema de virtualización RHEV.

1.3.2 Monitorización con RHEV Monitoring Plugin

La monitorización de entornos virtuales RHEV se basa en dos componentes:

  1. Un plugin de agente que realiza las tareas de autodescubrimiento y recogida datos. El plugin de agente es el encargado de enviar la información a Pandora FMS.
  2. Un scrip de reconocimiento que actualiza diversos valores para las entidades descubiertas. Este script es necesario para el correcto funcionamiento de las extensiones del plugin.
  3. Extensión RHEV Viewer y RHEV Manager. Son extensiones que aportan un valor añadido permitiendo ver la infraestructura monitorizada y operar apadando/encendiendo máquinas virtuales todo ello desde la consola web de Pandora FMS.


Template warning.png

Para poder usar el script de reconocimiento es necesario tener activados el reconserver

 


Template warning.png

Para que ciertas variables del API reflejen el valor real de la máquina virtual asociada es necesario instalar el Agente de RHEV podrá encontra todo al respecto en la documentación de su versión de RHEV

 


Info.png

Para la monitorización del sistema operativo instalado en las máquinas virtuales se recomienda usar un agente de Pandora FMS en lugar del API RHEV

 


1.3.2.1 Funcionamiento interno del plugin

El plugin RHEV Monitoring Plugin extrae la información mediante el API web que sirve el entorno de virtualización RHEV.

Si sólo necesita la información de monitorización lo único que tiene que configurar es el plugin de agente que realizará esta tarea.

El plugin de agente realiza un descubrimiento de dispositivos y compone los XML con los módulos para cada uno de ellos. La configuración del plugin permite escoger qué elementos van a ser monitorizados y la configuración de sus módulos. Los módulos creados por el plugin son configurables y es posible: cambiar el nombre y la descripción y añadir valores máximos y mínimos para los estados Warning y Critical del módulo.


Template warning.png

La actualización de valores para los estados Warning y Critical a través de XML está disponible para versiones 4.0 y posteriores de Pandora FMS, en versiones anteriores será necesario realizar esta configuración mediante la consola web

 


Una vez creados los XMLs el plugin de agente envía los archivos, bien usando tentacle o bien los copia a un directorio local, según el método de transferencia escogido.

Si además va a usar las extensión RHEV Viewer y RHEV Manager necesitará usar el script de reconocimiento.

El script de reconocimiento es el encargado de actualizar unas variables para cada uno de los agentes detectados en Pandora según los valores configurados en RHEV. Estas variables son necesarias para poder visualizar las entidades correctamente en la extensión RHEV Viewer y gestionar adecuadamente las máquinas virtuales con la extensión RHEV Manager.

1.3.3 Requisitos previos a la instalación

El plugin de agente requiere el siguiente software:

  • curl
  • perl-XML-Simple
  • agente software de Pandora FMS
  • tentacle_client (si se quiere usar tentacle para enviar los archivos, tentacle_client se instala junto con el Agente Software de Pandora FMS)

1.3.3.1 Red Hat

En sistemas basados en Red Hat puede instalar las dependencias con el comando:

yum install perl-XML-Simple curl

1.3.3.2 SLES

En sistemas basados en SUSE puede instalar las dependencias con el comando:

zypper install perl-XML-Simple curl

1.3.3.3 Debian/Ubuntu

En sistemas basados en Debiand/Ubuntu puede instalar las dependencias con el comando:

apt-get install libxml-simple-perl curl

1.3.3.4 Instalación del agente software de Pandora FMS

La instalación del agente software de Pandora FMS se explica en la sección Instalación de Pandora FMS, ahí encontrará todo lo necesario para realizar la instalación de dicho agente en su plataforma.

1.3.4 Descarga del certificado de RHEV

Antes de usar el plugin será necesario descargar el certificado que permite la conexión por HTTPS al API de RHEV. Para ello ejecute el siguiente comando:

curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt

Donde [RHEVM-HOST] es el nombre del servidor que sirve el API de RHEV. Un ejemplo concreto podría ser:

curl -o rhevm.cer http://rhevm.server:8080/ca.crt

Una vez descargado el certificado podemos comprobar que la conexión al API se realiza de forma correcta con el siguiente comando:

curl -X GET -H "Accept: application/xml" -u [USER:PASS] --cacert [CERT] https://[RHEVM-HOST]:8443/api

Con los siguientes valores:

  • USER: usuario@dominio para conectarse al API
  • PASS: contraseña del usuario con el que se conectará al API
  • CERT: ruta al certificado descargado en el paso anterior
  • RHEVM-HOST: dirección del host que sirve el API

Un ejemplo con datos concretos del comando sería como el siguiente:

curl -X GET -H "Accept: application/xml" -u [user@testdomain:12345] --cacert /home/user/ca.crt https://rhevm.server:8443/api

Si todo fue bien el comando devolverá una salida en formato XML con información general sobre el API de RHEV.

1.3.5 Consideraciones previas sobre la configuración de RHEV

En el entorno de virutalización RHEV es posible que varias entidades tengan un mismo nombre. Esto supone un problema ya que en Pandora FMS esas entidades se transformarán en agentes en los que no se permite duplicidad en los nombres. Además también generará problemas a la hora de parsear el resultado devuelto por el API en formato XML mostrando un error parecido al siguiente:

Warning: <data_center> element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199

Para solucionar el problema lo único necesario es seguir una nomenclatura de nombres para las entidades del entorno de virutalización RHEV en el que no se repitan los nombres.

1.3.6 Instalación del plugin de agente

Para instalar el plugin de agente sólo tiene que copiar el script rhev-plugin.pl y el archivo de configuración rhev-plugin.conf en un directorio de la máquina donde está instalado el agente de Pandora que ejecutará el plugin. El plugin se puede ejecutar en un agente instalado en las misma máquina que el servidor de Pandora FMS o en otra máquina distinta.

Para ejecutar el plugin debe añadir al archivo de configuración del agente (por defecto /etc/pandora/pandora_agent.conf) la siguiente línea:

module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf

Añadiendo esta línea el plugin de agente realizará sus funciones en cada ejecución del agente.

1.3.7 Monitorizando la arquitectura virtual RHEV

Para ver el resultado de la ejecución del plugin de agente entramos en Monitoring > Views > Agent Detail.

Menu monitoring.png



Como se puede ver, el plugin ha creado un agente en Pandora FMS por cada una de las entidades detectadas en el descubrimiento de la arquitectura RHEV.

List agents rhev.png



Si pulsamos sobre el nombre de un agente podremos ver los módulos de monitorización creados por el plugin, además de otros datos relativos al agente como se puede ver en la siguiente imagen:

Rhev agent vm.png



Para cada tipo de entidad se crean automáticamente una serie de módulos determinados monitorizando la información importante de cada una de ellas. Por ejemplo en la siguiente imagen se pueden ver algunos de los módulos que se crean para monitorizar las Máquinas Virtuales.

Rhev vm modules.png



Si el agente seleccionado correspondiera a un Host en lugar de una Máquina Virtual, los módulos de monitorización serían distintos. La siguiente imagen muestra un ejemplo de los módulos que contiene un agente referenciado a un Host.

Rhev host modules.png



El plugin RHEV también monitoriza los eventos ocurridos dentro de la arquitectura virtual. El plugin creará un módulo para cada evento monitorizado dentro de cada entidad afectada, como se puede ver en la siguiente imagen.

Event module.png



Los datos para los módulos creados a partir de eventos son datos del evento: hora del suceso, descripción del evento. Un ejemplo de datos se puede ver en la siguiente imagen.

Datos modulo eventos rhev.png



Además de los agentes y los módulos relativos a la arquitectura RHEV propiamente dicha, se genera un módulo en el agente que ejecuta el plugin. Este módulo se llama, por defecto, RHEV Plugin un ejemplo del resultado de este módulo se ve en la siguiente imagen.

Result modulo plugin agente rhev.png



El contenido del módulo será el resultado de ejecución del plugin, podrá ser OK si todo es correcto o mostrará una cadena de error con la explicación del mismo si algo inesperado ocurre. Esta información además de en el módulo del plugin se podrá consultar en un archivo de log.

1.3.7.1 Monitorizando el estado de las entidades

Los módulos de estado de las diferentes entidades devuelven los valores predefinidos en la arquitectura RHEV. Esto significa que los valores serán cadenas de texto cuyo contenido será: up, down, error, maintenance, non_operational, etc. dependiendo del estado y la entidad monitorizada.

Para asignar valores warning y critical será necesario definir una expresión regular en la configuración del módulo. Por ejemplo, para definir un estado crítico en un módulo que está determinado por los valores error, down y non_operational, insertamos en el campo Str. del valor critical del módulo la siguiente expresión regular:

error|down|non_operational

En versiones anteriores a Pandora FMS 4.0 no está disponible esta opción, pero podrá definir una alerta que se dispare usando la misma condición. Para crear una plantilla con el mismo ejemplo anterior realizaríamos los siguientes pasos:

  1. Crearemos una plantilla de alerta con prioridad crítica y en el campo Condition Type usaremos el tipo Regular expresion.
  2. En el campo value insertaremos una expresion regular como la siguiente: error|down|non_operational. Esto quiere decir que la alerta será disparada cuando el módulo tome los valores error, down o non_operational.
  3. Completaremos los pasos restantes de creación de la plantilla normalmente.

Una vez definida la plantilla podremos escoger cualquier acción a ejecutar cuando la alerta se dispare: crear un evento, enviar un email o SMS, etc.

1.3.8 Módulos de agente de la arquitectura virtual RHEV

A continuación se detallan los módulos disponibles para cada elemento de la arquitecture RHEV.

1.3.8.1 Data Center

  • Status: Estado del Data Center.

1.3.8.2 Storage Domain

  • Available Space: Espacio disponible en el Storage Domain.
  • Committed Space: Espacio comprometido en el Storage Domain.
  • Used Space: Espacio usado en el Storage Domain.
  • Percent Free Space: Procentaje de espacio libre en el Storage Domain.

1.3.8.3 Network

  • Status: Estado de la red virtual.
  • STP Status: Estado de la funcionalidad Spanning Tree Protocol

1.3.8.4 Cluster

  • Overcommit Percent: Porcentaje de sobreasignación del cluster.
  • Transparent HugePages: Estado de la funcionalidad Transparent HugePages.
  • High threshold: Límite superior en las políticas de planificación.
  • Low threshold: Límite inferior en las políticas de planificación.
  • Threshold duration: Duración de los límites en las políticas de planificación.

1.3.8.5 Host

  • Status: Estado del Host.
  • Buffers size: Tamaño de los buffers.
  • Cache size: Tamaño de la cache.
  • Cached swap: Cantidad de memoria Swap cacheada (en bytes).
  • Free memory: Cantidad de memoria libre (en bytes).
  • Percent free memory: Porcentaje de memoria libre.
  • Swap cached percent: Procentaje de memoria Swap cacheada.
  • Swap free: Cantida de memoria Swap libre (en bytes).
  • Swap free percent: Porcentaje de memoria Swap libre.
  • Total Memory: Cantidad total de memoria del Host (en bytes).
  • Total Swap: Cantidad total de memoria Swap (en bytes).
  • Used memory: Cantidad total de memoria usada (en bytes).
  • Used Swap: Cantidad total de memoria Swap usada (en bytes).
  • Nic [x] TX: Ratio de transferencia para el nic x (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] RX: Ratio de recepción para el nic x (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros TX: Número de errores de transmisión para en nic x. Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros RX: Número de errores de recepción para en nic x. Se genera uno por cada interfaz de red detectada.
  • User CPU: Porcentaje de CPU usada por el usuario.
  • System CPU: Porcentaje de CPU usada por el sistema.
  • CPU Idle: Porcentaje de CPU ociosa.
  • CPU Load: Carga media de CPU de los últimos 5 minutos.
  • KSM CPU: Porcentaje de CPU usado por KSM.
  • Active VM: Número de máquinas virtuales activas en el Host.
  • Migrating VM: Número de máquinas virtuales en migración en el Host.
  • Total VM: Número total de máquinas virtuales del Host.
  • Fence Status: Estado del fencing del host.

1.3.8.6 Virtual Machine

  • Status: Estado de la máquina virtual.
  • Disk [x] read: Tasa de lectura del disco x (bytes/segundo). Se genera uno por cada disco detectado.
  • Disk [x] write: Tasa de escritura del disco x (bytes/segundo). Se genera uno por cada disco detectado.
  • Disk [x] size: Tamaño del disco x (en bytes). Se genera uno por cada disco detectado.
  • Disk [x] status: Estado del disco x. Se genera uno por cada disco detectado.
  • Nic [x] TX: Ratio de transferencia para el nic x (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] RX: Ratio de recepción para el nic x (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros TX: Número de errores de transmisión para en nic x. Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros RX: Número de errores de recepción para en nic x. Se genera uno por cada interfaz de red detectada.
  • Installed memory: Cantidad de memoria instalada (en bytes).
  • Percent free memory: Porcentaje de memoria libre.
  • Used memory: Cantidad de memoria usada (en bytes).
  • Stateless: Estado de la funcionalidad Stateless.
  • HA Status: Estado de la funcionalidad de HA.
  • Total CPU: Porcentaje total de CPU usada por la máquina virtual.
  • Hypervisor CPU: Porcentaje de CPU del Hypervisor usado por la máquina virtual.
  • Guest CPU: Porcentaje de CPU del Host que usa la máquina virtual.

1.3.8.7 Eventos

  • Event [x]: Descripción del evento x ocurrido en el sistema. Se crearan uno por cada evento detectado en los agentes afectados.

1.3.9 Gestión y visualización de la arquitectura RHEV

En esta sección se explica la instalación, configuración y funcionamiento de las extensióndes RHEV View y RHEV Manager.


Template warning.png

Las extensiones RHEV View y RHEV Manager sólo funcionan correctamente con versiones de Pandora FMS 4.0.2 o superiores

 


1.3.9.1 Instalación de la recon task

A continuación se detalla la instalación del script de reconocimiento y la creación de la tarea de reconocimiento que actualizan las variables usadas en las extensiones.

1.3.9.1.1 Instalación del Recon Script

Antes de crear la recon task, debemos registrar el Recon Script que actualiza las variables necesarias para el funcionamiento de las extensiones. Para ello seleccionamos el submenú Manage recon script dentro del menú Manage Servers.

Recon script menu.jpg



Una vez que vemos la pantalla inicial del submenú Manage recon script pulsamos en el botón Add.

Recon script screen.jpg



Después veremos la ventana para rellenar los datos del nuevo Recon Script, en la que rellenaremos los datos de manera oportuna como el ejemplo que se ve en la siguiente imagen. En el campo Script fullpath es necesario especificar el interprete o programa con el que se ejecutará el script (en nuestro caso perl) y la ruta completa donde está situado el script. Una vez relleno el formulario pulsamos en el botón Create.

Recon script rhev1.png



Una vez registrado el script veremos una pantalla que informa del correcto funcionamiento de la operación y muestra el script registrado en la lista.

Recon script rhev2.png


1.3.9.1.2 Creación de Recon Task

Para que las variables necesarias para las extensiones se actualicen de forma periodica crearemos una Recon Task que se ejecutará cada cierto tiempo. Para crear una Recon Task pulsamos en el submenú Recon Task dentro del menú Manage Servers.

Recon task menu.jpg



Al pulsar veremos la siguiente imagen que muestra la vista general de Recon Task, en ella pulsamos en el botón Create para crear una nueva tarea.

Recon task screen.jpg



Después de pulsar en el botón Create aparecerá un formulario como el de la siguiente imagen. En el rellenaremos los campos de forma apropiada. En el campo Mode es importante seleccionar la opción Custom Script ya que nos permitirá seleccionar en el campo Recon Script el script que registramos en el paso anterior (en nuestro caso RHEV Recon Script).

800px‎



Los campos Script field están reservados para los parámetros del script que hemos registrado. En concreto el script para la tecnología RHEV necesita los siguientes parámetros:

  • server: dirección host del servidor que sirve el API.
  • user: usuario para acceder al API, en formato "user@domain".
  • pass: contraseña para acceder al API.
  • cert: localización del certificado para acceder al API.
  • pandoraconf: Path donde se encuentra el archivo de configuración de Pandora FMS.


Template warning.png

El parámetro cert será usado por tanto Recon Task como por la extensión RHEV Manager por lo que es importante asegurar que tanto el servidor web como el servidor de Pandora FMS pueden acceder la locaclización del fichero

 


Por último pulsamos el botón Add para crear la nueva Recon Task.

Al pulsar el botón aparecerá la siguiente pantalla informando que la operación ha sido realizada con éxito y se mostrara la nueva Recon Task en la lista.

Recon creation rhev2.png



En este momento tenemos una tarea de reconocimiento Recon Task que se ejecutará con el intervalo seleccionado y actualizará todas las variables de los agentes asociados a la arquitectura de virtualización de RHEV.

1.3.9.2 Instalación de extensiones RHEV View y RHEV Manager

Para instalar las extensiones simplemente debe copiar el contenido de la carpeta extensions que encontrará al descomprimir el plugin en la carpeta extensions de la parte enterprise de la consola de Pandora FMS, el comando a ejecutar es el siguiente:

cp -R extensions/* <pandora_console_dir>/enterprise/extensions/

Desde este momento ya están disponibles las extensiones de monitorización RHEV.

1.3.9.3 Usado la extensión RHEV View

Para usar la extensión RHEV View sólo tiene que pulsar en la opción RHEV View dentro del submenú Monitoring.

Rhev view menu.png



La extensión mostrará un mapa como el siguiente con todos los componentes de la arquitectura RHEV descubiertos por el plugn.

Rhev view map.png



En el mapa aparecen representados los diferentes elementos de la arquitectura RHEV (Data Centers, Storage Domains, Clusters, Networks, Hosts y Virtual machines). Cada elemento está representado por un icono, distinto para cada tipo de elemento de la arquitectura. También quedan representadas las relaciones entre los diferentes elementos de la arquitectura RHEV. Con esta vista es muy sencillo ver el estado de los elementos y cómo se interrelacionan.

La extensión cuenta con un menú que permite configurar la vista ocultando o mostrando entidades, ampliando o reduciendo el tamaño del texto y realizando zoom para ver la imagen con más detalle.

Rhev view options menu.png



Por ejemplo en la siguiente imagen del mapa hemos ocultado los elementos Networks, Hosts y Virtual Machine de la arquitectura porque necesitamos ver en detalle las relaciones de Clusters y Storage Domains con los Data Center.

Rhev filter map.png



1.3.9.4 Usado la extensión RHEV Manager

La extensión RHEV Manager está disponible en la vista de operación de los agentes de Pandora FMS que se correspondan con máquinas virtuales dentro de la arquitectura de virtualización RHEV.


Template warning.png

Esta extensión usa el comando curl por lo que será necesario que esté instalado y sea accesible para el servidor web que soporte la consola de Pandora FMS

 


Para acceder a la extensión pulse en el botón con el logo de Red Hat que encontrarán junto con los demás tabs del agente.

Rhev icon operation agent.png



La extensión permite gestionar máquinas virtuales (encender, apager y suspender) sin necesidad de abrir la consola de gestión de RHEV. En la extensión se muestra el estado actual de la máquina virtual con un código de colores (verde = encendida, naranaja = suspendida y gris = parada), y un combo con los estados disponibles a los que podemos llevar la máquina virtual al pulsar el botón Change Status.

Rhev combo options.png



Si por escogemos el estado Stop para parar la máquina virtual, la extensión conectará con el API RHEV y mandará la orden. El resultado será el cambio de estado en la máquina virtual y las opciones del combo, como se puede ver en la siguiente imagen.

Rhev status down.png



El paso entre algunos estado no es automático, como por ejemplo del estado Stop a Start. En este caso la extensión irá mostrando el estado de la máquina virtual según vaya cambiando en la arquitectura de virtualización. Por ejemplo para pasar de Stop a Start la máquina virtual pasa por los siguientes estados:

Rhev status down.png


Rhev waiting for launch.png


Rhev powering up.png


Rhev vm up.png



1.3.10 Configuración del plugin de agente

La configuración del plugin de agente se realiza mediante un archivo de configuración cuyo nombre por defecto es rhev-plugin.conf.

Por defecto el plugin de agente selecciona todas las entidades y crea todos los módulos correspondientes con unos valores predeterminados para el nombre y la descripción. Todos estos aspectos así como variables generales del plugin se pueden configurar a través del archivo de configuración.

1.3.10.1 Archivo de configuración

El archivo de configuración tiene dos áeras bien diferenciadas: las variables de globales y la configuración de la monitorización.

La sección de variables globales comienza con el token Configuration y contiene la información de configuración del plugin. Los parámetros permitidos en esta sección son:

  • module_name: nombre del módulo del agente con el estado de la ejecución del plugin.
  • server: nombre del host que sirve el API de RHEV.
  • user: usuario en formato usuario@dominio para conectarse al API.
  • pass: contraseña para conectarse al API.
  • cert: ruta del certificado para conectarse al API.
  • temporal: directorio temporal.
  • logfile: archivo de log.
  • transfer_mode: modo de transferencia. Puede tomar los calores: local o tentacle.
  • tentacle_ip: IP del servidor de tentacle al que enviar la información. Típicamente estará situado en la misma máquina que el servidor de Pandora. Esta opción sólo se usa si transfer_mode tiene el valor tentacle.
  • tentacle_port: puerto del servidor de tentacle. Esta opción sólo se usa si transfer_mode tiene el valor tentacle.
  • tentacle_opts: opciones de envío de datos para tentacle. Esta opción sólo se usa si transfer_mode tiene el valor tentacle.

La sección de configuración de la monitorización se divide en varias subsecciones. La primera subsección tiene como token Reject y sirve para listar las entidades del entorno de virtualización que serán descartadas de la monitorización. Para descartar una entidad será necesario poner el nombre de la misma en esta lista. Por ejemplo:

#Dismissed entities
Reject
mv1
mv_WindowsXP
mv_WebServer1
...

Es posible descartar todas las entidades de un mismo tipo, por ejemplo todos los hosts, todas las máquinas virtuales, etc. Los token para cada entidad son: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (Máquinas Virtuales). Un ejemplo de uso de estos tokens sería:

#Dismissed entities
Reject
all_dc
all_host
all_network
all_storage
all_cluster
all_vm

La segunda sección tiene como token Rename y sirve para cambiar los nombres de las entidades monitorizadas a través del plugin. Esta funcionalidad es muy útil si se quiere combinar la monitorización de agentes software con datos extraidos del API en el mismo agente de Pandora FMS. La configuración de esta sección se realiza poniendo primero el nombre antiguo y a continuación el nuevo separado por un espacio, por ejemplo:

#Rename entities
Rename
mv_WebServer1 WebServer1
mv_WindowsXP WindowsXP Test
...

Las siguientes subsecciones se corresponden con la configuración de monitorización para cada entidad. Cada entidad tiene su propio token siendo los siguientes: DataCenter, StorageDomain, Network, Cluster, Host y VM. Para cada una de estas entidades es posible definir los módulos que estarán deshabilitados o definir unos valores personalizados para el nombre, la descipción y los rangos de máximos y mínimos para los estados Warning y Critical. Un ejemplo sería en siguiente:

#VM Modules
VM
status disabled
errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100
memory_used name = Memoria en uso; desc = Memoria usada por la maquina virtual; limits = 256 1024 1025 2048
...

Cada línea de configuración de los módulos de monitorización se corresponde dos opciones disponibles:

  • <modulo> disabled: El módulo NO se creará
  • <modulo> name = <nombre>; desc = <descripcion>; limits = <min_warning> <max_warning> <min_critical> <max_critical>: El módulo se creará con el nombre y la descripción proporcionados y además se definirán los umbrales para los máximos y mínimos de los valores Warning y Critical.

Es muy importante tener en cuenta la estructura de las líneas del archivo de configuración y sobre todo ver que el caracter ; va pegado al nombre y la descripción del módulo. Estas dos líneas NO SON EQUIVALENTES (veanse los espacios antes del caracter ; ):

errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100 #Correcto
errors_total_tx name = Errores TX Net [%s]    ; desc = Errores totales TX de red    ; limits = 60 70 71 100 #Incorrecto

Los módulos están referenciados por su nombre corto, un nombre equivalente más sencillo de escribir en la línea de comandos. La tabla de correspondencia entre nombres cortos y expandidos está en la siguiente sección.

Analicemos el ejemplo de configuración para las máquinas virtuales, sección VM.

Para las monitorización de las máquinas virtuales se han definido una serie de módulos habiliados o no en la sección VM del archivo de configuración. Más concretamente: el módulo status ha sido deshabilitado y para los módulos errors_total_tx y memory_used se ha definido unos valores personalizados. Los demás módulos que no aparecen en el listado se crearán con los valores por defecto. Con esta configuración, el módulo memory_used tomará los siguientes valores:

  • Nombre: Memoria en uso
  • Descripción: Memoria usada por la maquina virtual
  • Min Warning: 256
  • Max Warning: 1024
  • Min Critical: 1025
  • Max Critical: 2048

Los módulos se generan dinamicamente por ejemplo dos relativos a discos o interfaces de los cuales se crea uno por cada elemento detectado tienen una sintaxis especial para el nombre del módulo que es la siguiente:

errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100

En estos casos como el nombre tiene parte dinámica lo que se permite es usar la macro %s que será sustituida por el plugin por la parte variable del nombre del módulo.

Por ejemplo el módulo errors_total_tx tiene por nombre por defecto:

Nic [nic1] errors TX 

Pasará a llamarse

Errores TX Net [nic1] 

Siendo nic1 la parte dinámica del nombre del módulo.


Template warning.png

Todos los errores relativos al archivo de configuración son presentados en el log definido en el archivo de configuración y además son enviados como un módulo asíncrono a Pandora FMS que quedará reflejado como un módulo dentro del agente que ejecuta el plugin

 


Además de las secciones propias de cada elemento de la arquitectura el archivo de configuración tiene una sección común para los Eventos. Esta sección se define con el token EventCodes y en el se listarán los códigos de los eventos a moniorizar, por ejemplo:

EventCodes
30
920
980
509
956


Si no define esta sección, no se realizará la monitorización de eventos.

1.3.10.2 Dividir la carga de la monitorización entre varios Agentes Software

Mediante el archivo de configuración del plugin de agente es posible dividir la carga de monitorización de la infraestructura de virtualización RHEV.

Para ello se repartirán las entidades a monitorizar entre los distintos agentes. Supongamos que tenemos la siguiente arquitectura:

DC1
 |
 |- Cluster 1.1
       |- c1.1mv1
       |- c1.1mv2
       |- c1.1mv3

 |- Cluster 1.2
       |- c1.2mv1
       |- c1.2mv2
       |- c1.2mv3

DC2
 |
 |- Cluster 2.1
       |- c2.1mv1
       |- c2.1mv2
       |- c2.1mv3

 |- Cluster 2.2
       |- c2.2mv1
       |- c2.2mv2
       |- c2.2mv3

Una forma de dividir la carga sería asignando una Datacenter a cada uno de los agentes software, para ello usaríamos la funcionalidad para descartar entidades a monitorizar (token Reject).

El primer agente software monitoriza el Datacenter DC1 y descarta las entidades de DC2

Reject
DC2
Cluster 2.1
Cluster 2.2
c2.1mv1
c2.1mv2
c2.1mv3
c2.2mv1
c2.2mv2
c2.2mv3

El segundo agente software monitorizar el Datacenter DC2 y descarta las entidades de DC1

Reject
DC1
Cluster 1.1
Cluster 1.2
c1.1mv1
c1.1mv2
c1.1mv3
c1.2mv1
c1.2mv2
c1.2mv3

También podríamos dividir la carge basándonos en los clusters por ejemplo. El primer cuatro agentes software uno para cada cluster de los dos Datacenters.

Agente software 1, monitorizar Cluster 1.1 y descarta las demás entidades

Reject
DC1
Cluster 1.2
c1.2mv1
c1.2mv2
c1.2mv3
DC2
Cluster 2.1
Cluster 2.2
c2.1mv1
c2.1mv2
c2.1mv3
c2.2mv1
c2.2mv2
c2.2mv3

Agente software 2, monitorizar Cluster 1.2 y descarta las demás entidades

Reject
DC1
Cluster 1.1
c1.1mv1
c1.1mv2
c1.1mv3
DC2
Cluster 2.1
Cluster 2.2
c2.1mv1
c2.1mv2
c2.1mv3
c2.2mv1
c2.2mv2
c2.2mv3

Agente software 3, monitorizar Cluster 2.1 y descarta las demás entidades

Reject
DC1
Cluster 1.1
Cluster 1.2
c1.1mv1
c1.1mv2
c1.1mv3
c1.2mv1
c1.2mv2
c1.2mv3
DC2
Cluster 2.2
c2.2mv1
c2.2mv2
c2.2mv3

Agente software 4, monitorizar Cluster 2.2 y descarta las demás entidades

Reject
DC1
Cluster 1.1
Cluster 1.2
c1.1mv1
c1.1mv2
c1.1mv3
c1.2mv1
c1.2mv2
c1.2mv3
DC2
Cluster 2.1
c2.1mv1
c2.1mv2
c2.1mv3

La configuración de entidades descartadas es totalmente flexible y se podría llegar a dividir la carga asignando varias entidades a cada agente software.

1.3.10.3 Ejemplos de archivos de configuración

1.3.10.3.1 Archivo con todos los módulos deshabilitados
#These lines are comments

#Plugin configuration parameters
Configuration
server rhevm.server
user user@testdomain
pass 12345
cert /home/user/rhevm.cer
temporal /tmp
logfile /tmp/plugin-rhev.log
transfer_mode local
tentacle_ip 127.0.0.1
tentacle_port 41121
tentacle_opts

#Dismissed entities
Reject

#Data Center modules
DataCenter
status disabled

#StorageDomain modules
StorageDomain
available disabled
used disabled
committed disabled
free_percent disabled 

#Networks modules
Network
status disabled
stp disabled

#Clusters modules
Cluster
overcommit disabled
hugepages disabled
threshold_low disabled
threshold_high disabled
threshold_duration disabled

#Host Modules
Host
status disabled 
vm_active disabled
vm_migrating disabled
vm_total disabled
data_current_rx disabled
data_current_tx disabled
errors_total_rx disabled
errors_total_tx disabled
memory_cached disabled
memory_total disabled
swap_free_percent disabled
swap_cached_percent disabled
swap_free disabled
cpu_current_idle disabled
cpu_current_user disabled
memory_used disabled
ksm_cpu_current disabled
memory_free_percent disabled
swap_total disabled
memory_buffers disabled
cpu_current_system disabled
cpu_load_avg_5m disabled
swap_cached disabled
swap_used disabled
memory_free disabled
fence_status disabled

#VM Modules
VM
status disabled
stateless disabled
ha disabled
cpu_current_guest disabled
cpu_current_hypervisor disabled
memory_free_percent disabled
memory_installed disabled
memory_used disabled
cpu_current_total disabled
data_current_read disabled
data_current_write disabled
size disabled
disk_status disabled
data_current_rx disabled 
data_current_tx disabled
errors_total_rx disabled
errors_total_tx disabled

1.3.10.4 Tabla correspondencia nombres de módulos

1.3.10.4.1 Data Center
Nombre Expandido Nombre Corto
Status status
1.3.10.4.2 Storage Domain
Nombre Expandido Nombre Corto
Available Space available
Used Space used
Committed Space committed
Percent Free Space free_percent
1.3.10.4.3 Network
Nombre Expandido Nombre Corto
Status status
STP Status stp
1.3.10.4.4 Cluster
Nombre Expandido Nombre Corto
Overcommit Percent overcommit
Transparent HugePages hugepages
Low Threshold threshold_low
High Threshold threshold_high
Threshold duration threshold_duration
1.3.10.4.5 Host
Nombre Expandido Nombre Corto
Status status
Active VM vm_active
Migrating VM vm_migrating
Total VM vm_total
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx
Cache size memory_cached
Total memory memory_total
Swap free percent swap_free_percent
Swap cached percent swap_cached_percent
Swap free swap_free
CPU Idle cpu_current_idle
User CPU cpu_current_user
Used memory memory_used
KSM CPU ksm_cpu_current
Percent free memory memory_free_percent
Total swap swap_total
Buffers size memory_buffers
System CPU cpu_current_system
CPU Load cpu_load_avg_5m
Cached swap swap_cached
Used swap swap_used
Free memory memory_free
Fence Status fence_status
1.3.10.4.6 Virtual Machine
Nombre Expandido Nombre Corto
Status status
Stateless stateless
HA Status ha
Guest CPU cpu_current_guest
Hypervisor CPU cpu_current_hypervisor
Percent free memory memory_free_percent
Installed memory memory_installed
Used memory memory_used
Total CPU cpu_current_total
Disk [x] read data_current_read
Disk [x] write data_current_write
Disk [x] size size
Disk [x] status disk_status
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx


Volver a Indice de Documentacion Pandora FMS