Descripción:
Ceph es una solución de almacenamiento de código abierto de alto rendimiento. Gracias a su escalabilidad masiva y sencilla, Ceph es adecuado para casi todos los escenarios de aplicación. Entre ellos se incluyen los servidores virtuales, la nube, las copias de seguridad y mucho más.
Objetivo del curso: Al término de este curso el participante sera capaz de:
- Planificar, diseñar e implantar un clúster Ceph
- Familiarizarse con las diferentes funciones y métodos de almacenamiento
- Realizar el mantenimiento regular y las operaciones diarias con facilidad
- Ajustar Ceph para mejorar el ROI y el rendimiento
- Recuperar Ceph de una serie de problemas
- Actualizar clusters a BlueStore
Requisitos de ingreso.
Comprensión de textos en idioma inglés.
No se requieren conocimientos previos de Ceph, pero sí conocimientos básicos de Linux y redes informáticas.
Temario:
Sección 1: Planificación y despliegue
- Historia de Ceph
- Planificación para Ceph
- ¿Qué es Ceph?
- Cómo funciona Ceph
- Casos de uso de Ceph
- Diseño de la infraestructura
- Cómo planificar una implantación satisfactoria de Ceph
- Despliegue de Ceph con contenedores
- Preparación del entorno con Vagrant y VirtualBox
- Orquestación
- Ansible
- Un playbook muy sencillo
- Añadir los módulos Ceph Ansible
- Gestión de cambios y configuración
- Ceph en contenedores
- BlueStore
- ¿Qué es BlueStore?
- ¿Por qué era necesario?
- Cómo funciona BlueStore
- Cómo utilizar BlueStore
- Ceph y protocolos no nativos
- Bloque
- Cola
- Fichero
- Ejemplos
- Hipervisor ESXi
- Clustering
Sección 2: Funcionamiento y ajuste
- Pools RADOS y acceso de clientes
- Pools
- Grupos replicados
- Grupos de códigos de borrado
- Depuración
- Desarrollo con Librados
- ¿Qué es librados?
- Cómo utilizar librados
- Ejemplo de aplicación de librados
- Computación Distribuida con Clases Ceph RADOS
- Ejemplos de aplicaciones y ventajas de utilizar clases RADOS
- Escribir una clase RADOS sencilla en Lua
- Escribir una clase RADOS que simule computación distribuida
- Advertencias sobre las clases RADOS
- Monitorización de Ceph
- Por qué es importante supervisar Ceph
- Qué se debe supervisar
- Salud de Ceph
- Sistema operativo y hardware
- Estadísticas inteligentes
- Red
- Contadores de rendimiento
- El panel Ceph
- Estados de PG: lo bueno, lo malo y lo feo
- Monitorización de Ceph con collectd
- Graphite
- Grafana
- collectd
- Despliegue de collectd con Ansible
- Ejemplo de consultas Graphite para Ceph
- Plugins collectd personalizados para Ceph
- Ajuste de Ceph
- Latencia
- Cliente a OSD principal
- OSD primario a OSD de réplica
- OSD primario a cliente
- Evaluación comparativa
- Herramientas de evaluación comparativa
- Benchmarking de red
- Evaluación comparativa de discos
- Evaluación comparativa de RADOS
- Evaluación comparativa de RBD
- Ajustes recomendados
- CPU
- BlueStore
- Almacén de archivos
- Depuración
- Prioridades OP
- La red
- Ajuste general del sistema
- RBD del núcleo
- Ajuste de CephFS
- RBDs y pools con código de borrado
- Distribuciones PG
- Asignación de niveles con Ceph
- Clasificación por niveles frente a almacenamiento en caché
- Funcionamiento de la gestión por niveles de Ceph
- ¿Qué es un filtro bloom?
- Modos de organización por niveles
- Writeback
- Reenvío
- Proxy
- Casos de uso
- Creación de niveles en Ceph
- Ajuste de niveles
- Flushing y desalojo
- Estrangulamiento de promociones
- Parámetros de supervisión
- Mecanismos alternativos de almacenamiento en caché
Sección 3: Resolución de problemas y recuperación
- Solución de problemas
- Reparación de objetos incoherentes
- OSD completos
- Registro Ceph
- Rendimiento lento
- Causas
- Supervisión
- Diagnóstico
- Rendimiento extremadamente lento o sin IO
- OSD parpadeantes
- Tramas Jumbo
- Discos defectuosos
- OSD lentos
- Fuera de capacidad
- Investigando PGs en estado caído
- Grandes bases de datos de monitores
- Recuperación de desastres
- ¿Qué es una catástrofe?
- Evitar la pérdida de datos
- ¿Qué puede causar una interrupción o pérdida de datos?
- Replicación de RBD
- Recuperación de RBD
- RGW Multisitio
- Recuperación CephFS
- Objetos perdidos y PG inactivos
- Recuperación de un fallo completo del monitor
- Uso de la herramienta Ceph object-store
- Investigación de aserciones