Curso de Greenplum Database
Greenplum Database es un software de base de datos para la inteligencia empresarial y el almacenamiento de datos. Los usuarios pueden ejecutar Greenplum Database para el procesamiento de datos paralelo masivo.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a los administradores que desean establecer Greenplum Database para soluciones de inteligencia empresarial y almacenamiento de datos.
Al final de este curso, los participantes podrán:
- Necesidades de tratamiento de dirección con Greenplum.
- Performan operaciones ETL para el procesamiento de datos.
- Elaboración de infraestructuras existentes de procesamiento de consultas.
Formato del curso
- Lecciones y discusiones interactivas.
- Muchos ejercicios y prácticas.
- Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
- Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Programa del Curso
Greenplum Database ¿Resumen?
- ¿Qué es Greenplum Database?
- Greenplum Database Características
- Greenplum Database Arquitectura
Preparación del entorno de desarrollo
- Instalación y configuración Greenplum Database
Administración
- Creación de usuarios
- Creación de un grupo
- Adición de usuarios
Database
- Creación de una base de datos
- Concesión de privilegios
- Creación de un esquema
Línea de comandos psql
- Carga y exportación de datos
- Ejecución de scripts
Consultas y rendimiento
- Análisis de tablas
- Cambio de optimizadores
- Particionamiento de tablas
En-Database Analítica
- Configuración de Apach Zepellin
- Agregación de datos
- Resultados de ensamblaje
- Uso de Apache Madlib
- Realización de la regresión lineal
Resumen y conclusión
Requerimientos
- Comprensión de RDBMS (Sistemas de Bases de Datos de Relaciones Management)
Audiencia
- Administradores
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Greenplum Database - Booking
Curso de Greenplum Database - Enquiry
Greenplum Database - Consultas
Consultas
Testimonios (1)
Lo que más me gustó fue el dominio del tema por parte del trainer, su paciencia y claridad al explicar los conceptos, y especialmente su disposición constante para responder todas las dudas que surgieron. Fue una experiencia de aprendizaje realmente enriquecedora y muy agradable.
Patricio Condado - SOKODB
Próximos cursos
Cursos Relacionados
SQL Avanzado
14 HorasThis instructor-led, live training in Panama (online or onsite) is aimed at intermediate-level database administrators, developers, and analysts who wish to master advanced SQL functionalities for complex data operations and database management.
By the end of this training, participants will be able to:
- Perform advanced querying techniques using unions, subqueries, and complex joins.
- Add, update, and delete data, tables, views, and indexes with precision.
- Ensure data integrity through transactions and manipulate database structures.
- Create and manage databases efficiently for robust data storage and retrieval.
Curso de Amazon Redshift
21 HorasAmazon Redshift es un servicio de almacenamiento de datos basado en la nube a escala de petabytes en AWS.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Amazon Redshift.
Al final de esta formación, los participantes serán capaces de:
- Instalar y configurar Amazon Redshift
- Cargue, configure, implemente, consulte y visualice datos con Amazon Redshift
Audiencia
- Desarrolladores
- Profesionales de TI
Formato del curso
- En parte conferencia, en parte discusión, ejercicios y práctica práctica intensa
Nota
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertarlo.
Advanced Apache Iceberg
21 HorasEsta capacitación en vivo dirigida por un instructor en Panama (en línea o en el sitio) está dirigida a profesionales de datos de nivel avanzado que desean optimizar los flujos de trabajo de procesamiento de datos, garantizar la integridad de los datos e implementar soluciones sólidas de data lakehouse que puedan manejar las complejidades de las aplicaciones modernas de big data.
Al final de esta capacitación, los participantes serán capaces de:
- Obtenga una comprensión profunda de la arquitectura de Iceberg, incluida la gestión de metadatos y el diseño de archivos.
- Configure Iceberg para obtener un rendimiento óptimo en varios entornos e intégrelo con múltiples motores de procesamiento de datos.
- Administre tablas Iceberg a gran escala, realice cambios de esquema complejos y controle la evolución de las particiones.
- Domine las técnicas para optimizar el rendimiento de las consultas y la eficiencia del análisis de datos para grandes conjuntos de datos.
- Implemente mecanismos para garantizar la coherencia de los datos, gestionar las garantías transaccionales y gestionar los errores en entornos distribuidos.
Apache Iceberg Fundamentals
14 HorasEsta capacitación en vivo dirigida por un instructor en Panama (en línea o en el sitio) está dirigida a profesionales de datos de nivel principiante que deseen adquirir el conocimiento y las habilidades necesarias para utilizar Apache Iceberg de manera efectiva para administrar conjuntos de datos a gran escala, garantizar la integridad de los datos y optimizar los flujos de trabajo de procesamiento de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Obtenga una comprensión profunda de la arquitectura, las características y los beneficios de Apache Iceberg.
- Obtenga información sobre los formatos de tabla, la creación de particiones, la evolución del esquema y las capacidades de viaje en el tiempo.
- Instala y configura Apache Iceberg en diferentes entornos.
- Crear, administrar y manipular tablas Iceberg.
- Comprender el proceso de migración de datos de otros formatos de tabla a Iceberg.
Big Data Consulting
21 HorasEsta capacitación en vivo dirigida por un instructor en Panama (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean mejorar sus habilidades en arquitectura de datos, gobernanza, computación en la nube y tecnologías de big data para administrar y analizar de manera efectiva grandes conjuntos de datos para la migración de datos dentro de sus organizaciones.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender los conceptos y componentes fundamentales de varias arquitecturas de datos.
- Obtenga una comprensión completa de los principios de gobernanza de datos y su importancia en los entornos normativos.
- Implemente y gestione marcos de gobernanza de datos como Dama y Togaf.
- Aproveche las plataformas en la nube para un almacenamiento, procesamiento y gestión de datos eficientes.
Big Data & Fundamentos de Sistemas de Bases de Datos
14 HorasEl curso es parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
Azure Data Lake Storage Gen2
14 HorasEsta capacitación en vivo dirigida por un instructor en Panama (en línea o presencial) está dirigida a ingenieros de datos de nivel intermedio que deseen aprender a usar Azure Data Lake Storage Gen2 para soluciones efectivas de análisis de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Comprenda la arquitectura y las características clave de Azure Data Lake Storage Gen2.
- Optimice el almacenamiento y el acceso a los datos en cuanto a costes y rendimiento.
- Integre Azure Data Lake Storage Gen2 con otros Azure servicios para análisis y procesamiento de datos.
- Desarrolle soluciones con la API Azure de Data Lake Storage Gen2.
- Solucione problemas comunes y optimice las estrategias de almacenamiento.
Bóveda de Datos: Creación de un Almacén de Datos Escalable
28 HorasEn esta capacitación en vivo dirigida por un instructor en Panama, los participantes aprenderán cómo construir un Data Vault.
Al final de esta formación, los participantes serán capaces de:
- Comprender los conceptos de arquitectura y diseño detrás de Data Vault 2.0 y su interacción con Big Data, NoSQL e IA.
- Utilice técnicas de almacenamiento de datos para permitir la auditoría, el seguimiento y la inspección de datos históricos en un almacén de datos.
- Desarrolle un proceso ETL (Extracción, Transformación, Carga) coherente y repetible.
- Construya e implemente almacenes altamente escalables y repetibles.
Druid:Construir un Sistema Rápido y en Tiempo Real de Análisis de Datos
21 HorasApache Druid es un almacén de datos distribuidos, de código abierto, orientado a columnas, escrito en Java . Fue diseñado para ingerir rápidamente cantidades masivas de datos de eventos y ejecutar consultas OLAP de baja latencia en esos datos. Druid se usa comúnmente en aplicaciones de inteligencia empresarial para analizar grandes volúmenes de datos históricos y en tiempo real. También es adecuado para alimentar paneles de control rápidos, interactivos y analíticos para usuarios finales. Druid es utilizado por empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal y Yahoo.
En este curso en vivo dirigido por un instructor, exploramos algunas de las limitaciones de las soluciones de almacenamiento de datos y discutimos cómo Druid puede complementar esas tecnologías para formar una pila de análisis de transmisión flexible y escalable. Analizamos muchos ejemplos, ofreciendo a los participantes la oportunidad de implementar y probar soluciones basadas en druidas en un entorno de laboratorio.
Formato del curso
- Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para evaluar la comprensión
IBM Datastage For Administrators and Developers
35 HorasEsta capacitación en vivo dirigida por un instructor en Panama (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean tener una comprensión integral de IBM DataStage desde una perspectiva administrativa y de desarrollo, lo que les permite administrar y utilizar esta herramienta de manera efectiva en sus respectivos lugares de trabajo.
Al final de esta formación, los participantes serán capaces de:
- Comprender los conceptos básicos de DataStage.
- Aprenda a instalar, configurar y gestionar eficazmente los entornos de DataStage.
- Conéctese a varias fuentes de datos y extraiga datos de manera eficiente de bases de datos, archivos planos y fuentes externas.
- Implementar técnicas efectivas de carga de datos.