Azure Databricks es una plataforma moderna para procesar y analizar grandes volúmenes de datos en la nube, combinando la potencia de Apache Spark con la escalabilidad de Azure.
En este curso, aprenderás a configurar tu entorno, conectar con Azure Data Lake, aplicar transformaciones con PySpark, y estructurar los datos con la arquitectura Medallón (Bronze, Silver y Gold).
Trabajarás con archivos de diferentes formatos, conocerás cómo aplicar versionado con Delta Lake, y generarás datasets listos para reportes interactivos.
Además, automatizarás pipelines de datos y optimizarás recursos para reducir costos.
Este curso es ideal para profesionales de datos que desean dominar el análisis y la transformación en la nube con herramientas líderes del mercado.
Contenido del curso: Azure Databricks
- 2.1 Creación de la Cuenta de Azure (12:23)
- 2.2 Navegar por el Portal de Azure (7:55)
- 2.3 Información y Precios de Azure Databricks (12:24)
- 2.4 Creación de Servicio de Azure Databricks (8:44)
- 2.5 Vistazo del Portal de Azure Databricks (15:34)
- 2.6 Creación de un Cómputo (11:05)
- 2.7 Vistazo a Notebooks (8:12)
- 2.8 Comandos Útiles en Notebooks (7:15)
- 3.1 Creación de un ADLS (4:51)
- 3.2 Instalación de Azure Storage Explorer (4:36)
- 3.3 Conexión ADLS con Claves de Acceso (6:54)
- 3.4 Conexión ADLS con Token SAS (5:11)
- 3.5 Registro de una Aplicación en Azure Entra ID (4:52)
- 3.6 Conexión ADLS con Entidad de Servicio (6:56)
- 3.7 DBFS (3:47)
- 3.8 Montar ADLS en Databricks (7:10)
- 3.9 Creación de Servicio Azure Key Vault (4:54)
- 3.10 Creación de Secret Scope (4:48)
- 3.11 Montar ADLS en Databricks con Secret Scope (5:38)
- 3.12 Montar ADLS para el Proyecto (11:03)
- 4.1 Leer archivo CSV - Categories (6:01)
- 4.2 Esquemas (4:25)
- 4.3 Prueba de Función de Ventana Hopping (4:35)
- 4.4 Escribir datos a formato Parquet (4:44)
- 4.5 Lectura, transformación y escritura - Cities (5:29)
- 4.6 Lectura, transformación y escritura – Customers (6:25)
- 4.7 Leer archivo TXT – Products (7:33)
- 4.8 Transformación y escritura – Products (3:31)
- 4.9 Leer archivo JSON – Countries (4:53)
- 4.10 Transformación y escritura – Countries (1:34)
- 4.11 Lectura, transformación y escritura – Employees (5:55)
- 4.12 Lectura de múltiples archivos (6:24)
- 4.13 Transformación y escritura (4:50)
- 5.1 ¿Que es Delta Lake? (7:36)
- 5.2 Escribir y Leer en formato Delta (8:40)
- 5.3 Upsert / Merge (procesamiento incremental) (9:44)
- 5.4 Time Travel y Versionado (8:04)
- 5.5 Limpieza y optimización (4:21)
- 5.6 Delete y Update (2:29)
- 5.7 Función para procesamiento incremental (8:21)
- 5.8 Asignación de función para las transformaciones (7:38)
- 5.9 Optimización de Sales (Zorder By) (3:43)
Tu instructor: Valentín Guerrero
Ingeniero de Software de profesión, y a lo largo de mi trayectoria he ampliado mis horizontes convirtiéndome en Ingeniero de Datos y Desarrollador de Business Intelligence (BI). Mi experiencia abarca desde la construcción de Data Warehouses hasta la implementación de procesos ETL para transformar y analizar datos de manera efectiva.
Además, manejo con destreza herramientas en la nube de Azure, incluyendo SQL Database, Data Lake Storage Gen2, Blob Storage, Data Factory, entre otros. Estas herramientas me han permitido diseñar soluciones robustas y escalables en entornos de datos distribuidos.
Estoy emocionado de compartir mis conocimientos y experiencias contigo en nuestros cursos. Únete a mí en este emocionante viaje de aprendizaje y descubre cómo puedes convertir datos en acciones significativas en tu carrera profesional.
Preguntas Frecuentes (FAQ)
¿Cuándo inicia y finaliza el curso?
¡El curso inicia ahora y nunca finaliza! Este es un curso en línea completamente a tu propio ritmo - tú decides cuando iniciar y cuando terminar.
¿Por cuánto tiempo tengo acceso al curso?
¿Cómo te suena "acceso de por vida"? Después de suscribirse, tendrás acceso ilimitado a este curso por todo el tiempo que gustes - a través de cualquier dispositivo en todos los dispositivos que tengas.
¿Qué sucede si no estoy satisfecho con el curso?
¡No queremos que estés insatisfecho! Si estás insatisfecho con tu compra (para los cursos de pago), solo debes contactarnos en los primeros 14 días y te daremos una devolución total de tu dinero.
¿Cuáles son los requisitos para tomar este curso?
Para el curso necesitas contar con:
- Conocimientos básicos de SQL
- Nivel intermedio de Python (PySpark)
- Conocimientos en estructuras de datos
- Cuenta de Azure (se ofrece crédito gratuito inicial de $200)
¿Cómo apruebo el curso y obtengo mi certificado?
Para aprobar el curso y obtener el certificado correspondiente debes completar el 100% de los vídeos y enviar todas las prácticas realizadas durante el curso vía correo electrónico para revisar y validar que se hayan completado correctamente.
¿Necesito saber Azure?
No obligatoriamente. El curso incluye explicación paso a paso desde cero.
¿Cuánto cuesta usar Azure Databricks?
El uso está basado en tiempo de cómputo. Implementando los ejercicios el costo es aproximado a $10 USD. También puedes seguir el curso de forma teórica si prefieres evitar costos.
¿Qué pasa si uso un equipo empresarial?
Verifica con tu área de TI que tengas permisos para usar Azure.