Ingeniero de datos - databricks, Barcelona
Perfil buscado (Hombre/Mujer)
Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.Implementar y operar arquitectura Lakehouse con Delta Lake.
Definir e implantar controles de calidad de datos.
Crear y mantener datasets listos para consumo.
Gestionar gobernanza con Unity Catalog.
Mejorar rendimiento y costes.
Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.
Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorableExperiencia en proyectos de Business Intelligence y definición de KPIs.
Herramientas BI: Power BI / Superset / Tableau.Orquestación/ELT: dbt, Airflow, ADF (si aplica).
Conocimientos de dominios de movilidad/transporte/servicios públicos.Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft SkillsMentalidad analítica, rigor y orientación al detalle (calidad del dato).
Comunicación clara con perfiles técnicos y negocio.
Trabajo en equipo y colaboración transversal.
Responsabilidad en gestión de datos críticos y mejora continua.
Adaptabilidad a cambios de prioridades/procesos
Proyectos innovadores y multidisciplinaresCrecimiento profesional en una empresa consolidada
Formación
Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
Databricks Certified Data Engineer Associate (recomendable).Databricks Certified Data Engineer Professional (valorable).
Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia
+2 años en tratamiento, explotación y análisis de datos en entornos productivos.
Experiencia sólida en Databricks:
Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.Operación de pipelines con Databricks Workflows/Jobs.
Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.
Experiencia en Delta Lake y patrones Lakehouse:
Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM.Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
Experiencia en calidad de datos:
Detección, registro, seguimiento y resolución de incidencias de calidad.Definición de reglas de validación y monitorización.
Experiencia en soporte a usuarios y herramientas de explotación.
Conocimientos
Databricks / Lakehouse (imprescindible): Databricks Lakehouse y mejores prácticas de desarrollo/operación.Unity Catalog: Catálogo, permisos (RBAC), auditoría, lineagey gobernanza.
Databricks SQL.
Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters.
Lenguajes:
Python.SQL avanzado.
Cloud:
Azure (preferente):
Operación: Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.Idiomas: Catalán (leído, hablado y escrito).
Se trata de una compañía tecnológica con más de dos décadas de trayectoria, especializada en soluciones avanzadas para la gestión del territorio y la explotación de datos. Combina ingeniería GIS, desarrollo de software y hardware, y proyectos innovadores en sectores estratégicos como movilidad, infraestructuras y seguridad.Su tamaño reducido favorece la cercanía y la participación activa en proyectos de alto impacto, con un enfoque en innovación y colaboración con grandes partners tecnológicos.
Participación en proyectos innovadoresEntorno estable y cercano, Formación y desarrollo profesional
Trabajo con tecnologías avanzadas
Impacto real
Flexibilidad y colaboración
databricks, Lakehouse, ETL, Power BI, Superset, Tableau