Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.