OBJETIVO DEL CARGO
Liderar proyectos de análisis de datos, diseñando, desarrollando, y proponer la infraestructura de datos para implementar este tipo de proyectos, validando el origen de los datos, garantizando la accesibilidad, calidad, seguridad y disponibilidad de la información. El cargo participa en la planificación e implementación de proyectos del tipo Datawarehouse, analítica avanzada, inteligencia de negocios (BI) y soluciones de inteligencia artificial (AI), colaborando con equipos técnicos y funcionales para transformar datos en información estratégica para la toma de decisiones.
Apply to this posting directly on Get on Board.
Arquitectura y proyectos de datos: Liderar la planificación e implementación de proyectos de Datawarehouse, Data Lake y analítica avanzada. Diseñar arquitecturas de datos escalables, seguras y orientadas a la calidad. Implementar metodologías modernas para automatización de procesos de datos en entornos locales y en la nube.
Integración, transformación y procesamiento de datos (ETL/ELT): Diseñar, implementar y optimizar procesos de integración y transformación de datos. Automatizar pipelines de datos y monitorear métricas de rendimiento, identificando oportunidades de mejora. Analizar volúmenes de datos estructurados y no estructurados para extraer información relevante que apoye decisiones estratégicas.
Modelamiento de datos e inteligencia analítica: Modelar bases de datos para soluciones BI y AI. Desarrollar modelos de lógica de datos y estructuras unificadas que integren múltiples fuentes. Implementar procesos OLAP y optimizar consultas para análisis institucionales.
Administración de plataformas y herramientas tecnológicas: Diseñar, desarrollar y mantener software, scripts y herramientas especializadas de procesamiento de datos. Operar y monitorear la arquitectura tecnológica que soporta los sistemas de datos institucionales.
Gobernanza, seguridad y calidad de datos: Implementar políticas de acceso, seguridad y protección de datos, incluyendo mecanismos de control, encriptación y autenticación. Gestionar mecanismos de trazabilidad, linaje automatizado y observabilidad de datos. Identificar riesgos operacionales, regulatorios y de cumplimiento asociados a datos e implementar controles preventivos.
Documentación, innovación y soporte técnico. Mantener documentación actualizada de procesos, instructivos e informes de operación. Participar en pruebas de concepto (PoC) de nuevas tecnologías. Proporcionar asesoría técnica al equipo y apoyo especializado a áreas internas. Identificar necesidades técnicas y proponer mejoras en procesos y plataformas.
ESPECIALIZACIÓN Y CONOCIMIENTOS
Arquitectura y Modelamiento de Datos
Diseño de arquitecturas de datos para Datawarehouse, Data Lake y Lakehouse.
Modelamiento dimensional y estructuración de datos para BI, analítica avanzada y ML.
Manejo de modelos en estrella, copo de nieve, particionamiento y almacenamiento columnar.
Integración y Procesamiento de Datos (ETL/ELT)
Desarrollo y automatización de pipelines de datos (ETL/ELT) en entornos on-premise y cloud.
Uso de herramientas como AWS Glue, Airflow, dbt u otras tecnologías de integración.
Aplicación de prácticas de calidad de datos, validación, linaje y trazabilidad.
Analítica y Machine Learning
Conocimientos en preparación de datos, modelos predictivos y soporte a ciclos MLOps.
Manejo de Python para análisis y modelado (Pandas, NumPy, Scikit-learn).
Bases de Datos y Rendimiento
Dominio avanzado de SQL y optimización de consultas.
Experiencia principalmente con PostgreSQL.
Diseño de estructuras eficientes para analítica y consultas de alto rendimiento.
Cloud, Automatización y DevOps
Experiencia con servicios de datos en AWS (RDS, Redshift, S3, Athena).
Conocimientos en contenedores (Docker), orquestación (Kubernetes) y CI/CD.
Deseable experiencia en Big Data (Spark, Kafka) e infraestructura como código.
Seguridad y Gobernanza
Gestión de accesos, encriptación y auditoría de datos (RBAC, MFA, KMS).
Conocimientos en gobernanza, metadatos y buenas prácticas de manejo responsable de información.
BI y Visualización
experiencia con herramientas como Power BI, Tableau o QuickSight.
Diseño de modelos semánticos y visualizaciones para apoyo a decisiones.
Deseable 3 años de experiencia laboral similar en áreas y en materias afines a las funciones del cargo, específicamente en herramientas de analítica de datos, en los últimos 10 años (entre el año 2015 y el 2025).
REQUISITOS LEGALES
Título profesional de una carrera de, a lo menos, 10 semestres de duración y 2 años de experiencia profesional, como mínimo,
Título profesional de una carrera de, a lo menos, 8 semestres de duración y 5 años de experiencia profesional, como mínimo.
REQUISITOS DESEABLES
Título Profesional de Ingeniero Civil o Ejecución en Computación e Informática u otros títulos profesionales atingentes a tecnologías de la Información.
Deseable magíster, diplomado o curso relacionado con Administración de Bases de Datos, Ciencia de Datos, big data, machine learning, datalake, analítica de datos, Ingeniería de la Información, o inteligencia artificial.
GETONBRD Job ID: 57905