Data Engineer (Databricks) in Improving South America

Closed job - No longer accepting applications

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Opportunity published on Get on Board.

Funciones del cargo

Actualmente estamos en la búsqueda de un Data Engineer Senior con experiencia sólida en SQL, Python y Databricks, orientado al diseño, construcción y mantenimiento de pipelines de datos escalables que respalden la toma de decisiones del negocio.

La persona seleccionada colaborará estrechamente con equipos de ingeniería, analítica y áreas de negocio para garantizar la disponibilidad, calidad e integridad de los datos:

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT robustos y reutilizables utilizando Databricks sobre Azure.
  • Procesar y transformar grandes volúmenes de datos en entornos distribuidos.
  • Implementar soluciones de datos escalables dentro del ecosistema Azure (ej. Azure Data Factory, Azure Data Lake, Azure SQL, Synapse).
  • Aplicar buenas prácticas de modelado de datos y arquitectura analítica.
  • Colaborar con equipos técnicos y de negocio para identificar requerimientos y traducirlos en soluciones técnicas.
  • Mantener código limpio y versionado con Git.

Requerimientos principales del cargo

  • Nivel de inglés intermedio/ avanzado para la comunicación diaria con equipos globales.
  • Experiencia 5+ años (comprobada) en ingeniería o análisis de datos con SQL y Python.
  • Dominio experto en SQL para manipulación, transformación y optimización de rendimiento.
  • Experiencia práctica desarrollando pipelines de datos en Databricks.
  • Conocimientos avanzados en Python, aplicados a procesamiento de datos.
  • Uso fluido de Pandas y NumPy.
  • Experiencia diseñando y manteniendo pipelines ETL/ELT en entornos cloud.
  • Familiaridad con modelado de datos (esquema estrella, copo de nieve) y arquitectura de datos.
  • Experiencia trabajando con el ecosistema de Azure para datos: Azure Data Factory, Azure Data Lake, Azure SQL, Synapse, etc.
  • Conocimiento de bases de datos relacionales y no relacionales.
  • Uso habitual de herramientas de control de versiones, como Git.

Requerimientos deseables

  • Conocimiento o experiencia con Apache Spark, idealmente dentro de Databricks.
  • Familiaridad con plataformas y buenas prácticas de data warehousing.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • Mucho mas..

GETONBRD Job ID: 51279

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.

Remote work policy

Locally remote only

Position is 100% remote, but candidates must reside in Chile, Colombia, Peru, Argentina or Uruguay.

Life's too short for bad jobs.
Sign up for free and find jobs that truly match you.