Ingeniero/a de Datos in Apside

FULL_TIME

  Remote | Semi Senior | Full time | Data Science / Analytics

Gross salary $1700 - 2200 USD/month

4 applications
Replies between 0 and 10 days
Last checked today
Apply now
Requires applying in Spanish

Con más de 10 años de experiencia en el mercado y un crecimiento constante, nos destacamos por centrarnos en el desarrollo profesional de nuestros talentos. Trabajamos en proyectos variados, abarcando sectores como seguros, retail, banca, gobierno e innovación pública.
Nuestro equipo está compuesto por profesionales altamente calificados en la industria, con una amplia experiencia y apasionados por la tecnología. Fomentamos una relación con profesionales autónomos que valoran la excelencia técnica y la búsqueda constante de conocimiento.
¡Somos una empresa 100% remota, con personas en diferentes países de América Latina!

¿Que ofrecemos?
Te ofrecemos formar parte de un equipo con un muy buen ambiente de trabajo, multicultural, con personas que valoran la autonomia, el trabajo en equipo y el respeto mutuo.

Contamos con excelentes beneficios para nuestros Apsiders: Salud, Bienestar, Educación y diferentes bonos que se ajustan a las necesidades de nuestros talentos.

Send CV through Get on Board.

¿Qué harás en este rol?

  • Serás protagonista en la construcción de pipelines de datos modernos y escalables con Apache Airflow (Composer) sobre GCP, asegurando su rendimiento y confiabilidad.
  • Impulsarás el procesamiento avanzado de datos aplicando Python y PySpark dentro del ecosistema Hadoop, aportando eficiencia y flexibilidad.
  • Diseñarás e implementarás infraestructura como código con Terraform, y explorarás el potencial de las arquitecturas serverless mediante Cloud Functions y Cloud Run.
  • Tendrás un rol activo en la automatización y despliegue continuo, participando en prácticas de CI/CD con GitHub Actions y flujos de trabajo colaborativos en Git.
  • Formarás parte del desarrollo de un Data Lake empresarial en GCP, incorporando estándares de calidad, seguridad y catalogación de datos.
  • Trabajarás de la mano con equipos de gobierno de datos, contribuyendo a definir políticas, estándares y procesos que garanticen la correcta gestión del ciclo de vida de la información.
  • Contribuirás al empaquetado y despliegue de soluciones en entornos de contenedores como Docker, Kubernetes y GKE, asegurando escalabilidad y eficiencia.
  • Velarás por la confiabilidad de los entornos de datos a través de monitoreo, logging y alertas efectivas, anticipándote a problemas y garantizando continuidad.

¿Que buscamos para este rol?

  • Más de 5 años experiencia demostrable como Ingeniero/a de Datos.
  • Haber estudiado una carrera, tal como, Ingeniería Civil en Computación e Informática, Ingeniería en Informática / Sistemas / o similar.
  • Experiencia en Apache Airflow (Composer) sobre GCP para la orquestación de pipelines de datos.
  • Dominio de Python y PySpark, con experiencia en el ecosistema Hadoop.
  • Conocimientos en Terraform (IaC) y en arquitecturas serverless con Cloud Functions y Cloud Run.
  • Práctica en CI/CD, especialmente con GitHub Actions y flujos de trabajo en Git.
  • Experiencia en la construcción y gestión de Data Lakes en GCP, aplicando estándares de calidad, seguridad y catalogación de datos.
  • Familiaridad con prácticas de gobierno de datos, incluyendo definición y aplicación de políticas y procesos de ciclo de vida de la información.
  • Manejo de contenedores y despliegue en Docker, Kubernetes y GKE.
  • Buenas prácticas en monitoreo, logging y alertas para entornos y pipelines de datos.
  • Se valorará contar con certificaciones GCP (ej: Professional Data Engineer o Cloud Architect), experiencia en entornos regulados (ISO, GDPR, etc.), así como haber colaborado con Data Stewards y Arquitectos de Datos.

¿Que te daría un plus++?

  • Experiencia con BigQuery u otros motores de consulta en la nube.
  • Familiaridad con modelos de Machine Learning o ML pipelines en entornos productivos.
  • Experiencia con herramientas de observabilidad como Prometheus, Grafana o Stackdriver.
  • Conocimientos en arquitecturas de datos en tiempo real (ej: Pub/Sub, Kafka).

GETONBRD Job ID: 55689

Conditions

Wellness program Apside offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Internal talks Apside offers space for internal talks or presentations during working hours.
Life insurance Apside pays or copays life insurance for employees.
Health coverage Apside pays or copays health insurance for employees.
Computer repairs Apside covers some computer repair expenses.
Dental insurance Apside pays or copays dental insurance for employees.
Education stipend Apside covers some educational expenses related to the position.
Personal coaching Apside offers counseling or personal coaching to employees.

Remote work policy

Fully remote

Candidates can reside anywhere in the world.

  1. Jobs
  2. Data Science / Analytics
  3. Apside
  4. Ingeniero/a de Datos

About Apside

Valoramos profundamente el profesionalismo y compromiso en nuestro equipo, el que cuenta con amplia experiencia en el desarrollo de proyectos, una fuerte orientación al cliente y un alto nivel técnico. — Apside's full profile

Apply
Requires applying in Spanish
Share this job Share