Data Integration Engineer in Inetum

Closed job - No longer accepting applications

Follow Inetum in Get on Board and we'll notify you when new jobs are published.

More open jobs from Inetum

Somos Inetum, una compañía de servicios ágiles que proporciona soluciones digitales y un grupo global de tecnólogos que acompaña a sus clientes. Ofrecemos a nuestros clientes una combinación única de proximidad, organización sectorial y soluciones de calidad. Presente en más de 26 países, el grupo tiene cerca de 27,000 colaboradores y apunta a seguir creciendo.

Exclusive offer from getonbrd.com.

¿Cuáles serán tus funciones?

  • Diseñar, desarrollar y optimizar procesos de integración de datos en entornos on-premise (Oracle) y Cloud (Azure) y la migración e integración entre ellos.
  • Implementar y gestionar procesos batch y real-time, garantizando eficiencia y escalabilidad en la ejecución.
  • Desarrollar soluciones con SQL, PySpark/Spark, aplicando buenas prácticas de programación y optimización.
  • Orquestar flujos de datos mediante herramientas como el orquestador en Mainframe, Data Factory.
  • Automatizar procesos de datos para mejorar la eficiencia operativa y reducir tiempos de procesamiento.
  • Optimizar el rendimiento y los costos de servicios en Azure, asegurando el uso eficiente de los recursos en la nube.
  • Integrar los pipelines de datos con aplicaciones y microservicios, facilitando la interoperabilidad dentro del ecosistema bancario.
  • Colaborar con equipos de negocio y tecnología para garantizar la calidad y disponibilidad de los datos.

¿Cuáles son los requisitos para la posición?

  • Profesional de Ingeniería de Sistemas, Informática, Ciencias de la Computación u otras carreras afines.
  • Experiencia con lenguajes Python, PLSQL, PySpark (SparkSQL / Spark Dataframes), SQL. (mandatorio).
  • Experiencia en Tuning y optimización de procesos distribuidos, Shell Scripting y Comandos Linux / Unix. (mandatorio)
  • Experiencia en Cloud Azure y Databricks (Notebooks, Repos, Cluster Management, Unit Catalog) (mandatorio)
  • Experiencia en Azure Data Factory y Azure SQL / Azure Cosmos DB. (mandatorio)
  • Experiencia en Formato de Datos con Delta, CSV, Parquet, JSON y/o Avro.
  • Experiencia en Despliegues de soluciones con herramientas IC (Jira, Jenkins, Github).
  • Conocimientos generales en Arquitectura BigData, Pipeline de Datos, Data Quality y metodologías agile (Scrum).

Además, valoraremos talentos que muestren competencias desarrolladas de Comunicación Asertiva a todo nivel, Autonomía / Autogestión para la toma de decisiones, Orientación al Logro para la consecución de objetivos y Adaptabilidad al Cambio en cualquier entorno.

¿Qué puedes esperar de nosotros?

  • Remuneración en planilla con todas las condiciones de ley.
  • Bono de movilidad y bono de alimentos con tarjeta Pluxee.
  • Capacitaciones constantes acorde a tu línea de carrera y otras de interés general (plataformas de e-learning).
  • Pago de certificaciones acordes a tu perfil y a las necesidades del negocio, además de invitaciones a eventos o congresos relacionados a la comunidad.
  • Beneficios corporativos a través de nuestra plataforma de descuentos y de salud (psicología / nutrición)
  • Línea de carrera con objetivos definidos para tu crecimiento profesional.

GETONBRD Job ID: 54682

Remote work policy

Hybrid

This job is performed partly from home and partly at the office in Lima (Peru).

Life's too short for bad jobs.
Sign up for free and find jobs that truly match you.