DevOps Python Specialist Engineer in Data Observatory

Closed job - No longer accepting applications

Data Observatory, una colaboración público-privada-académica, sin fines de lucro, liderada por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación y el Ministerio de Economía, Fomento y Turismo, creada junto con Amazon Web Services (AWS) y la Universidad Adolfo Ibañez (UAI).
 Trabajamos en proyectos Data Science, en ámbitos como la astronomía y el cambio climático, para contribuir al desarrollo de conocimiento, ciencia, tecnología e innovación a nivel nacional e internacional. Buscamos conformar un centro de datos aportando en la adquisición, almacenamiento, procesamiento, análisis y disponibilidad de los datos a la comunidad utilizando tecnologías en la nube.

Send CV through Get on Board.

Funciones del cargo

  • Trabajar de la mano con astrónomos expertos en radioastronomía para transformar el software desarrollado en CUDA C/C++ a una solución orientada a objetos en Python.
  • Colaborar con el equipo DO DevOps para diseñar, planificar e implementar nuevas soluciones de infraestructura en la nube que resuelvan problemas complejos de forma simple, escalable, segura e innovadora.
  • Implementar soluciones con infraestructura en la nube optimizadas en función de los costos, según el uso, los requisitos comerciales y el presupuesto.
  • Administrar proyectos y actividades DevOps basados en una metodología ágil.
  • Brindar liderazgo tecnológico con visión de futuro en el desarrollo de soluciones innovadoras, enfatizando la mejora continua en la automatización de nuestra infraestructura y procesos de lanzamiento de software.
  • Informar periodicamente sobre el estado de los proyectos, los recursos de la nube, los costos utilizados y las previsiones.
  • Contribuir a potenciar y mejorar los servicios del Data Observatory.

Experiencia y Habilidades

Experiencia
  • Licenciatura en Ciencias de la Computación, Tecnologías de la Información, Ingeniería Eléctrica, Ingeniería de Gestión, Sistemas de Información Gerencial, o áreas afines.
  • Desarrollo de proyectos con conocimientos en Computación de Alto Rendimiento (HPC), Optimización, Análisis de Imágenes y Programación Orientada a Objetos (OOP) con al menos 3 años de experiencia en Python.
  • Buena comprensión de las mejores prácticas de ingeniería de software, como revisiones de código, gestión de control de fuente, procesos de compilación, pruebas, implementación, lanzamiento y gestión de cambios.
  • Experiencia en arquitectura y mantenimiento de sistemas de producción de alta disponibilidad.
  • 2+ Experiencia con conceptos Agile y DevOps Desarrollo de arquitectura de monitoreo e implementación de agentes de monitoreo, tableros, escalaciones y alertas.
  • Excelentes habilidades de comunicación y presentación en español e inglés.
Habilidades
  • Profundo conocimiento en Python, administración de sistemas e infraestructuras, implementación y despliegue de sistemas.
  • Conocimientos de C/C++.
  • Conocimiento en librerias/frameworks de análisis de datos de Python, tales como Pandas, SciPy, Scikit-learn, Numba, Dask.
  • Experiencia con tecnologías back-end para aplicaciones web/API.
  • Conocimientos en bases de datos relacionales y no relacionales.
  • Conocimientos en Integración Continua y Despliegue Continuo.
  • Motivado, jugador de equipo, capaz de tomar la iniciativa y actuar de forma independiente en un entorno acelerado.
  • Actitud DevOps: se trata de cultura, no solo de herramientas.

Deseable

  • Experiencia en la implementación de soluciones basadas en la nube (infraestructura en la nube, componentes de configuración, redes, herramientas de usuario, operación de control) y un historial comprobado de construcción de infraestructura compleja.
  • Experiencia en un rol de equipo multifuncional o trabajando dentro de un equipo en una empresa para optimizar el gasto en la nube de AWS.
  • Comprensión de los conceptos de AWS y experiencia en la gestión de la nube de AWS.
  • Buen conocimiento de la seguridad en la nube (SAML, OAuth, OpenID, Kerberos, Políticas, derechos, etc.) aplicada a los datos.
  • Contar con una certificación AWS.

En el DO tendrás la posibilidad de

  • Trabajar con profesionales e investigadores en el desarrollo de soluciones revolucionarias en campos de la ciencia.
  • Generar impacto, trabajando en proyectos a gran escala a nivel global.
  • Desarrollar una carrera de trabajo en Data Science en contacto con académicos expertos en la materia.
  • Trabajar principalmente de forma remota, siendo necesario asistir a reuniones de coordinación de equipo semanalmente.
  • Ser parte de un equipo multi-disciplinario, liderado por una cultura de trabajo en equipo, ágil y colaborativo, que busca apoyar a investigadores y desarrollar soluciones innovadoras.

GETONBRD Job ID: 33416

Partially remote You can work from your home some days a week.
Speaker travel If you speak at a conference, Data Observatory will cover your expenses.
Free car parking You can park your car for free at the premises.
Computer provided Data Observatory provides a computer for your work.
Conference stipend Data Observatory covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.

Remote work policy

Hybrid

This job is performed partly from home and partly at the office in Santiago (Chile).

Life's too short for bad jobs.
Sign up for free and find jobs that truly match you.