50043244 DATA ENGINEERS
IbertechDescripción del puesto
En Ibertech, especialistas en talento tecnológico e industrial, buscamos dos Data Engineers para incorporarse a un proyecto internacional en el sector financiero, participando en iniciativas de modernización de plataformas de datos y migración de infraestructuras Big Data hacia entornos cloud y arquitecturas basadas en contenedores.
La persona seleccionada se integrará en un equipo técnico especializado en ingeniería de datos, trabajando en el desarrollo, transformación y orquestación de pipelines de datos en entornos Big Data, colaborando con equipos de negocio y tecnología en la evolución de la arquitectura de datos.
Funciones principales
- Participar en la migración de infraestructuras Hadoop existentes hacia entornos cloud basados en Kubernetes Engine, Spark as a Service y Airflow as a Service.
- Desarrollar y mantener procesos de transformación y calidad de datos para garantizar la consistencia e integridad de la información.
- Implementar pipelines de datos y procesos de ingestión automatizados mediante herramientas de orquestación y planificación de procesos (principalmente Apache Airflow).
- Desarrollar procesos de procesamiento de datos utilizando Scala, SQL y Spark.
- Configurar y mantener pipelines de CI/CD para automatizar despliegues, pruebas unitarias y gestión del desarrollo.
- Realizar tests unitarios y de validación para garantizar la calidad del código desarrollado.
- Elaborar documentación técnica y operativa de las soluciones implementadas.
- Colaborar con equipos multidisciplinares de negocio y tecnología para comprender los requisitos de datos y aportar soluciones técnicas.
- Participar en entornos de trabajo ágiles fomentando la mejora continua del equipo.
- Experiencia como Data Engineer o Big Data Engineer en proyectos de ingeniería de datos.
- Conocimientos sólidos en Spark con Scala.
- Experiencia trabajando con ecosistema Hadoop y sistemas de almacenamiento como HDFS.
- Experiencia en Apache Airflow para la orquestación de pipelines de datos.
- Conocimiento de bases de datos SQL y NoSQL.
- Experiencia trabajando con formatos de datos columnar como Parquet u ORC.
- Experiencia en automatización de pipelines de datos y procesos ETL/ELT.
- Conocimiento de herramientas CI/CD como GitLab o Jenkins.
- Conocimiento del ciclo de vida del desarrollo de software (SDLC).
- Experiencia trabajando con metodologías ágiles.
- Nivel de inglés B2 o superior.
- Experiencia en containerización con Kubernetes.
- Experiencia con Oozie y scripting en entornos Linux (Shell).
- Conocimiento de herramientas de virtualización de datos como Dremio.
- Experiencia en procesamiento de streaming (Kafka u otras plataformas de eventos).
- Conocimiento de herramientas de observabilidad o análisis como Elasticsearch y Kibana.
- Conocimiento de Hashicorp Vault (HVault).
- Experiencia previa en proyectos del sector financiero o banca.
¿Qué ofrecemos?
- Incorporación a un proyecto internacional de alto impacto en el sector financiero.
- Colaboración con equipos técnicos especializados en arquitecturas de datos Big Data y cloud.
- Modalidad híbrida en Madrid (1 día presencial / 4 días remoto).
- Posibilidad de viajes puntuales a Italia según necesidades del proyecto.
- Participación en proyectos de modernización de plataformas de datos y migración a cloud.
- Entorno técnico dinámico orientado a ingeniería de datos avanzada y transformación digital.
- Acceso a formación continua y desarrollo profesional.
¿Te interesa este puesto?