Descripción de la vacante: Experiencia en Apache Spark (PySpark preferentemente). Sólidos conocimientos en SQL (queries complejas, tuning). Conocimientos funcionales en Java. Disponibilizar infraestructura como código; desarrollo de ETL: Diseñar y mantener flujos de extracción, transformación y carg