Atresmedia, Data Engineer, Madrid

El puesto se integra en el Área de IT de Atresmedia. La persona seleccionada trabajará junto al equipo de Data & Analytics en el desarrollo y mantenimiento de los procesos de ingesta, transformación y orquestación de datos que alimentan nuestro Datalake y Data Warehouse corportativo (Snowflake). Formarás parte de un equipo altamente colaborativo, y tu misión principal será asegurar la calidad, fiabilidad y eficiencia de los pipelines de datos que soportan el reporting, la analítica y los productos de datos de la compañía. Se ofrece un entorno estable en compañía líder del sector, con modelo híbrido y posibilidades de desarrollo profesional.

Qué ofrecemos

  • Modelo mixto presencial/teletrabajo y horario flexible, según política interna.

  • Incorporación a compañía líder en medios de comunicación.

  • Estabilidad, proyectos con impacto y plan de desarrollo/formación.

  • Paquete retributivo competitivo acorde a la experiencia.

Funciones realizadas

  • Diseñar, desarrollar y mantener procesos ETL/ELT sobre AWS, utilizando Scala y Apache Spark.

  • Implementar y monitorizar flujos de orquestación en Apache Airflow.

  • Participar en la migración y mejora de procesos actualmente orquestados con AWS Step Functions.

  • Colaborar con el equipo de Data Architecture en la evolución del Datalake y del modelo de datos en Snowflake.

  • Asegurar la trazabilidad y calidad de los datos a lo largo de los distintos entornos (Desarrollo, Preproducción, Producción).

  • Mantener buenas prácticas de versionado de código y despliegue continúo utilizando Git y Jenkins.

  • Contribuir a la optimización de costes y rendimiento en las cargas y transformaciones.

REQUISITOS

Imprescindible

  • Grado o master en Ingeniería matemática, matemáticas, estadística o similar.

  • Experiencia mínima de 2 a 4 años en ingeniería de datos o desarrollo de pipelines en entornos cloud.

  • Experiencia práctica en AWS (Lambda, S3, Step Functions, IAM, CloudWatch).

  • Conocimientos sólidos en Apache Spark y desarrollo en Scala.

  • Experiencia en la creación y mantenimiento de pipelines de datos.

  • Familiaridad con Airflow como herramienta de orquestación.

  • Conocimientos de SQL avanzado y trabajo con Snowflake u otros Data Warehouses cloud.

  • Experiencia trabajando con Git y Jenkins en entornos colaborativos.

Valorable

  • Conocimientos de Python para scripting o automatización.

  • Experiencia con infraestructura como código (Terraform, CloudFormation).

  • Familiaridad con PowerBI o herramientas de reporting empresarial.

  • Nociones de data quality frameworks

Aplicar
Anterior
Anterior

EXTE, Publisher Account Executive, Madrid

Siguiente
Siguiente

Making Science, Media Planner, Madrid