Buscamos un Data Engineer Specialist con al menos 3 años de experiencia en diseño y construcción de pipelines ETL/ELT, dominio avanzado en Python, Spark y SQL, y experiencia en diseño y consumo de APIs REST. Se valorará experiencia con frameworks Python para APIs (FastAPI o Flask), autenticación y versionado de payloads orientados a negocio, y orquestación con Apache Airflow. Se requieren habilidades en AWS (Glue, S3, Redshift, Lambda, Step Functions, Lake Formation) y experiencia con arquitecturas lakehouse (Iceberg, Delta Lake o Hudi). Debes tener experiencia con herramientas de gobierno de datos (Unity Catalog, Purview, Glue Catalog, Lake Formation u otras), pruebas de calidad de datos y conocimientos de Data Mesh. Se valorarán conocimientos en modelamiento dimensional (Star Schema/Snowflake). Nivel de conversación y documentación clara, proactividad y capacidad de trabajar en equipo son imprescindibles. Se aceptará postulantes fuera de Chile, postulantes chilenos deben considerar trabajo hÃbrido (presencial y telemático)
En Agilistik trabajamos con los clientes más grandes de Chile y LATAM, implementando soluciones de agilidad y desarrollo de software. Nuestro equipo se enfoca en entregar valor a través de prácticas de datos modernas, gobernanza y arquitecturas escalables. Buscamos contribuir a proyectos desafiantes en un entorno colaborativo y dinámico, con oportunidades de crecimiento profesional y certificaciones ágiles.
- Diseñar y construir pipelines de datos eficientes y escalables (ETL/ELT) para mover y transformar datos.
- Diseñar e implementar integraciones con APIs REST internas y externas.
- Garantizar calidad y confiabilidad mediante pruebas unitarias y controles de calidad de datos.
- Implementar flujos CI/CD para entornos de desarrollo y producción.
- Diseñar pipelines avanzados con resiliencia, idempotencia y arquitecturas orientadas a eventos.
- Orquestar procesos de datos con Airflow.
- Modelar estructuras analÃticas bajo esquemas Star y Snowflake; diseñar modelos de hechos y dimensiones (ventas, stock, recepciones, forecast, entre otros).
- Contribuir al gobierno de datos mediante metadata, catálogos y trazabilidad (linaje).
- Documentar soluciones técnicas de forma clara y estructurada (Confluence, Markdown, etc.).
- Colaborar con lÃderes técnicos para definir lineamientos y buenas prácticas.
- Contribuir a la mejora continua de la calidad y eficiencia de los procesos de datos.
Experiencia previa en retail. Experiencia con Infraestructura como Código (Terraform). Experiencia diseñando pipelines event-driven y near real time (NRT). Experiencia en entornos de alta volumetrÃa de datos.