Buscamos un DataOps Engineer con al menos 3 años de experiencia en DataOps o Data Engineering, y evidencia de administración de Databricks en entornos productivos. Debe poseer habilidades en automatización de calidad de datos, desarrollo y mantenimiento de pipelines en PySpark, y experiencia con Terraform para infraestructura de datos. Se valorará experiencia en integración de procesos DevOps (CI/CD) para despliegues de datos y seguridad/gobernanza de datos en entornos Azure. El candidato ideal es proactivo, orientado a resultados, con buenas capacidades de comunicación y trabajo en equipo, capaz de traducir requerimientos de negocio en soluciones técnicas robustas y escalables.
En BC Tecnología, somos una consultora de TI con foco en servicios a clientes de sectores como finanzas, seguros, retail y gobierno. Este rol se enmarca en nuestras iniciativas de Data & Analytics, donde diseñamos y operamos pipelines de datos modernos y confiables para apoyar decisiones estratégicas. El DataOps Engineer trabajará en un entorno colaborativo, integrando a Data Engineering, Analytics y DevOps para entregar soluciones escalables y seguras en la nube. Participarás en proyectos para clientes de alto nivel, promoviendo buenas prácticas de calidad de datos, trazabilidad y eficiencia operacional, con foco en innovación y mejora continua.
- Administrar y optimizar el entorno Databricks, gestionando clústeres, notebooks y trabajos automatizados para flujos de datos productivos.
- Diseñar e implementar pipelines de datos eficientes y escalables en Azure Data Factory y/o Databricks Workflows, utilizando PySpark como lenguaje principal.
- Definir y ejecutar estrategias de automatización de calidad de datos, con validaciones, alertas y monitoreo continuo.
- Desarrollar infraestructura como código con Terraform, asegurando versionamiento y despliegue controlado de componentes en la nube.
- Integrar procesos CI/CD para pipelines de datos, incluyendo pruebas unitarias y despliegues automatizados.
- Colaborar con Data Engineering y Analytics para mejorar el flujo, la disponibilidad y la consistencia de los datos.
- Monitorear costos, rendimiento y seguridad de entornos en la nube, implementando mejoras proactivas.
Conocimientos avanzados en Azure Monitor y Databricks Metrics, experiencia en pruebas de calidad de datos con herramientas como Great Expectations, y familiaridad con prácticas de Observabilidad, auditoría y cumplimiento. Experiencia en optimización de costos en entornos cloud y en diseño de soluciones de Data Governance. Certificaciones relevantes en Azure o Data Engineering son un plus.