Data Engineer
Resumen del puesto
El Data Engineer es responsable de diseñar, construir y mantener pipelines de datos robustos, escalables y eficientes que soporten las necesidades analíticas y operativas de la organización. Su función principal es garantizar que la información fluya de manera confiable desde múltiples fuentes hacia las plataformas de almacenamiento y análisis, aplicando buenas prácticas de calidad, integración y seguridad.
Este rol requiere habilidades técnicas avanzadas en programación (Python, PySpark), manejo de entornos cloud y herramientas de big data, además de experiencia en bases de datos relacionales y no relacionales. Actúa como puente entre las fuentes de datos, arquitectos y analistas, asegurando que la infraestructura de datos respalde la toma de decisiones y el desarrollo de soluciones de inteligencia artificial y machine learning.
Responsabilidades principales
Diseñar, desarrollar y optimizar pipelines de datos en entornos cloud y on-premise.
Construir procesos de ingesta, transformación y carga (ETL/ELT) que aseguren escalabilidad y eficiencia.
Implementar integraciones entre sistemas internos y externos, garantizando consistencia y trazabilidad de la información.
Administrar y optimizar bases de datos relacionales (SQL) y no relacionales (NoSQL).
Colaborar con arquitectos, analistas de datos y científicos de datos para asegurar que los datasets sean confiables y de calidad.
Aplicar prácticas de control de versiones, pruebas automatizadas y despliegue continuo (CI/CD).
Implementar mecanismos de monitoreo, alertas y auditoría en pipelines de datos críticos.
Documentar procesos, arquitecturas y flujos de datos de acuerdo con lineamientos de la organización.
Contribuir al diseño y evolución de la arquitectura de datos en la nube (Azure, AWS, GCP).
Adoptar metodologías ágiles para la entrega iterativa y eficiente de soluciones de datos.
Requisitos
Educación: Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Datos o carreras afines.
Formación complementaria:
Programación en Python y PySpark.
Manejo de Databricks y ecosistemas Big Data.
Administración de bases de datos SQL y NoSQL.
Conocimientos en integración de datos y optimización de consultas.
Fundamentos de arquitecturas cloud (Azure Data Factory, AWS Glue, GCP Dataflow).
Experiencia:
Mínimo 3 años en ingeniería de datos o construcción de pipelines.
Experiencia comprobada en diseño y mantenimiento de flujos de integración y procesamiento de datos.
Trabajo en proyectos con metodologías ágiles y control de versiones (Git).
- Departamento
- Tecnología
- Ubicaciones
- México
- Estado remoto
- Remoto temporal
Acerca de Consultec-TI
En Consultec-TI creemos en el poder del talento para transformar organizaciones. Impulsamos la evolución digital en sectores como banca, retail, salud, energía y gobierno, desarrollando soluciones que optimizan procesos y mejoran la experiencia de los usuarios. Aquí encontrarás un espacio para crecer, participar en proyectos innovadores y ser parte de equipos de alto rendimiento que marcan la diferencia.
¿Ya trabajas en Consultec-TI?
Ayúdanos a encontrar a tu próximo compañero/a.