This job offer is no longer available
About
Sobre tu rol Serás responsable del diseño y desarrollo de soluciones de almacenamiento de datos robustas y escalables. Serás responsable de crear soluciones de datos basadas en los requisitos del negocio. Estas soluciones pueden implicar la recuperación, transformación, almacenamiento y entrega de datos, siguiendo los estándares y las mejores prácticas.
Oportunidades de trabajo
Diseñar, innovar y crear soluciones de datos, con libertad operativa.
Apoyo directo, gerencial y operativo para la mejora en los servicios internos y proveedores.
Trabajar con tecnologías sofisticadas y líderes para el desarrollo de nuevos productos y soluciones.
Beneficios y compensación
Ingreso
de 60,000 a 65,000 pesos libres con prestaciones de Ley, 100% nominal, seguro de gastos médicos, seguro de vida, pago de servicios de conectividad y vales de despensa.
Horario
de lunes a viernes 9:00 p.m. a 6:30 p.m.
Zona de trabajo : Remoto
Calificaciones
5 a 7 años de experiencia como Data engineer, Ingeniero de datos, Data Engineer, Data Architect, Data Lead.
Inglés Avanzado para sesiones de formación y de trabajo.
Gestión avanzada en levantamiento de requerimientos con usuario final, adecuado manejo de relacionamiento con stakeholders en diversas unidades de negocio.
4 a 5 años de experiencia en Python para diseño, modelado (#NF, dimensional, STAR, capas semánticas, etc.), prototipado de datos con manejo de librerías como: Tenserflow, Pytorch.
4 a 5 años en diseño, desarrollo y modelado de Datawarehouse, flujos de datos ETL ELT, Procesamiento SFTP, pipelines de diferentes fuentes (APIs, streaming, BDD), datalakes, Queries, procedimientos con Snowflake Cloud Data Platform. Integración DBT con orquestadores como Airflow, BigQuery, Dagster, Fivetran, Airbyte.
4 a 5 años en conocimiento avanzado de Snowflake: Snowpipe, Streams & Tasks, Time Travel, RBAC, resource monitors.
2 años de experiencia en diseño de modelo de datos con arquitectura Medallion, Data Mesh o Modern Data Warehouse.
Conocimiento avanzado de bases de datos SQL (SQL Server, Oracle, Postgres y MySQL) y NoSQL (MongoDB, Cassandra, Couch, Redis, etc).
Familiaridad y manejo de DevOps cloud en AWS, Azure o GCP. Apego a innovación con herramientas de IA y ML para datos como: Cortex, DBT AI, Vertex AI, Github Copilot, Amazon Bedrock.
Manejo de versionamiento de código con Git, Github y GitFlow.
#J-18808-Ljbffr
Languages
- English
Notice for Users
This job was posted by one of our partners. You can view the original job source here.