RequisitosFormaciónBachiller o egresado en ingeniería de sistemas, computación, informática, estadística, industrial o carreras afines.ExperienciaMínimo 2 a 3 años en el cargo o realizando funciones similares al puesto.Mínimo 2 años en plataformas de visualización como Tableau o Power BI.Mínimo 2 años con manejo avanzado de lenguaje SQL y base de datos SQL Server u Oracle.Mínimo 4 años de experiencia en ejecución de casos de prueba.ConocimientosBusiness Analytics.Conocimientos en servicios de AWS: S3, RedShift, Athena, EMR (Spark), Databricks, Glue, PySpark, DynamoDB, RDS, Step Functions, Athena.Conocimiento en Ms SSIS, Ms Sql Server y Scripts Shells.Experiencia comprobada en proyectos de Big Data o de gran consumo de datos.Dominio comprobado en SQL Standard a nivel intermedio.Optimización de modelos y procesos Sql.Bases de datos Sql y NoSql, modelamiento de datos, herramientas ETL.Programación en Python (intermedio) y Sql.Herramienta de gestión de versiones Bitbucket y GitExperiencia con Power BI.Experiencia DevOps en Terraform y AnsibleConocimiento en API´s de datos y frameworks de procesamiento distribuido (deseable).Inglés a nivel intermedio.CompetenciasComunicación asertiva.ProactividadAdaptaciónHabilidad de análisis.Pensamiento crítico.Enfoque en resultados.Trabajo en equipoHabilidadesCapacidad de trabajar con grandes conjuntos de datos en una variedad de herramientas, incluyendo datos de comportamiento de aplicaciones internas, y herramientas estándar de la industria.Abstraer, resumir y presentar datos con claridad.Manejo de inglés a nivel intermedio.FuncionesContribuir con pipelines de datos para obtener información de diferentes fuentes.Desarrollar y mantener sistemas de procesamiento de datos ETL.Supervisar el procesamiento de los datos en un proyecto Big Data.Realizar la depuración y limpieza de datos.Estructurar los datos para su uso en programa de análisis.Construir algoritmos para facilitar el acceso a los datos brutos.Implementar programas de análisis de datos.Conocimiento de procesos Big Data basados en metodología dataOps (devOps)