El proyecto se centra en maximizar el valor de los datos y ofrecerlos como un servicio estratégico a proveedores que se convierten en clientes.
El equipo trabaja para asegurar que los datos generados en distintos puntos de venta y operaciones se transformen en información valiosa y accesible, proporcionando insights clave que permiten a nuestros clientes tomar decisiones informadas.
Desde ventas hasta gestión de stock, el equipo traduce los datos crudos en métricas precisas que se adaptan a diferentes modelos de negocio.
Integrarse a este equipo significa ser parte de un grupo dinámico y colaborativo que se enfoca en la calidad, accesibilidad y personalización de los datos. La esencia del equipo está en procesar y preparar la información de manera efectiva para cumplir con las necesidades específicas de cada cliente.
Buscamos un Data Engineer con profundo conocimiento y experiencia en la orquestación de datos en entornos cloud, especialmente en AWS y Azure para la gestión de pipelines de datos. Este rol implica la administración de un Data Lake y la creación de procesos de Data Quality y ETL para asegurar la calidad y disponibilidad de los datos. Será responsable de optimizar el flujo de datos desde múltiples orígenes hacia un Data Warehouse y de generar métricas y reportes basados en KPIs.
El candidato ideal debe estar familiarizado con Power BI para la visualización de datos, ya que se utiliza como herramienta principal de análisis embebida en una aplicación React con backend en NestJS, por lo que se valorará la experiencia en desarrollo Javascript.
Requisitos Técnicos:
Al menos 4 años de experiencia con:
• Python (Excluyente): Dominio avanzado para el desarrollo de scripts y pipelines de
datos, incluyendo experiencia con bibliotecas como Pandas, PySpark y NumPy.
• Scala (Deseable): Familiaridad con este lenguaje, especialmente para trabajar con
Apache Spark en entornos de Big Data.
• SQL (Excluyente): Capacidad para escribir consultas complejas, optimización de
consultas y diseño de modelos de datos en bases de datos relacionales. Fundamental para los procesos de extracción, transformación y carga (ETL).
• Apache Spark (Excluyente): Experiencia en el procesamiento de datos masivos
utilizando Spark, preferentemente con PySpark o Scala.
• AWS (Excluyente): Experiencia avanzada en orquestación y desarrollo de pipelines ETL
utilizando servicios como AWS Glue (PySpark), Lambda, S3, y Step Functions.
• Azure Databricks (Deseable): Conocimientos básicos o intermedios para el
procesamiento de datos en plataformas de Microsoft Azure.
• Resolución de Problemas: Capacidad analítica para identificar y solucionar
desafíos complejos en procesos de datos.
• Comunicación: Habilidad para documentar y presentar hallazgos técnicos a
equipos multidisciplinarios.
• Colaboración: Experiencia trabajando en equipos ágiles y en estrecha
colaboración con analistas de datos, científicos de datos y otros ingenieros.
• Atención a los Detalles: Minuciosidad para garantizar la precisión y calidad de los
datos procesados.
En WiTI, nuestro centro son las personas y la agilidad. Por esto, creemos en los equpos 100% remotos y multiculturales, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.
Locally remote only
Position is 100% remote, but candidates must reside in South America.