Factor IT

Ingeniero de Datos in Factor IT

Closed job - No longer receiving applicants

En FactorIT, estamos en búsqueda de profesionales de datos que se unan a nuestro equipo para trabajar en Ciudad de México, con la posibilidad de participar en múltiples proyectos regionales a lo largo de Latinoamérica. Nos enfocamos en liderar la transformación digital de nuestros clientes, utilizando tecnologías de punta como la Inteligencia Artificial y Data & Analytics, para procesar grandes volúmenes de datos y ofrecer soluciones innovadoras y proactivas.

Buscamos expertos que deseen ser parte de esta emocionante aventura, trabajando en un ambiente que fomenta la creatividad, la colaboración y el desarrollo profesional. Si te apasiona el mundo de los datos y quieres impactar positivamente en la región, ¡únete a nosotros y sé parte de la revolución digital en Latinoamérica!

Funciones del cargo

Trabajarás como Ingeniero de Datos en FactorIT en Ciudad de México, en un esquema híbrido. Formarás parte de un equipo interdisciplinario de ingenieros, analistas y científicos de datos. Tu principal responsabilidad será diseñar, construir y mantener pipelines de datos robustos y eficientes que permitan a la organización tomar decisiones informadas basadas en datos confiables y procesables.

Requerimientos del cargo


Conocimientos Técnicos:

  • Herramientas ETL: Profundo conocimiento en herramientas como SSIS, ODI, SPARK, Informática y Kafka para la extracción, transformación y carga de datos.
  • Bases de Datos: Experiencia sólida trabajando con Oracle, SQL Server, DB2, Cassandra, y otros sistemas de bases de datos relacionales y no relacionales.
  • IDE de Desarrollo: Uso de herramientas como Eclipse, IntelliJ y Gitlab para el desarrollo y gestión del ciclo de vida del código.
  • Conocimiento en herramientas de gestión y colaboración: Familiaridad con JIRA para la gestión de tareas y proyectos, así como Office para la documentación y comunicación efectiva.
  • Gestión de código y despliegue: Experiencia en herramientas de CI/CD como Bitbucket, Jenkins y SonarQ.

Actividades Principales a Realizar:

  • Desarrollar soluciones de manejo de datos a medida que se adapten a las necesidades y tecnologías específicas de la compañía, asegurando la eficiencia y escalabilidad.
  • Realizar análisis de datos para la resolución de incidentes y brindar insights que contribuyan a la toma de decisiones informadas.
  • Ejecutar ingeniería inversa para identificar áreas de oportunidad y proponer mejoras en procesos de datos, enfocándose en la mejora continua.
  • Documentar procesos y soluciones implementadas, asegurando que toda la información relevante esté registrada y actualizada.
  • Diseñar e implementar flujos de datos (data pipelines) que permitan la extracción, transformación y carga de datos desde múltiples fuentes hacia el Data Warehouse de manera eficiente y normalizada.
  • Analizar el comportamiento de la información para generar KPIs, cubos de información y otros elementos que faciliten la explotación de datos.
  • Aplicar conocimientos del DAMA-DMBOK para asegurar la correcta gobernanza y calidad de los datos a lo largo del ciclo de vida.
  • Modelar datos utilizando esquemas normalizados (Snowflake/Star schemas) y asegurar la consistencia y eficiencia de los modelos.
  • Desarrollar consultas y procedimientos de datos utilizando SQL y PLSQL, manejando DML y DDL de manera eficiente.
  • Participar en la identificación, aislamiento, resolución y comunicación de problemas de datos en los distintos ambientes (DEV, QA, UAT y Producción).
  • Implementar pruebas unitarias y participar en la gestión del ciclo de desarrollo de tecnología, utilizando herramientas como Bitbucket, Jenkins y SonarQ.
  • Diseñar y desplegar ambientes basados en microservicios que soporten la arquitectura de datos de la empresa.
  • Desarrollar soluciones de Big Data utilizando tecnologías como Spark y Hadoop.
  • Identificar y ejecutar procesos de mejora continua en el manejo y calidad de datos.

Experiencia:

  • Al menos 3 años de experiencia como desarrollador ETL, con habilidades en diseño, análisis e implementación de procesos de datos.
  • Al menos 3 años de experiencia en desarrollo de código enfocado en datos utilizando lenguajes como Java, Python y/o Scala.
  • Experiencia en arquitectura y soporte para procesos de Big Data, preferentemente con Spark y Hadoop.
  • Conocimiento en la estructuración y patrones de Data Warehousing y Data Lakes, así como en la implementación de proyectos de datos de punta a punta.
  • Familiaridad con sistemas de tickets como JIRA, Trello o Redmine para la gestión y seguimiento de tareas.
  • Experiencia en implementaciones de datos utilizando metodologías ágiles.
  • Al menos 2 años de experiencia utilizando herramientas ETL como SSIS, ODI, NIFI o similares.
  • Experiencia en plataformas Cloud, preferentemente en IBM Cloud.

Deseable:

  • Experiencia en la integración de aplicaciones y datos utilizando Kafka (especialmente Confluent).
  • Conocimiento en DataFlow Manager de Cloudera para la gestión y control de flujos de datos.

Habilidades Blandas:

  • Trabajo en equipo y capacidad para colaborar con equipos multidisciplinarios
  • Orientación al detalle y capacidad para identificar y resolver problemas de datos de manera efectiva.
  • Buena comunicación y habilidad para documentar y compartir conocimientos de manera clara y efectiva.

Remote work policy

Hybrid

This job takes place some days from home and others at the office in Ciudad de México (Mexico).

Life's too short for bad jobs.
Sign up for free and find jobs that are truly your match.