Leniolabs_

Data Engineer con AWS in Leniolabs_

Closed job - No longer receiving applicants

Leniolabs es una empresa de desarrollo de software con sedes en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes que se encuentran principalmente en San Francisco, sumándose con nuestros equipos y estructura.
Nuestra experiencia se basa fuertemente en el desarrollo frontend con lenguajes como Javascript, React y Angular. También trabajamos algunos proyectos en backend con lenguajes como Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a las/los desarrolladoras/es dinámicas/os en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc.

Job functions

En Leniolabs estamos en la búsqueda de un Data Engineer con experiencia en AWS y amplio manejo de PostgreSQL. El candidato ideal debe contar con conocimientos en herramientas de infraestructura como IaC (CDK) y experiencia en la construcción y mantenimiento de pipelines de ETL, así como en la implementación de Data Warehouses y Data Lakes. Buscamos una persona capaz de diseñar, implementar y mantener infraestructuras de datos escalables y seguras, colaborando con equipos multifuncionales para optimizar el rendimiento y garantizar una gestión eficiente de los datos. Valoramos perfiles proactivos, con interés en las últimas tecnologías y capacidad para aportar soluciones innovadoras y escalables.

Qualifications and requirements

  • Más de 5 años de experiencia en roles de datos.
  • Nivel de inglés: Intermedio/avanzado en adelante (B2+)
  • Amplia experiencia trabajando con bases de datos SQL, preferentemente PostgreSQL y despliegue de soluciones en la nube, preferentemente AWS.
  • Conocimiento y experiencia en herramientas de la nube, desarrollo nativo en la nube y IaC, preferentemente en entornos AWS.
  • Experiencia desarrollando y consumiendo API REST.
  • Experiencia con pipelines de ETL, data warehouses y data lakes.
  • Familiaridad con arquitecturas basadas en microservicios.
  • Experiencia en la implementación de CI/CD, despliegues en la nube, y GitHub Actions.
  • Conocimiento y experiencia con AWS CDK y TypeScript destacando servicios como S3, Glue, Lambda, RDS, EventBridge, y Kinesis.
  • Experiencia trabajando bajo metodologías ágiles como SCRUM/Lean.
  • Manejo avanzado de bases de datos SQL y NoSQL, data warehouses, data lakes, y pipelines de ETL.

Desirable skills

  • Se valoran conocimientos en Jupyter, Spark, dbt, y Redshift.

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.

Remote work policy

Locally remote only

Position is 100% remote, but candidates must reside in Colombia, Chile, Peru or Argentina.

Life's too short for bad jobs.
Sign up for free and find jobs that are truly your match.