¿Estás buscando desafíos y un lugar donde puedas encontrar un ambiente de trabajo cercano mientras aprendes constantemente?
Somos una empresa con un propósito claro: " TRANSFORMAR la vida de las personas siendo el aliado TECNOLÓGICO más confiable".
¡Prepárate y sé parte de esta aventura!
¿Qué encontrarás?
Retos técnicos y personales Un equipo conectado con el crecimiento .
Un equipo donde tu bienestar físico y mental es importante.
Una cultura de mejora continua, fresca y colaborativa donde puedes encontrar una oportunidad y personas dispuestas a apoyarte.
Nuestro programa KaizenHub donde puedes crecer y desarrollar tus talentos donde será todo un reto y un juego, acompañado de feedback constante por tus líderes, mentorías y coaching por parte de Sofka U ¡Saca tu mejor potencial!
Programas dirigidos a potencializar tus competencias, viviendo diariamente la mejora continua y promoviendo tu bienestar físico y emocional.
Se llaman Happy Kaizen y WeSofka , en donde contarás con diferentes beneficios que irás adquiriendo en el tiempo cómo pólizas de salud para ti, tu familia y mascotas, ahorro con propósito, gimnasio y más.
¿Qué buscamos?
Arquitecto de Datos Semi Senior con un sólido conocimiento en arquitecturas Big Data y experiencia en la integración de Databricks con AWS.
Con habilidades avanzadas en la orquestación de pipelines de datos, así como en el procesamiento de grandes volúmenes de datos a través de arquitecturas Batch y Lambda.
Este rol es clave para asegurar que nuestras soluciones de datos sean robustas, eficientes y estén alineadas con las mejores prácticas del sector.
Responsabilidades: Diseñar e implementar arquitecturas de datos escalables y eficientes en entornos de producción.
Integrar Databricks con AWS para la orquestación y gestión de pipelines de datos.
Optimizar queries y gestionar bases de datos distribuidas en entornos SQL y NoSQL.
Implementar sistemas de almacenamiento distribuido (S3, Redshift, Delta Lake) y garantizar su rendimiento.
Desarrollar soluciones de procesamiento en tiempo real utilizando Apache Kafka y Flink.
Automatizar procesos ETL en Databricks y gestionar flujos de trabajo utilizando servicios de AWS como Glue, Lambda y Step Functions.
Colaborar con otros equipos técnicos para garantizar la calidad y eficiencia de los datos.
Conocimientos técnicos requeridos: Arquitectura Big Data y integración de Databricks con AWS.
Gestión de bases de datos SQL y NoSQL en entornos de producción.
Procesamiento distribuido y almacenamiento (S3, Redshift, Delta Lake).
Manejo de Apache Kafka y Flink para soluciones de streaming.
Automatización de procesos ETL en Databricks.
¡PRESENTATE!
Condiciones Contrato a término indefinido , nos encantan las relaciones a largo plazo por lo que queremos que formes parte de esta familia por mucho tiempo.
Puedes estar ubicado en cualquier lugar del mundo , ¡nos gusta que trabajes de forma remota!
Pero si te encuentras en Medellín y Bogotá queremos que dos días al mes trabajes desde casa Sofka, buscando generar SINERGÍAS y FORTALECER lazos con tu equipo de trabajo, además que compartas un rico almuerzo... ¿Y por qué no?
una bebida para refrescarte.
Adicional si quieres ir mas días a la oficina tendrás tu almuerzo reservado para ese día.
¿Buscas crecimiento profesional ?
Puedes diseñar tu plan carrera acorde a lo que buscas y te quieres proyectar.