Senior Big Data Engineer - Homes.com

Job expired!

Descripción General

CoStar Group (NASDAQ: CSGP) es un proveedor global líder de información, análisis y mercados en línea de bienes raíces comerciales y residenciales. Incluido en el índice S&P 500 y en el NASDAQ 100, CoStar Group tiene la misión de digitalizar el mercado inmobiliario mundial, permitiendo a todas las personas descubrir propiedades, información y conexiones que mejoren sus negocios y vidas.

Con más de 35 años de experiencia en la industria, hemos refinado y perfeccionado continuamente nuestro enfoque hacia la información inmobiliaria y los mercados en línea. Este compromiso con la innovación nos ayuda a ofrecer un valor excepcional a nuestros clientes, empleados e inversores. Al equipar a las mentes más brillantes con los mejores recursos disponibles, proporcionamos una ventaja inestimable en bienes raíces.

Homes.com es uno de los portales inmobiliarios de más rápido crecimiento en la industria, impulsado para convertirse en el número 1. Después de su adquisición en 2014, Apartments.com rápidamente se convirtió en el lugar más popular para encontrar un lugar. Ahora estamos replicando este éxito con el nuevo Homes.com.

Como parte del CoStar Group, Homes.com aprovecha más de 20 años de experiencia en mercados digitales para mejorar e innovar continuamente. Estamos construyendo una marca preparada para definir la industria y buscamos grandes pensadores, líderes valientes y talentos creativos listos para influir en la nueva era de la compra de viviendas.

Conoce más sobre Homes.com.

Homes.com está expandiéndose rápidamente y está buscando un Ingeniero de Datos Senior para ayudar a acelerar nuestro crecimiento. El rol implica construir una arquitectura de seguimiento en todo el sitio y alimentar datos en paneles de control KPI fáciles de usar. Estos paneles rastrean el rendimiento del sitio, el uso del producto y proporcionan información diaria sobre el comportamiento del consumidor. Tendrás un papel clave en el diseño y mantenimiento de la infraestructura de datos automatizada, creando soluciones de BI y facilitando el acceso y análisis de datos para los equipos clave de la empresa.

Ubicación: Washington, DC
Horario: Híbrido (3 días en oficina, 2 días remoto)

  • Diseñar, construir, probar, desplegar y mantener pipelines de datos procesados en tiempo real y por lotes.
  • Desarrollar y mantener sistemas de almacenamiento y recuperación de datos.
  • Asegurar la precisión, consistencia y seguridad de los datos.
  • Integrar datos de múltiples sistemas fuente.
  • Desarrollar y mantener modelos de datos y procesos ETL/ELT.
  • Colaborar con equipos de análisis, científicos de datos y analistas de negocios.
  • Trabajar con equipos de ingeniería multifuncionales.
  • Abogar por la evolución y mejora técnica y no técnica dentro de nuestros equipos, incluyendo nuevas tecnologías, herramientas y mejores prácticas.
  • Título universitario en una universidad acreditada, preferentemente en Informática, Ciencias de Datos o un campo relacionado. MSc o PhD es una ventaja.
  • Historial de compromiso con empleadores anteriores.
  • Experiencia demostrada construyendo y lanzando productos exitosos usando terabytes de datos.
  • Más de 5 años de experiencia en ingeniería de pipelines de datos y experiencia profunda en ingeniería de bases de datos.
  • Habilidad para analizar requisitos técnicos y diseñar nuevas arquitecturas de datos, modelos y estrategias ETL/ELT.
  • Experiencia práctica con bases de datos relacionales y no relacionales basadas en la nube y competencia en SQL.
  • Entregar productos de trabajo que cumplan con las especificaciones, estén libres de defectos y sean de alto rendimiento.
  • Definir las mejores prácticas de arquitectura y desarrollo.
  • Competencia en lenguajes de programación como Python, R y SQL.
  • Optimización del rendimiento de consultas de bases de datos (por ejemplo, Snowflake, Databricks).
  • Competencia en técnicas de modelado de datos.
  • Experiencia con bases de datos No-SQL (por ejemplo, DynamoDB).
  • Experiencia con herramientas de pipeline de datos (por ejemplo, Glue, Apache Airflow, Lambda).