Fathom tiene la misión de utilizar la inteligencia artificial para entender y estructurar los datos médicos del mundo, comenzando por interpretar los terabytes de notas de clínicos contenidas en los registros electrónicos de salud de los sistemas de salud más grandes del mundo. Nuestro motor de aprendizaje profundo automatiza la traducción de los registros de pacientes a los códigos de facturación utilizados para el reembolso de los prestadores de atención sanitaria, un proceso que hoy en día cuesta a los hospitales en los Estados Unidos más de $15 mil millones anualmente y decenas de miles de millones más en errores y reclamaciones denegadas. Somos una empresa respaldada por inversionistas que completó una ronda de financiación Serie B por $46 millones a finales de 2022.
Estamos buscando un Ingeniero de Software, Datos para trabajar en productos de datos que impulsan el núcleo de nuestro negocio. Queremos trabajar con compañeros de equipo que estén ubicados remotamente en América del Norte, que estén entusiasmados con aprender a construir y soportar tuberías de aprendizaje automático que no sólo escalen computacionalmente, sino que sean flexibles, iterativos y estén orientados a la colaboración. Si eres un experto en datos capaz de unificar datos y construir sistemas que escalen tanto desde una perspectiva operativa como organizativa, Fathom es una oportunidad interesante para explorar.
Tu rol y responsabilidades incluirán:
Desarrollo de infraestructura de datos para ingerir, sanear y normalizar una amplia gama de datos médicos, como registros de salud electrónicos, revistas, ontologías médicas establecidas, etiquetado crowd-sourced y otras entradas humanas
Construcción de interfaces performantes y expresivas a los datos
Creación de infraestructura para ayudarnos no sólo a escalar la ingestión de datos, sino también el aprendizaje automático basado en la nube a gran escala
Buscamos un compañero de equipo con :
2+ años de experiencia en ingeniería de software en un entorno de empresa/producción
Conocimiento de algoritmos, estructuras de datos y diseño de sistemas
Experiencia en la construcción de tuberías de datos de fuentes dispares
Experiencia práctica en la construcción y escalado de clusters de cómputo
Un sólido entendimiento de las bases de datos y marcos de procesamiento de datos a gran escala como Hadoop o Spark, y la habilidad de evaluar qué herramientas utilizar en el trabajo
Una combinación única de habilidades creativas y analíticas capaz de diseñar un sistema que pueda reunir, entrenar, y probar docenas de fuentes de datos bajo una ontología unificada
Puntos extra si tienes:
Experiencia en el desarrollo de sistemas para hacer o apoyar el aprendizaje automático, incluyendo experiencia trabajando con kits de herramientas NLP como Stanford CoreNLP, OpenNLP, y/o NLTK de Python
Experiencia con el manejo de datos de salud y/o HIPAA
Experiencia en la gestión de etiquetado y adquisición de datos a gran escala, a través de herramientas como Amazon Turk o DeepDive