Fathom tiene la misión de utilizar la IA para entender y estructurar los datos médicos del mundo, comenzando por dar sentido a los terabytes de notas de los profesionales de la salud contenidos en los registros electrónicos de salud de los sistemas de salud más grandes del mundo. Nuestro motor de aprendizaje profundo automatiza la traducción de los registros de los pacientes en los códigos de facturación utilizados para el reembolso de proveedores de salud, un proceso que actualmente cuesta a los hospitales en los EE. UU. más de $15 mil millones anualmente y decenas de miles de millones más en errores y reclamaciones denegadas. Somos una empresa respaldada por capital de riesgo que completó una ronda de financiación de la serie B por $46 millones a fines de 2022.
Estamos buscando a un Ingeniero de Software Senior, Datos, en modalidad remota desde América del Norte para unirse a nuestro equipo y trabajar en productos de datos que impulsan el núcleo de nuestro negocio. Deseamos trabajar con compañeros de equipo remotos que estén entusiasmados por aprender a construir y dar soporte a tuberías de aprendizaje automático que no solo escale computacionalmente, sino también de manera flexible, iterativa y orientada a la colaboración. Si eres un experto en datos capaz de unificar datos y construir sistemas que puedan escalar tanto desde una perspectiva operacional como organizativa, Fathom es una oportunidad interesante que explorar.
Tu rol y responsabilidades incluirán:
Desarrollo de infraestructura de datos para digerir, sanear y normalizar una amplia gama de datos médicos, tales como registros de salud electrónicos, revistas, ontologías médicas establecidas, etiquetado de fuente abierta y otros insumos humanos
Creación de interfaces de rendimiento y expresivas para los datos
Creación de infraestructuras para ayudarnos no solo a aumentar la ingesta de datos, sino también el aprendizaje automático a gran escala en la nube
Estamos buscando un compañero de equipo con:
Más de 5 años de experiencia en desarrollo en un ambiente de producción o empresarial
Experiencia en la construcción de tuberías de datos desde fuentes dispares
Experiencia práctica en la construcción y escalado de clusters de computación
Un sólido entendimiento de las bases de datos y marcos de procesamiento de datos a gran escala como Hadoop o Spark, y la capacidad de evaluar qué herramientas utilizar en el trabajo
Una combinación única de habilidades creativas y analíticas capaces de diseñar un sistema capaz de reunir, entrenar, y probar docenas de fuentes de datos bajo una ontología unificada
Puntos adicionales si tienes:
Conocimientos para desarrollar sistemas para realizar o respaldar el aprendizaje automático, incluyendo experiencia trabajando con kits de herramientas de NLP como Stanford CoreNLP, OpenNLP, y/o NLTK de Python
Experiencia con el manejo de datos de salud y/o HIPAA
Experiencia con la gestión de etiquetado de datos a gran escala y adquisición, a través de herramientas como Amazon Turk o DeepDive