포지션 상세
웰리시스는 ECG 기반 Multi-Vital Sign 웨어러블과 AI 분석 기술을 결합한 글로벌 디지털 헬스케어 기업입니다.
웨어러블 디바이스에서 수집되는 심전도(ECG), 체온, 활동량 등 복합 생체신호를 AI로 분석하여 심혈관 질환과 건강 이상을 조기에 탐지하는 원격 모니터링 솔루션을 제공합니다.
1. 의료 특화 AI 기술
웰리시스는 ECG 및 Multi-Vital Sign과 같은 고난이도 시계열 의료 데이터를 처리하는 머신러닝·딥러닝 알고리즘을 개발하여, 실제 임상 환경에서 신뢰할 수 있는 진단 보조 AI를 구현합니다.
2. 실서비스 중심 ML 엔지니어링
연구용 모델이 아닌, 의료기기와 클라우드 서비스에 탑재되어 수백만 건의 생체신호를 안정적으로 처리하는 ML 시스템을 설계하고 운영합니다.
3. 글로벌 의료 규제 환경
미국 FDA, 유럽 CE 등 규제 환경에 맞는 검증 가능하고 재현 가능한 ML 파이프라인을 구축하여 글로벌 의료 시장에 적용하고 있습니다.
Machine Learning Engineer는 ECG 및 Multi-Vital Sign 데이터를 기반으로 이상 탐지·분류·예측 모델을 개발하고, 이를 의료기기 및 클라우드 서비스에 배포·운영하는 핵심 역할을 담당합니다. 웰리시스에서 ML Engineer는 AI가 실제 의료 현장에서 환자의 생명을 지키는 기술로 작동하도록 만드는 엔지니어링의 중심입니다.
- Docker/Kubernetes 기반의 모델 배포 파이프라인 구축 및 운영
- On-premise 또는 Cloud 환경에서의 인프라 프로비저닝 및 관리
• 추론(Inference) 서버 백엔드 개발:
- 실시간/배치 추론을 위한 고성능 API 서버 설계 및 개발 (FastAPI, gRPC 등)
- 추론 서버의 유지 보수, 기능 고도화 및 확장성(Scalability) 확보
• 모델 경량화 및 추론 최적화:
- 서비스레벨의 Latency/Throughput 요구사항을 충족하기 위한 모델 최적화(Quantization, TensorRT, ONNX 등 활용)
- 추론 과정에서의 병목 현상 분석 및 퍼포먼스 검증
• PoC 및 데모 시스템 지원:
-신규 모델의 기술 검증(PoC)을 위한 서빙 환경 신속 구축 및 백엔드 지원
• Deep Learning Framework(PyTorch, TensorFlow 등)를 활용한 모델 서빙 경험 및 실무 경력 2년 이상 있으신 분
• Python 기반의 백엔드 개발 및 운영 경험이 있으신 분
• Docker 등 컨테이너 환경에 대한 이해 및 활용 능력이 있으신 분
웨어러블 디바이스에서 수집되는 심전도(ECG), 체온, 활동량 등 복합 생체신호를 AI로 분석하여 심혈관 질환과 건강 이상을 조기에 탐지하는 원격 모니터링 솔루션을 제공합니다.
1. 의료 특화 AI 기술
웰리시스는 ECG 및 Multi-Vital Sign과 같은 고난이도 시계열 의료 데이터를 처리하는 머신러닝·딥러닝 알고리즘을 개발하여, 실제 임상 환경에서 신뢰할 수 있는 진단 보조 AI를 구현합니다.
2. 실서비스 중심 ML 엔지니어링
연구용 모델이 아닌, 의료기기와 클라우드 서비스에 탑재되어 수백만 건의 생체신호를 안정적으로 처리하는 ML 시스템을 설계하고 운영합니다.
3. 글로벌 의료 규제 환경
미국 FDA, 유럽 CE 등 규제 환경에 맞는 검증 가능하고 재현 가능한 ML 파이프라인을 구축하여 글로벌 의료 시장에 적용하고 있습니다.
Machine Learning Engineer는 ECG 및 Multi-Vital Sign 데이터를 기반으로 이상 탐지·분류·예측 모델을 개발하고, 이를 의료기기 및 클라우드 서비스에 배포·운영하는 핵심 역할을 담당합니다. 웰리시스에서 ML Engineer는 AI가 실제 의료 현장에서 환자의 생명을 지키는 기술로 작동하도록 만드는 엔지니어링의 중심입니다.
주요업무
• 모델 서빙 인프라 구축 및 배포:- Docker/Kubernetes 기반의 모델 배포 파이프라인 구축 및 운영
- On-premise 또는 Cloud 환경에서의 인프라 프로비저닝 및 관리
• 추론(Inference) 서버 백엔드 개발:
- 실시간/배치 추론을 위한 고성능 API 서버 설계 및 개발 (FastAPI, gRPC 등)
- 추론 서버의 유지 보수, 기능 고도화 및 확장성(Scalability) 확보
• 모델 경량화 및 추론 최적화:
- 서비스레벨의 Latency/Throughput 요구사항을 충족하기 위한 모델 최적화(Quantization, TensorRT, ONNX 등 활용)
- 추론 과정에서의 병목 현상 분석 및 퍼포먼스 검증
• PoC 및 데모 시스템 지원:
-신규 모델의 기술 검증(PoC)을 위한 서빙 환경 신속 구축 및 백엔드 지원
자격요건
• ML/Backend 관련 분야 실무 경력 2년 이상이신 분• Deep Learning Framework(PyTorch, TensorFlow 등)를 활용한 모델 서빙 경험 및 실무 경력 2년 이상 있으신 분
• Python 기반의 백엔드 개발 및 운영 경험이 있으신 분
• Docker 등 컨테이너 환경에 대한 이해 및 활용 능력이 있으신 분




