[담당업무] 혁신적인 기술과 데이터 분석을 통한 생애주기 기반 평생 Care 상담을 주도 하는 DATA/AI팀 "MLOps 엔지니어"를 찾습니다 - 온프레미스/클라우드 NVIDIA GPU 서버 환경 구축 및 운영 - LLM inference 서버 (LLaMA, Gemma 등) 인프라 구성 및 최적화 - Kubernetes 기반 AI 서비스 오케스트레이션 환경 구축 및 운영 - FastAPI + Redis + Celery 기반 AI inference 분산 파이프라인 설계 - GPU 리소스 스케줄링, 멀티 노드 관리, 워크로드 최적화 - 서비스 상태 모니터링 및 성능 분석 (Prometheus, Grafana 등) - 시스템 보안, 네트워크, 사용자 접근 제어 정책 수립 - 서비스 장애 대응 및 운영 자동화 시스템 구축
[자격요건] <필수> - 학력 : 관련 분야 학사 이상의 학위 - Linux 기반 서버 구축 및 운영 경험 (3년 이상) - Kubernetes, Docker, Helm을 활용한 서비스 배포 및 관리 경험 - NVIDIA GPU Server, CUDA 환경에 대한 이해 - Redis, RabbitMQ, Kafka 등 Message Queue 사용 경험 - 대규모 서버 클러스터의 운영/모니터링 경험 - Python, Bash 기반 인프라 자동화 경험 - 문제 해결과 시스템 안정성 향상을 위한 논리적 사고 역량
<필요지식/기술> - Linux 시스템 및 NVIDA GPU 서버 운영, Kubernetes 기반 컨테이너 서비스 운영 - Python 또는 Bash 기반 자동화 스크립트 작성, Redis 및 Celery 등 비동기 처리 시스템 구축 경험 - 시스템 모니터링 및 성능 개선을 위한 Prometheus, Grafana 등 활용 경험
<우대사항> - LLM inference workload 최적화 경험 - AI inference 시스템 (FastAPI + Celery + Redis) 구축 경험 - GPU Server Cluster 관리 경험 - bitsandbytes, Huggingface Transformers 등 기반 모델 inferece 경험 - 보안, 네트워크 방화벽, 시스템 접근 제어 경험 - MLOps (MLflow, Weights & Biases 등) 플랫폼 구축 경험