[직무의 목적/목표] 비즈니스 목표에 부합하는 AI 기반 서비스 개발을 위해 필요한 1) LLM 및 음성 모델 학습·튜닝·서빙, 2) AI Agent 및 엔드-투-엔드 서비스 구현을 담당할 엔지니어를 채용하고자 함
[채용사유] 1) 대규모 언어모델 기반의 자동화·대화형 서비스 구현을 위해 모델 학습·최적화·서빙까지 전 과정을 이해하는 엔지니어링 역량 필요 2) 모델 품질 향상과 서비스 안정성을 동시에 확보하기 위한 AI 엔지니어링 전문 인력 확보
[주요 업무] - 대형 언어모델(LLM) 학습 파이프라인 구축 (SFT, DPO/PPO 등 RL 기반 튜닝) - LoRA/QLoRA 등 어댑터 기반 파인튜닝 환경 구성 및 최적화 - 데이터 수집·전처리·정제 및 학습용 데이터셋 구축 - 모델 압축(Quantization, Pruning) 및 Distillation 전략 설계·적용 - vLLM 등 프레임워크 기반 저지연 LLM 서빙 환경 구축 - STT/TTS 등 음성 모델 학습 및 인퍼런스 파이프라인 구축 - LLM 및 API 기반 AI Agent 설계 및 기능 구현 - 모델을 활용한 AI 서비스 기획·구현·개선 Loop 구축 - GPU 서버 및 클라우드 기반 AI 인프라 운영(Azure 등) - 팀 내·외부 서비스/시스템과의 인터페이스 설계 및 연동
[필수요건] - Python 기반 모델 학습 및 AI 서비스 개발 경험 - LLM 파인튜닝(SFT), RLHF/DPO/PPO 등 모델 보정 경험 - 학습용 데이터 구축(수집/정제/라벨링) 경험 - vLLM, TGI등 LLM Serving 실무 경험 - AI Agent 구성 경험 (open-source LLM 또는 API 활용) - Git 기반 버전 관리 및 컨테이너(Docker) 활용 경험
[우대사항] - LoRA/QLoRA 등 어댑터 기반 튜닝 실무 경험 - 모델 압축(Quantization) 또는 Distillation 적용 경험 - 음성 모델(STT/TTS) 학습 또는 운영 경험 - GPU 인프라(H100/H200, A100 등) 기반 모델 학습 경험 - Redis/Kafka 등 비동기 메시징 기반 AI 서비스 운영 경험 - Kubernetes 기반 AI 워크로드 운영 경험 - 클라우드(AWS/GCP/Azure) AI 인프라 구축 경험 - MLOps 경험(CI/CD, 모델 배포 자동화) - 대규모 데이터 처리 및 분산 학습 경험 (DeepSpeed, FSDP 등) - 금융/보험 도메인 프로젝트 경험 또는 규제 환경 대응 경험
[필요역량] - 대형 언어모델 구조 및 파인튜닝 메커니즘에 대한 깊은 이해 - 데이터 기반 모델 개선 및 성능 튜닝 능력 - 모델 서빙 성능(지연시간/스루풋) 최적화 역량 - 문제 해결 능력 및 시스템 설계 역량 - 문서화 및 커뮤니케이션 역량 - 서비스 구현을 고려한 AI 엔지니어링(확장성, 안정성, 유지보수성) - 코드 구조화, 버전 관리(Git), 자동화된 테스트 및 모듈화 경험
[기타 참고사항] - 대규모 언어모델과 음성 AI 기반의 대화·업무 자동화 서비스를 구축하는 다양한 프로젝트에 참여하게 됨 - 신기술 탐색 및 모델 품질 향상을 위한 R&D 및 모델 개발만이 아닌 실제 서비스 환경에서 모델을 서비스 하는 업무 수행