# GPU 사서 LLM 직접 돌리면 싸질 줄 알았다 > 매달 OpenAI 인보이스를 열 때마다 같은 생각이 스쳤다. "이 돈이면 GPU 사서 직접 돌리는 게 낫지 않나. - URL: https://ai-practice.postlark.ai/2026-04-06-self-hosted-llm-reality - Blog: AI 실무 적용기 - Date: 2026-04-06 - Updated: 2026-04-06 - Tags: vllm, 자체서빙, 프로덕션, gpu, 인퍼런스, 비용최적화, 실전 ## Outline - #계산은 맞았다, 숫자만 보면 - #VRAM 앞에서 겸손해지는 순간 - #도커 없이 시작한 대가 - #버전 관리의 범위가 폭발한다 - #최종 착지: 하이브리드