본문 바로가기
IT/Nas

[Nas] 시놀로지 NVMe 캐싱 전략과 TrueNAS SCALE 기반 로컬 AI(LLM) 데이터셋 최적화 완벽 가이드

by 수누다 2026. 3. 11.

서론: NAS가 단순 저장소를 넘어 AI 인프라로 진화하고 있다

2025년 하반기부터 IT 커뮤니티에서 가장 뜨겁게 논의되는 주제 중 하나는 바로 NAS(Network Attached Storage)의 역할 변화입니다. 과거에는 파일 공유와 백업 용도로만 사용되던 NAS가, 이제는 로컬 AI 추론 서버이자 고성능 데이터 파이프라인의 핵심 인프라로 자리매김하고 있습니다. 특히 Ollama, LocalAI, AnythingLLM 같은 셀프호스팅 LLM 솔루션이 대중화되면서, NAS의 스토리지 I/O 성능이 AI 워크로드의 병목 지점이 될 수 있다는 인식이 확산되고 있습니다.

이 글에서는 홈랩 환경에서 가장 많이 선택되는 두 플랫폼인 시놀로지(Synology)TrueNAS SCALE을 중심으로, NVMe SSD를 활용한 고성능 캐싱 전략과 ZFS 기반의 AI 데이터셋 최적화 기법을 심층적으로 다뤄보겠습니다. 서버·스토리지 엔지니어로서의 실무 경험과 최신 커뮤니티 동향을 결합하여, 단순한 기능 비교를 넘어 실제 구현 가능한 전략을 제시하는 것이 이 글의 목표입니다.

)
Alt 태그: 시놀로지 NAS 내부에 M.2 NVMe SSD가 전용 슬롯에 장착된 모습


시놀로지 NVMe 캐싱 전략 — DSM 7.2 시대의 진화

NVMe SSD 캐시의 기본 원리와 DSM 7.2의 변화

시놀로지의 NVMe SSD 캐시는 자주 접근되는 데이터(Hot Data)를 기계식 HDD보다 훨씬 빠른 NVMe SSD에 임시 저장하여 읽기/쓰기 성능을 극적으로 향상시키는 기술입니다. 기본적으로 DSM의 스토리지 매니저에서 읽기 전용(Read-Only) 캐시읽기-쓰기(Read-Write) 캐시 두 가지 모드를 지원합니다. 읽기 전용 캐시는 단일 NVMe SSD로도 구성 가능하지만, 읽기-쓰기 캐시는 데이터 무결성을 위해 반드시 2개의 NVMe SSD를 미러(RAID 1) 구성으로 사용해야 합니다.

DSM 7.2에서 주목할 만한 변화는 NVMe SSD를 캐시가 아닌 독립 스토리지 풀로 사용할 수 있는 기능이 공식 지원 모델로 확대되었다는 점입니다. DS923+, DS723+, DS423+를 시작으로 DS1522+, DS1821+ 등 기존 모델까지 지원 범위가 넓어졌습니다. 다만 공식 지원에는 제약이 있어, 시놀로지 자사 브랜드 NVMe SSD(SNV3410 시리즈)만 스토리지 풀 생성이 가능하고, 서드파티 NVMe는 캐시 용도로만 사용할 수 있습니다. 이 제한을 우회하기 위해 커뮤니티에서는 007revad의 Synology_HDD_db 및 Synology_M2_volume 스크립트가 널리 활용되고 있으며, 이 스크립트를 통해 삼성, WD, Crucial 등 서드파티 NVMe로도 스토리지 볼륨을 생성할 수 있습니다.


Alt 태그: 시놀로지 DSM 7.2 스토리지 매니저의 SSD 캐시 생성 마법사 인터페이스

캐시 vs 스토리지 풀 — 어떤 전략이 최적인가

NVMe SSD를 캐시로 사용할지, 독립 스토리지 풀로 사용할지는 워크로드 특성에 따라 달라집니다. 이 두 가지 전략의 핵심 차이를 이해하는 것이 중요합니다.

NVMe 캐시 전략이 유리한 경우: 대용량 HDD 볼륨이 이미 존재하고, 해당 볼륨에서 반복적인 랜덤 읽기 작업이 빈번한 환경에 적합합니다. Docker 컨테이너 운영, 웹 호스팅, VM(가상머신) 스토리지, 소규모 데이터베이스 등이 대표적인 사례입니다. 시놀로지의 SSD 캐시 어드바이저를 최소 일주일 이상 실행하면 실제 워크로드 패턴을 분석하여 최적의 캐시 크기를 추천받을 수 있습니다. 일반적으로 캐시 HIT Rate가 90% 이상 유지된다면 캐시 전략이 효과적으로 작동하고 있다고 판단할 수 있습니다.

NVMe 스토리지 풀 전략이 유리한 경우: 10GbE 네트워크를 구축한 환경에서 NVMe의 전체 대역폭을 활용하고 싶거나, Docker 컨테이너 이미지와 설정 파일을 HDD와 분리하여 고속 볼륨에서 운영하고 싶을 때 유리합니다. 또한 AI/LLM 모델 파일처럼 수 GB에서 수십 GB에 달하는 대용량 파일을 빈번하게 로드해야 하는 경우, 캐시 방식보다 직접 NVMe 볼륨에 배치하는 것이 일관된 성능을 보장합니다.

시놀로지 엔터프라이즈 NVMe SSD(SNV3400/SNV3410)의 특성

2026년 2월 시놀로지 공식 블로그에서 발표한 내용에 따르면, 시놀로지 M.2 NVMe SSD는 JEDEC JESD219A 엔터프라이즈 워크로드 프로파일로 테스트되었으며, 24시간 연속 가동(55°C, 풀 스페이스 활용, TRIM 미적용) 조건에서의 내구성을 검증받았습니다. 이는 소비자용 SSD가 버스트(burst) 패턴 기반의 가벼운 테스트 조건에서 측정되는 것과 근본적으로 다릅니다. NAS 캐싱 환경에서는 지속적인 소블록 랜덤 I/O가 발생하므로, 카탈로그 스펙시트의 피크 성능 수치만으로 NAS용 SSD를 선택하는 것은 위험할 수 있습니다.

다만 시놀로지 자사 NVMe SSD의 가격 프리미엄은 상당합니다. SNV3410 400GB 모델이 서드파티 동급 용량 대비 2~3배 높은 가격대에 형성되어 있어, 비용 대비 성능을 중시하는 홈랩 사용자에게는 서드파티 NVMe + 커뮤니티 스크립트 조합이 현실적인 대안이 됩니다. 이때 반드시 확인해야 할 스펙은 DWPD(Drive Writes Per Day)MTBF(Mean Time Between Failures) 수치이며, 읽기-쓰기 캐시 용도라면 PLP(Power Loss Protection) 기능이 내장된 SSD를 선택하는 것이 데이터 안전성 측면에서 권장됩니다.

캐시 최적화 실전 팁 — Sequential I/O 스킵 설정의 함정

시놀로지 DSM은 기본적으로 "순차 I/O 자동 건너뛰기(Skip sequential I/O)" 옵션이 활성화되어 있습니다. 이 설정은 대용량 파일의 순차적 읽기/쓰기를 캐시에서 제외하여, 캐시 공간을 랜덤 I/O에 집중시키기 위한 것입니다. 영상 파일 스트리밍이나 대용량 백업 작업이 주 워크로드인 환경에서는 이 기본 설정이 합리적입니다.

그러나 AI 모델 로딩이나 Docker 이미지 풀(pull) 작업처럼 대용량이면서도 반복적으로 읽히는 파일이 있는 경우, 이 옵션을 해제하면 캐시 효율이 크게 향상될 수 있습니다. 웹 호스팅 서버를 자택에서 운영하는 사용자의 사례에서, 이 옵션 해제 후 캐시 HIT Rate가 100%에 근접하며 응답 속도가 약 6배 향상된 결과가 보고되기도 했습니다. 단, 이 설정 변경은 워크로드 특성을 충분히 분석한 후 적용해야 하며, 캐시 용량 대비 핫 데이터 크기가 지나치게 큰 경우 오히려 캐시 스래싱(thrashing)을 유발할 수 있습니다.


Alt 태그: NVMe SSD 캐시 적중률 개선 전후 비교 성능 그래프


TrueNAS SCALE 기반 로컬 AI(LLM) 데이터셋 최적화

TrueNAS SCALE이 AI 워크로드에 적합한 이유

TrueNAS SCALE은 데비안(Debian) 리눅스 기반으로 동작하며, ZFS 파일 시스템과 네이티브 Docker/Kubernetes 지원을 결합한 플랫폼입니다. 2026년 로드맵에서 iXsystems는 TrueNAS 26에서 OpenZFS 2.4 기반의 하이브리드 풀 개선, 지능형 계층화(Intelligent Tiering), 그리고 400GbE 네트워킹 및 RDMA 지원을 발표하며, AI 및 데이터 사이언스 워크로드를 명시적인 타겟으로 삼고 있습니다. Amazon Prime Video NBA 스튜디오에서 올(all)-NVMe TrueNAS 구성을 실전 배치한 사례가 소개되면서, 엔터프라이즈급 AI 워크로드에서도 TrueNAS의 입지가 확장되고 있음을 확인할 수 있습니다.

홈랩 관점에서 TrueNAS SCALE의 가장 큰 장점은 하드웨어 자유도입니다. GPU 패스스루(Passthrough)를 통해 NVIDIA GPU를 Docker 컨테이너에 직접 할당할 수 있어, Ollama나 LocalAI 같은 LLM 추론 엔진이 GPU 가속의 혜택을 받을 수 있습니다. TrueNAS 앱 마켓에는 LocalAI(v3.12.1), AnythingLLM(v1.11.1), Ollama 등의 AI 관련 앱이 공식 커뮤니티 트레인으로 등록되어 있어, 웹 UI를 통한 간편한 배포가 가능합니다. 2026년 1월에는 llms.py라는 경량 OpenAI 호환 게이트웨이까지 추가되어, 다중 LLM 제공자를 단일 API로 통합 관리하는 것도 가능해졌습니다.


Alt 태그: TrueNAS SCALE 웹 대시보드에서 AI 관련 Docker 컨테이너가 운영되는 모습

ZFS 레코드 사이즈와 AI 데이터셋 최적화

ZFS의 레코드 사이즈(recordsize)는 AI 워크로드 성능에 직접적인 영향을 미치는 핵심 파라미터입니다. ZFS는 기본 레코드 사이즈가 128KB로 설정되어 있는데, 이는 범용적인 워크로드에는 적합하지만, 특정 AI 워크로드에서는 최적이 아닐 수 있습니다.

LLM 모델 파일 저장용 데이터셋의 경우, Ollama의 모델 파일은 수 GB에서 수십 GB에 달하는 대용량 순차 읽기 워크로드입니다. 이 경우 레코드 사이즈를 1MB(1M)로 높이면 순차 읽기 시 I/O 오버헤드가 줄어들어 모델 로딩 속도가 향상됩니다. 반대로 데이터베이스 및 벡터 스토어(ChromaDB, Milvus 등) 용도의 데이터셋은 소블록 랜덤 I/O가 주를 이루므로, 레코드 사이즈를 16KB 또는 8KB로 낮추어 쓰기 증폭(write amplification)을 최소화해야 합니다.

Techno Tim이 2026년 1월 블로그에서 공유한 TrueNAS SCALE ZFS 튜닝 사례에 따르면, 단일 하이브리드 풀 내에서 데이터셋별로 레코드 사이즈를 개별 설정하고, Intel Optane을 Special VDEV로 활용하여 메타데이터와 소형 파일을 분리하는 전략이 큰 효과를 보였습니다. 이 접근은 대용량 미디어 파일의 콜드 데이터가 L2ARC를 오염시키는 것을 방지하면서, 데이터베이스와 Docker 컨테이너의 응답성을 극대화하는 방식입니다.

ARC, L2ARC, SLOG, Special VDEV — AI 워크로드를 위한 ZFS 계층 구조

ZFS의 캐싱 계층은 시놀로지의 단순한 SSD 캐시 구조보다 훨씬 세분화되어 있으며, 각 계층을 AI 워크로드에 맞게 최적화할 수 있습니다.

ARC(Adaptive Replacement Cache)는 시스템 RAM에 상주하는 1차 캐시로, ZFS에서 가장 빠른 데이터 접근 경로입니다. AI 워크로드에서는 충분한 RAM을 확보하는 것이 최우선입니다. LLM 추론 시 각 동시 사용자당 약 2~4GB의 추가 RAM이 필요하다는 점을 고려하면, 로컬 LLM 서버 운영 시 최소 32GB, 권장 64GB 이상의 시스템 메모리가 필요합니다.

L2ARC(Level 2 ARC)는 NVMe SSD에 상주하는 2차 읽기 캐시입니다. 시스템 RAM이 32GB 미만인 환경에서는 L2ARC 추가가 오히려 ARC 메모리를 소모할 수 있으므로 권장되지 않습니다. L2ARC를 구성할 때는 대용량 미디어 파일이 캐시를 잠식하지 않도록, 해당 데이터셋의 secondarycache 속성을 metadata로 설정하여 메타데이터만 L2ARC에 캐싱되도록 제한하는 것이 핵심 전략입니다.

SLOG(Separate Log)는 동기 쓰기(sync write)를 가속하는 전용 NVMe 디바이스입니다. AI 학습 데이터의 전처리 과정에서 빈번한 동기 쓰기가 발생하는 경우, SLOG를 추가하면 쓰기 지연 시간을 크게 단축할 수 있습니다.

Special VDEV는 ZFS 풀의 메타데이터와 소형 파일을 전용 고속 디바이스에 배치하는 기능입니다. AI 워크로드에서 수백만 개의 작은 학습 데이터 파일(이미지, 텍스트 조각 등)을 다루는 경우, Special VDEV를 NVMe SSD로 구성하면 메타데이터 조회와 디렉토리 탐색 속도가 비약적으로 향상됩니다.


Alt 태그: ZFS 캐싱 계층 구조 다이어그램 — ARC, L2ARC, SLOG, Special VDEV의 데이터 흐름

TrueNAS SCALE에서 Ollama + Open WebUI 실전 구축 가이드

TrueNAS SCALE 24.04(Dragonfish) 이상 환경에서 로컬 LLM 서버를 구축하는 실전 과정을 정리합니다. 핵심은 스토리지 레이아웃 설계GPU 패스스루 설정입니다.

먼저 스토리지 레이아웃을 설계합니다. LLM 모델 파일을 저장할 전용 데이터셋을 생성하고, 레코드 사이즈를 1MB로 설정합니다. 압축은 LZ4를 적용하되, 이미 압축된 모델 파일(GGUF 등)에서는 압축 효과가 미미하므로 CPU 오버헤드와 트레이드오프를 고려해야 합니다. 별도로 벡터 DB용 데이터셋을 16KB 레코드 사이즈로 생성하고, Ollama Docker 컨테이너의 볼륨 마운트를 이 데이터셋으로 지정합니다.

GPU 패스스루는 TrueNAS SCALE의 Apps 설정에서 GPU Configuration 항목을 통해 NVIDIA GPU를 컨테이너에 할당합니다. 커뮤니티 포럼에서는 RTX 시리즈부터 Blackwell 세대 GPU까지 성공 사례가 보고되고 있으며, 엔트리급 Quadro P1000으로도 소형 모델(7B 파라미터)의 추론이 가능하다는 사례가 공유되었습니다. GPU 가속을 활용하면 CPU 사용률을 대폭 낮추면서도 추론 속도를 수 배 향상시킬 수 있어, NAS의 다른 서비스(파일 공유, 미디어 스트리밍 등)에 미치는 영향을 최소화할 수 있습니다.


Alt 태그: TrueNAS 서버에 NVIDIA GPU가 장착되어 AI 추론에 활용되는 하드웨어 구성


시놀로지 vs TrueNAS SCALE — AI 워크로드 관점의 비교 분석

스토리지 아키텍처 비교

시놀로지는 Btrfs 파일 시스템을 기반으로 하며, NVMe 활용이 캐시 또는 제한적 스토리지 풀로 국한됩니다. 반면 TrueNAS SCALE의 ZFS는 ARC, L2ARC, SLOG, Special VDEV 등 다층적 캐싱 계층을 제공하여, 워크로드 특성에 따른 정밀한 I/O 최적화가 가능합니다. AI 데이터셋처럼 다양한 I/O 패턴(대용량 모델 순차 읽기 + 벡터 DB 랜덤 I/O + 메타데이터 조회)이 혼재하는 환경에서는 ZFS의 세분화된 제어가 명확한 이점을 제공합니다.

확장성과 하드웨어 자유도

시놀로지는 자사 하드웨어에 종속되어 있어 CPU, RAM, GPU 구성에 제약이 큽니다. 대부분의 시놀로지 NAS는 3~5년 전 세대의 저전력 CPU를 탑재하고 있으며, GPU 슬롯이 없습니다. AI 추론을 위해서는 별도의 서버가 필요하고, 시놀로지 NAS는 데이터 제공(NFS/SMB) 역할로 한정됩니다.

TrueNAS SCALE은 사용자가 직접 하드웨어를 구성할 수 있어, 고성능 CPU, 대용량 ECC RAM, NVIDIA GPU를 자유롭게 조합할 수 있습니다. 이 유연성 덕분에 단일 시스템에서 스토리지 서비스와 AI 추론을 동시에 처리하는 통합 홈랩 서버 구축이 가능합니다. TrueNAS 26 로드맵에서 발표된 하이브리드 H-시리즈는 단일 시스템에서 최대 12개의 NVMe SSD 또는 HDD를 혼합 지원하며, 올-플래시 대비 80% 낮은 TB당 비용을 달성한다고 밝혔습니다.

관리 편의성과 생태계

관리 편의성에서는 시놀로지 DSM이 압도적입니다. 직관적인 웹 UI, 모바일 앱 지원, 자동 업데이트, 통합 헬스 모니터링 등 "설정하고 잊어버리기(Set and Forget)" 방식의 운영이 가능합니다. Synology Photos, Active Backup for Business 같은 1st party 앱 생태계도 강력한 차별점입니다.

TrueNAS SCALE은 학습 곡선이 상대적으로 가파르지만, ZFS의 깊이 있는 제어력과 Docker/LXC 기반의 유연한 앱 배포 환경을 제공합니다. 2026년 로드맵에서 발표된 TrueNAS Connect는 다수의 TrueNAS 시스템을 단일 클라우드 스타일 인터페이스로 관리하는 기능을 제공하여, 관리 편의성 격차를 줄이려는 노력이 진행 중입니다.


실전 구축 시나리오 — 홈랩에서의 최적 조합

시나리오 1 — 시놀로지 + 별도 AI 서버 (이원화 구조)

기존에 시놀로지 NAS를 운용하고 있다면, NVMe SSD 캐시를 최적화하여 데이터 서빙 성능을 극대화하고, 별도의 AI 추론 서버(TrueNAS SCALE 또는 Proxmox 기반)를 구축하는 이원화 전략이 현실적입니다. 시놀로지 NAS는 NFS/SMB를 통해 AI 서버에 학습 데이터를 제공하고, AI 서버는 GPU를 활용하여 추론을 수행합니다. 이 구조의 장점은 각 시스템이 자신의 강점에 집중할 수 있다는 것이며, 단점은 네트워크 대역폭이 병목이 될 수 있다는 점입니다. 최소 10GbE 네트워크 구성이 권장됩니다.

시나리오 2 — TrueNAS SCALE 올인원 구축 (통합 구조)

새로 홈랩을 구축하거나 기존 시스템을 마이그레이션하는 경우, TrueNAS SCALE 기반의 올인원 시스템이 비용 효율적입니다. 중고 엔터프라이즈 서버(Supermicro, Dell PowerEdge 등)에 TrueNAS SCALE을 설치하고, ZFS 하이브리드 풀(NVMe + HDD)을 구성한 뒤, GPU 패스스루로 Ollama + Open WebUI를 배포하면, 파일 서버와 AI 추론 서버를 단일 시스템에서 운영할 수 있습니다.

이 구조에서의 핵심 최적화 포인트는 다음과 같습니다. 첫째, AI 모델 저장용 데이터셋은 NVMe Special VDEV 또는 별도 NVMe 풀에 배치하여 모델 로딩 시간을 최소화합니다. 둘째, RAG(Retrieval-Augmented Generation)용 벡터 DB 데이터셋은 낮은 레코드 사이즈와 높은 ARC 할당으로 랜덤 읽기 성능을 극대화합니다. 셋째, 미디어 및 백업 데이터는 HDD VDEV에 배치하고 L2ARC에서 제외하여 캐시 오염을 방지합니다.


Alt 태그: 홈랩 서버 랙에서 TrueNAS 서버와 시놀로지 NAS가 함께 운영되는 모습


2026년 전망 — NAS 기반 AI 인프라의 미래

TrueNAS 26 로드맵에서 발표된 OpenZFS 2.4의 지능형 계층화 기능은 핫 데이터를 자동으로 NVMe 계층에 고정(pin)하고, 콜드 데이터를 HDD로 이동시키는 자동화된 데이터 배치를 목표로 합니다. 이 기능이 안정화되면, 현재 수동으로 수행하는 데이터셋별 레코드 사이즈 튜닝과 캐시 정책 설정의 상당 부분이 자동화될 것으로 기대됩니다.

시놀로지 역시 2025년 말 DSM 7.3 베타에서 강화된 SSD 캐시 분석 기능과 AI 기반 스토리지 최적화 권장 사항을 선보이고 있으며, 향후 DSM 업데이트에서 NVMe 스토리지 풀의 서드파티 SSD 지원 확대가 기대됩니다. 다만 시놀로지의 폐쇄적 생태계 정책이 얼마나 완화될지는 지켜봐야 할 부분입니다.

TrueNAS 앱 마켓에서 AI 카테고리의 성장세도 주목할 만합니다. 2025년 하반기에 LocalAI와 AnythingLLM이 추가된 데 이어, 2026년 1월에는 llms.py(다중 LLM 게이트웨이), AIStor(AI 데이터 인프라용 오브젝트 스토어)가 연이어 등록되었습니다. 이는 NAS가 더 이상 단순 파일 스토리지가 아니라, AI 파이프라인의 핵심 구성요소로 진화하고 있음을 명확히 보여줍니다.


결론: 당신의 워크로드에 맞는 전략을 선택하라

시놀로지와 TrueNAS SCALE은 각자 고유한 강점을 가진 플랫폼입니다. 안정적이고 관리가 편한 데이터 서빙 인프라가 필요하다면 시놀로지의 NVMe 캐싱 전략이 적합하고, AI 워크로드까지 통합한 고성능 홈랩 인프라를 구축하고자 한다면 TrueNAS SCALE의 ZFS 기반 정밀 최적화가 더 나은 선택입니다.

핵심은 기술 자체가 아니라, 자신의 워크로드 패턴을 정확히 이해하고 그에 맞는 스토리지 계층을 설계하는 것입니다. NVMe SSD의 가격이 지속적으로 하락하고 있는 지금, 홈랩에서도 엔터프라이즈급 스토리지 전략을 구현하는 것이 그 어느 때보다 현실적인 시대가 되었습니다. 이 글이 여러분의 NAS 인프라 설계와 로컬 AI 환경 구축에 실질적인 도움이 되길 바랍니다.