Glossary

아래 URL의 Glossary를 기계번역해서 정리한 것입니다.


Application, 애플리케이션

More properly called a client라고 부르는게 더 적절한 애플리케이션은 Ceph Cluster를 사용하여 데이터를 저장하고 복제하는 Ceph 외부의 모든 프로그램입니다.

BlueStore

OSD BlueStore는 OSD 데몬이 사용하는 스토리지 백엔드로 Ceph와 함께 사용하도록 특별히 설계되었습니다. BlueStore는 Ceph Kraken 릴리즈에서 도입되었습니다. Ceph의 Luminous 릴리즈에서 BlueStore가 기본 OSD 백엔드로 승격되어 FireStore를 대체했습니다. Reef 릴리즈부터 FireStore는 더 이상 스토리지 백엔드로 사용할 수 없습니다. BlueStore는 원시 블록 장치 또는 파티션에 직접 개체를 저장하며, 마운트된 파일 시스템과 상호 작용하지 않습니다. BlueStore는 RocksDB의 키/값 데이터 베이스를 사용해서 오브젝트 이름을 블록 위치에 매핑합니다.

Bucket

RGW의 맥락에서 버킷은 오브젝트의 그룹입니다. 파일 시스템 기반에서 객체가 파일에 대응하는 개념으로 비유하자면, 버킷은 디렉터리에 대응하는 개념입니다. Multisite sync policies 을 버킷에 설정하여 한 영역에서 다른 영역으로의 데이터 이동을 세밀하게 제어할 수 있습니다.

버킷의 개념은 AWS S3에서 가져왔습니다. 버킷 생성에 대한 AWS S3 페이지(https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-buckets-s3.html), AWS S3 버킷 개요(https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingBucket.html)를 참조하세요.

OpenStack Swift는 RGW와 AWS가 “버킷"이라 부르는 것에 “컨테이너"라는 용어를 사용합니다. OpenStack Storage API overview page 참조.

Ceph

Ceph는 분산 메타데이터 관리와 POSIX 시맨틱을 갖춘 분산 네트워크 스토리지 및 파일 시스템입니다.

Ceph Block Device

“RADOS Block Device”와 RBD라고도 합니다. Ceph에서 블록 기반 데이터 저장을 오케스트레이션하는 소프트웨어 도구입니다. Ceph Block Device는 블록 기반 애플리케이션 데이터를 “청크(chunk)“로 분할합니다. RADOS는 이 청크를 오브젝트로 저장합니다. Ceph Block Device는 스토리지 클러스터 전체에서 이러한 오브젝트의 저장을 오케스트레이션합니다.

Ceph Block Storage

Ceph에서 지원하는 3가지 스토리지 중 하나입니다. 나머지 2가지는 오브젝트 스토리지와 파일스토리지입니다. Ceph Block Storage는 블록스토리지 “제품(product)“으로 (1) librbd (파일 처럼  RBD 이미지에 액세스를 제공하는 파이썬 모듈), (2) QEMU 또는 Xen과 같은 하이퍼바이저, (3) libvirt 같은 하이퍼바이저 추상화 계층의 모음과 같께 사용할 때 블록-스토리지 관련 서비스와 기능을 말합니다.

Ceph Client

Ceph Storage Cluster에 액세스할 수 있는 모든 Ceph 구성 요소입니다. 여기에는 Ceph Object Gateway, Ceph Block Device, Ceph File System과 해당 라이브러리가 포함됩니다. 또한 커널 모듈과 FUSEs (USERspace의 파일시스템)도 포함됩니다.

Ceph Client Libraries

Ceph Cluster의 구성 요소와 상호 작용하는 데 사용할 수 있는 라이브러리 컬렉션입니다.

Ceph Cluster Map

Cluster Map 참조

Ceph Dashboard

The Ceph Dashboard 는 내장된 웹-기반의 Ceph 관리, 모니터링 애플리케이션으로, 이를 통해 클러스터 내의 다양한 항목을 확인하고 관리할 수 있습니다. Ceph Manager Daemon 모듈로 구현됩니다.

Ceph File System

CephFS 참조

CephFS

Ceph File System, 또는 CephFS는 Ceph의 분산 객체 저장소인 RADOS를 기반으로 구축된 POSIX-호환 파일 시스템입니다. 자세한 내용은 CephFS Architecture 를 참조하세요.

Ceph Interim Release

Releases 참조.

Ceph Kernel Modules

Ceph Cluster와 상호작용하는데 사용할 수 있는 커널 모듈 모음. 예 ceph.korbd.ko.

Ceph Manager

Ceph Manager(ceph-mgr)은 모니터 데몬과 함께 실행되어 외부 모니터링 및 관리 시스템에 대한 모니터링 및 인터페이스를 제공하는 데몬입니다. Luminous 릴리스(12.x) 이후, 실행 중인 ceph-mgr 데몬이 포함되어 있지 않으면 Ceph 클러스터가 제대로 작동하지 않습니다.

Ceph Manager Dashboard

Ceph Dashboard 참조.

Ceph Metadata Server

MDS 참조.

Ceph Monitor

클러스터의 상태 맵을 유지 관리하는 데몬입니다. “클러스터 상태(cluster state)“에는 모니터 맵, 관리자 맵, OSD 맵, CRUSH 맵이 포함됩니다. Ceph 클러스터는 중복성과 고가용성을 모두 갖추기 위해 최소 3개의 실행 중인 모니터를 포함해야 합니다. Ceph 모니터와 이를 실행하는 노드를 흔히 “mon"이라고 합니다. Monitor Config Reference 참조.

Ceph Node

Ceph Node는 데이터를 복제하고 재배포하기 위해 Ceph Cluster의 다른 노드와 통신하는 Ceph Cluster의 단위입니다. 모든 노드를 통칭해서 Ceph Storage Cluster라고 합니다. Ceph 노드에는 OSDCeph MonitorCeph Manager, MDS가 포함됩니다. “노드"라는 용어는 일반적으로 Ceph 설명서에서 “호스트"와 동일합니다. 실행 중인 Ceph 클러스터가 있는 경우 ceph node ls all 명령을 실행해서 클러스터에 있는 모든 노드를 나열할 수 있습니다.

Ceph Object Gateway

librados 위에 구축된 객체 스토리지 인터페이스입니다. Ceph Object Gateway는 애플리케이션과 Ceph 스토리지 클러스터 사이에 RESTful 게이트웨이를 제공합니다.

Ceph Object Storage

Ceph Object Store 참조.

Ceph Object Store

Ceph Object Store는 Ceph Storage ClusterCeph Object Gateway (RGW)로 구성됩니다.

Ceph OSD

Ceph Object Storage Daemon. 논리 디스크(OSD)와 상호작용하는 Ceph OSD 소프트웨어. 란 용어를 2013년 경에 “연구 및 업계”(Sage의 표현)에서는 “OSD"라는 용어를 “Object Storage Device"만을 의미하는 것으로 사용하려고 시도했지만, Ceph 커뮤니티에서는 항상 “Object Storage Daemon"를 의미하는 것으로 사용했습니다. Sage Weil 자신도 2022년 11월 “Daemon이 Ceph 구축 방식에 대해 더 정확하다"고 확인했습니다(2022년 11월 7일 Zac Dover과 Sage Weil간의 개인메일).

Ceph OSD Daemon

Ceph OSD 참조.

Ceph OSD Daemons

Ceph OSD 참조.

Ceph Platform

https://github.com/ceph에 호스팅된 코드 조각을 포함하는 모든 Ceph 소프트웨어.

Ceph Point Release

Releases 참조.

Ceph Project

Ceph의 사람, 소프트웨어, 사명, Ceph 인프라스트럭처를 총칭하는 용어.

Ceph Release

Releases 참조.

Ceph Release Candidate

Releases 참조.

Ceph Stable Release

Releases 참조.

Ceph Stack

Ceph의 두 가지 이상의 구성요소 모음.

Ceph Storage Cluster

Ceph MonitorCeph ManagerCeph Metadata Server, OSD의 모음으로 애플리케이션, Ceph 사용자, Ceph Client에서 사용할 데이터를 함께 저장하고 복제합니다. Ceph Storage Cluster는 Ceph Client에서 데이터를 수신합니다.

CephX

Ceph 인증 프로토콜. CephX는 사용자와 데몬을 인증합니다. CephX는 Kerberos 처럼 작동하지만, 단일 실패 지점이 없습니다. Architecture 문서의 High-availability Authentication sectionCephX Configuration Reference를 참조.

Client

클라이언트는 Ceph Cluster를 사용해서 데이터를 저장하고 복제하는 Ceph 외부 프로그램입니다.

Cloud Platforms
Cloud Stacks

OpenStack, CloudStack, OpenNebula, Proxmox VE와 같은 타사 클라우드 프로비저닝 플랫폼.

Cluster Map

Ceph 클러스터의 상태를 함께 보고하는 모니터 맵, OSD 맵, PG 맵, MDS 맵, CRUSH 맵으로 구성된 맵 세트입니다. 자세한 내용은 Architecture 문서의 “Cluster Map” 참조.

Crimson

크로스-코어 통신으로 인해 발생하는 대기 시간 비용을 줄이는 것이 핵심 목표인 차세대 OSD 아키텍처입니다. 데이터 경로의 샤드 간 통신을 줄여, 잠금 경합을 줄이는 OSD 재설계. Crimson은 스레드 풀에 대한 의존도를 제거하여, 기존 Ceph OSD의 성능을 향상시킵니다. Crimson: Next-generation Ceph OSD for Multi-core Scalability 참조. Crimson developer documentation 참조.

CRUSH

Controlled Replication Under Scalable Hashing. Ceph가 객체 스토리지 위치를 계산하는 데 사용하는 알고리즘. CRUSH: Controlled, Scalable, Decentralized Placement of Replicated Data 참조.

CRUSH rule

특정 풀에 적용되는 CRUSH 데이터 배치 규칙.

DAS

Direct-Attached Storage. 네트워크를 통하지 않고 액세스하는 컴퓨터에 직접 연결되는 스토리지. NAS, SAN과 대조됩니다.

Dashboard

클러스터의 다양한 측면과 객체를 관리하기 위한 내장형 웹 기반 Ceph 관리 및 모니터링 애플리케이션. 대시보드는 Ceph Manager 모듈로 구현됩니다. 자세한 내용은 Ceph Dashboard 참조.

Dashboard Module

Dashboard의 다른 이름.

Dashboard Plugin
FQDN

Fully Qualified Domain Name. 네트워크의 노드에 적용되고 DNS의 트리 계층 구조에서 노드의 정확한 위치를 지정하는 도메인 이름입니다. Ceph 클러스터 관리의 맥락에서 FQDN은 호스트에 적용되는 경우가 많습니다. 이 설명서에서 “FQDN"이라는 용어는 주로 FQDN과 상대적으로 단순한 호스트 이름을 구별하는 데 사용됩니다. 호스트 이름은 DNS의 트리 계층 구조에서 호스트의 정확한 위치를 지정하지 않고 호스트 이름만 지정합니다.

Host

Ceph Cluster의 단일 머신 또는 서버. Ceph Node 참조.

Hybrid OSD

HDD와 SSD 드라이브가 모두 있는 OSD.

librados

Ceph 스토리지 클러스터에 대한 사용자 정의 인터페이스를 생성하는 데 사용할 수 있는 API.librados를 사용하면 Ceph 모니터 및 OSD와 상호작용할 수 있습니다. Introduction to librados, librados (Python) 참조.

LVM tags

Logical Volume Manager tags. LVM 볼륨 및 그룹에 대한 확장 가능한 메타데이터입니다. 장치 및 OSD와의 관계에 대한 Ceph 관련 정보를 저장하는 데 사용됩니다.

MDS

Ceph MetaData Server 데몬. “ceph-mds”라고도 합니다. Ceph 메타데이터 서버 데몬은 CephFS 파일 시스템을 실행하는 모든 Ceph 클러스터에서 실행되고 있어야 합니다. MDS는 모든 파일 시스템 메타데이터를 저장합니다. Client는 단일 MSD 또는 MDS 그룹과 함께 작동하여, CephFS에 필요한 분산 메타데이터 캐시를 유지 관리합니다. Deploying Metadata Servers, ceph-mds man page 참조.

MGR

전체 클러스터의 모든 상태를 한곳에 수집하는 Ceph 관리자(manager) 소프트웨어.

MON

Ceph 모니터(monitor) 소프트웨어.

Monitor Store

모니터에서 사용되는 영구 저장소. 여기에는 모니터의 RocksDB 및 /var/lib/ceph에 있는 모든 관련 파일이 포함됩니다.

Node

Ceph Node 참조.

Object Storage Device

OSD 참조.

OMAP

“object map”. Ceph 클러스터에서 데이터를 읽고 쓰는 데 걸리는 시간을 줄이는 데 사용되는 키/값 저장소(데이터베이스). RGW 버킷 인덱스는 OMAP으로 저장됩니다. Erasure-coded 풀은 RDOS OMAP 데이터 구조를 저장할 수 없습니다. OMAP을 보려면, ceph osd df 명령을 실행합니다. Eleanor Cawthon의 2012 논문 A Distributed Key-Value Store using Ceph (17쪽) 참고.

OSD

아마도 Ceph OSD일 것이나, 반드시 그런 것은 아닙니다. 때로는(특히 오래된 서신에서, 특히 Ceph용으로 특별히 작성되지 않은 문서에서, “OSD”는 “Object Storage Device”를 의미하며, 이는 물리적인 장치 또는 논리적인 저장 장치(예 LUN)을 나타냅니다. Ceph 커뮤니티에서는 업계의 압력에도 불구하고 “OSD”는 Ceph OSD Daemon 을 지칭하기 위해 “OSD"라는 용어를 사용해 왔습니다. 2010년대 중반에는 “OSD"가 “Object Storage Device"를 지칭해야 한다고 주장했기 때문에 어떤 의미를 의도했는지 아는 것이 중요합니다.

OSD FSID

OSD fsid는 OSD를 식별하는 데 사용되는 고유 식별자입니다. 이는 osd_fsid라는 파일의 OSD 경로에서 찾을 수 있습니다. FSID라는 용어는 UUID와 같은 의미로 사용됩니다.

OSD ID

OSD ID는 각 OSD에 고유한 정수입니다(각 OSD에는 고유한 OSD ID가 있습니다). 각 OSD ID는 연결된 OSD를 생성하는 동안 모니터에 의해 생성됩니다.

OSD UUID

OSD UUID는 OSD의 고유 식별자입니다. 이 용어는 FSID와 같은 의미로 사용됩니다.

Period

RGW의 맥락에서, period는 Realm의 구성 상태입니다. Period는 다중 사이트 구성의 구성 상태를 저장합니다. Period가 업데이트되면 “에포크(epoch)“가 변경되었다고 합니다.

Placement Groups (PGs), 배치 그룹

Placement groups (PGs)는 각 논리적 Ceph 풀의 하위 집합입니다. 배치 그룹은 OSD에 개체(그룹)를 배치하는 기능을 수행합니다. Ceph는 배치 그룹 단위로 내부적으로 데이터를 관리합니다. 이는 개별(따라서 더 많은) RADOS 개체를 관리하는 것보다 확장성이 뛰어납니다. 배치 그룹 수가 더 많은(예: OSD당 100개) 클러스터는 배치 그룹 수가 더 적은 동일한 클러스터보다 균형이 더 잘 맞습니다. Ceph의 내부 RADOS 개체는 각각 특정 배치 그룹에 매핑되며 각 배치 그룹은 정확히 하나의 Ceph 풀에 속합니다.

Pool, 풀

풀은 객체를 저장하는 데 사용되는 논리적 파티션입니다.

Pools

pool 참조.

Primary Affinity, 기본 선호도

특정 OSD가 작동 세트의 기본 OSD(또는 “리드 OSD”)로 선택될 가능성을 제어하는 OSD의 특성입니다. Firefly (v. 0.80)에 기본 선호도가 도입되었습니다. Primary Affinity 참조.

Quorum

Quorum은 클러스터에 있는 Monitor의 과반수가 up 일 때 존재하는 상태입니다. Quorum이 가능하려면 클러스터에 최소 3대의 Monitor가 있어야 합니다.

RADOS

Reliable Autonomic Distributed Object Store. RADOS는 다양한 크기의 객체에 대해 확장 가능한 서비스를 제공하는 객체 저장소입니다. RADOS 오브젝트 스토어는 Ceph 클러스터의 핵심 구성요소입니다.  2009년에 작성된 블로그는 초보자를 위한 RADOS 소개를 제공합니다. RADOS에 대해 더 깊이 이해하고 싶은 독자는 RADOS: A Scalable, Reliable Storage Service for Petabyte-scale Storage Clusters를 참고하시기 바랍니다.

RADOS Cluster

 OSDCeph Monitor, Ceph Manager로 구성된 Ceph Cluster의 적절한 하위 집합입니다.  

RADOS Gateway

RGW 참조.

RBD

RADOS Block Device. Ceph Block Device 참조.

Realm

RADOS Gateway (RGW)의 맥락에서 영역은 하나 이상의 영역 그룹으로 구성된 전역적으로 고유한 네임스페이스입니다.

Releases

Ceph Interim Release 아직 품질 보증 테스트를 거치지 않은 Ceph 버전입니다. 새로운 기능이 포함될 수 있습니다.

Ceph Point Release 버그 수정 및 보안 수정만 포함된 임시 릴리스입니다.

Ceph Release 고유 번호가 부여된 모든 Ceph 버전.

Ceph Release Candidate 초기 품질 보증 테스트를 거쳐 베타 테스터를 위한 준비가 완료된 Ceph의 주요 버전입니다.

Ceph Stable Release 이전 임시 릴리스의 모든 기능이 품질 보증 테스트를 성공적으로 통과한 Ceph의 주요 버전입니다.

Reliable Autonomic Distributed Object Store 사용자의 데이터를 저장하는 스토리지 소프트웨어의 핵심 세트(MON+OSD). RADOS 참조.

RGW

RADOS Gateway. “Ceph Object Gateway"라고도 합니다. Amazon S3 RESTful API와 OpenStack Swift API 모두에 대한 게이트웨이를 제공하는 Ceph의 구성 요소입니다.

scrubs

Ceph가 데이터 무결성을 보장하는 프로세스. 스크러빙 프로세스 중에 Ceph는 배치 그룹에 있는 모든 개체의 카탈로그를 생성한 다음, 각 기본 개체를 다른 OSD에 저장된 복제본과 비교하여 누락되거나 불일치하는 개체가 없는지 확인합니다. 다른 사본과 다르거나 완전히 누락된 개체의 사본이 있는 것으로 확인된 모든 PG는 “불일치(inconsistent)“로 표시됩니다(즉, 해당 PG는 “불일치"로 표시됨). 스크러빙에는 라이트 스크러빙과 딥 스크러빙(각각 ‘일반 스크러빙’ 및 ‘딥 스크러빙’이라고도 함)의 두 가지 종류가 있습니다. 라이트 스크러빙은 매일 수행되며 주어진 개체가 존재하고 메타데이터가 올바른지 확인하는 것 이상의 작업을 수행하지 않습니다. 심층 스크러빙은 매주 수행되며 데이터를 읽고 체크섬을 사용해 데이터 무결성을 보장합니다. RADOS OSD Configuration Reference Guide의 ScrubbingMastering Ceph, second edition (Fisk, Nick. 2019)의 141쪽 참조.

secrets

비밀번호는 권한 있는 사용자가 인증이 필요한 시스템에 액세스해야 할 때마다 디지털 인증을 수행하는 데 사용되는 자격증명입니다. 비밀번호, API 키, 토큰, SSH 키, 비공개 인증서 또는 암호화 키가 비밀번호일 수 있습니다.

SDS

Software-defined Storage.

systemd oneshot

완료 시 종료되는 ExecStart 명령이 정의된 systemd type입니다(데몬화용이 아님).

Teuthology

Ceph에서 스크립트 테스트를 수행하는 소프트웨어 모음.

User

Ceph 클라이언트를 사용해서 Ceph Storage Cluster와 상호작용하는 개인 또는 시스템 액터(예 애플리케이션).  User와 User Management 참조.

Zone, 영역

RGW의 맥락에서 영역은 하나 이상의 인스턴스입니다. 영역의 구성 상태는 period에 저장됩니다. Zones 참조.