Доп. информация
Тестовый стенд / учебный кластер для запуска в условиях минимума ресурсов (я запускал всё это на древнем ноуте из 2013 года и даже на ещё более древнем ПК из 2009-го).
Состав кластера:
-
1x ADMIN ( управление кластером + доступ по SSH-ключам на остальные ноды )
-
3x MON+MGR ( Админство с них доступно )
-
5x OSD ( данные на /dev/sdb, том LVM c ceph_bluestore )
-
2x RGW ( для S3-доступа )
-
2x MDS ( для CephFS )
+ внешняя сеть (
Ceph-18-2-4-ExternalNet) - настройка по DHCP,
ожидаются адреса по DHCP+ центральная (
Ceph-18-2-4-CentralNet) основная сеть 10.67.89.* ("public" в терминах цефа, все ноды включены в неё)
+ внутренняя (
Ceph-18-2-4-Internal-OSD-Backbone) кластерная сеть 10.67.67.* только для OSD-репликаций
+ в этой версии OSD разных размеров - по 3 и по 4 Гб.
Тип хранилища - BlueStore, с размещением данных в LVM, все части OSD в одном диске /dev/sdb.
На одной ВМ совместно размещены только MONx + MGRx, всё остальное отдельно.
Статус кластера:
ceph-MON-0:~# ceph -s
cluster:
id: 8be60d80-6770-4e5a-ad20-48e4cea593f3
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-MON-0,ceph-MON-1,ceph-MON-2 (age 23m)
mgr: ceph-MON-1(active, since 23m), standbys: ceph-MON-2, ceph-MON-0
osd: 5 osds: 5 up (since 14s), 5 in (since 4w)
data:
pools: 5 pools, 129 pgs
objects: 223 objects, 453 KiB
usage: 231 MiB used, 18 GiB / 18 GiB avail
pgs: 129 active+clean
Некоторые справочные материалы и шпаргалки, максимально актуальные для этой версии, приложены к раздаче, см. /manuals
Примеры скриптов и команд лежат на Ceph-Admin, см. /opt
видос с кратким объяснением сути (котики присутсвуют):
https://www.youtube.com/watch?v=QBkH1g4DuKE