`

Ceph安装

    博客分类:
  • ceph
 
阅读更多

#sudo yum install -y yum-utils && sudo yum-config-manager --add-repo https://dl.fedoraproject.org/pub/epel/7/x86_64/ && sudo yum install --nogpgcheck -y epel-release && sudo rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 && sudo rm /etc/yum.repos.d/dl.fedoraproject.org*



# sudo yum install yum-plugin-priorities


192.168.118.133   ceph-node0
192.168.118.134   ceph-node1
192.168.118.135   ceph-node2

机器名同步:
cat /etc/hosts
192.168.118.137   ceph-node0
192.168.118.138   ceph-node1
192.168.118.139   ceph-node2

防火墙
systemctl stop firewalld
systemctl disable firewalld

时间同步
yum install -y ntpdate

.安装epel源与ceph-deploy
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
安装ceph-deploy
rpm -ivh https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-luminous/el7/noarch/ceph-release-1-1.el7.noarch.rpm
替换 ceph.repo 服务器
sed -i 's#htt.*://download.ceph.com#https://mirrors.tuna.tsinghua.edu.cn/ceph#g' /etc/yum.repos.d/ceph.repo

userdel  ceph

adduser -d /home/ceph -m ceph
passwd ceph
1234567890

授权
echo "ceph ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/ceph
chmod 0440 /etc/sudoers.d/ceph

ntp部署

ssh-keygen
ssh-copy-id    ceph@ceph-node0
ssh-copy-id    ceph@ceph-node1
ssh-copy-id    ceph@ceph-node2

验证登录
ssh 'ceph@ceph-node0'
ssh 'ceph@ceph-node1'
ssh 'ceph@ceph-node2'

下载源
sudo wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo

安装ceph-deploy
sudo rpm -ivh https://mirrors.tuna.tsinghua.edu.cn/ceph/rpm-luminous/el7/noarch/ceph-release-1-1.el7.noarch.rpm
替换
sudo sed -i 's#htt.*://download.ceph.com#https://mirrors.tuna.tsinghua.edu.cn/ceph#g' /etc/yum.repos.d/ceph.repo

安装
sudo yum install -y ceph-deploy

安装后进入目录
mkdir ceph-install && cd ceph-install




ceph-deploy new ceph-node0 ceph-node1 ceph-node2

安装python2
yum install python2-pip* -y


安装
ceph-deploy install ceph-node0 ceph-node1 ceph-node2

或在每个节点上手动执行 yum install -y ceph


parted /dev/sdb     mklabel gpt   mkpart primary ext4  0% 50%   mkpart primary ext4 50% 100%   q

//防火墙
systemctl stop firewalld
systemctl disable firewalld



同步节点参数到各个节点
ceph-deploy --overwrite-conf mon create ceph{-node0,-node1,-node2}

ceph-deploy mon create-initial

1234567890

同步配置
ceph-deploy --overwrite-conf admin ceph-node0 ceph-node1 ceph-node2


元数据
ceph mds stat

yum provides '*/applydeltarpm'
sudo yum install deltarpm

查看集群监控状态
ceph mon_status

fdisk -l

查看端口
netstat -lntp



挂载osd
ceph-deploy osd create ceph-node2 --data /dev/sdb --journal /dev/sdb1
ceph-deploy osd create ceph-node1 --data /dev/sdb --journal /dev/sdb1

ceph -w



luminous 版本需要启动 mgr, 否则 ceph -s 会有 no active mgr 提示
每个monitor装mgr
ceph-deploy mgr create ceph-node0:ceph-node0 ceph-node1:ceph-node1 ceph-node2:ceph-node2



分离公共网络和集群网络(推荐、可选)

按下方所列修改配置文件 ceph.conf (在目录 ~/ceph-install 下操作,注意替换 fsid )
[global]

# 注意替换 fsid
fsid = dca70270-3292-4078-91c3-1fbefcd3bd62

mon_initial_members = ceph-node0, ceph-node1, ceph-node2
mon_host = 192.168.0.150,192.168.0.151,192.168.0.152
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx

public network  = 192.168.0.0/24
cluster network = 172.16.1.0/24

[mon.a]
host = ceph-node0
mon addr = 192.168.0.150:6789

[mon.b]
host = ceph-node1
mon addr = 192.168.0.151:6789

[mon.c]
host = ceph-node2
mon addr = 192.168.0.152:6789

[osd]
osd data = /var/lib/ceph/osd/ceph-$id
osd journal size = 20000
osd mkfs type = xfs
osd mkfs options xfs = -f

filestore xattr use omap = true
filestore min sync interval = 10
filestore max sync interval = 15
filestore queue max ops = 25000
filestore queue max bytes = 10485760
filestore queue committing max ops = 5000
filestore queue committing max bytes = 10485760000

journal max write bytes = 1073714824
journal max write entries = 10000
journal queue max ops = 50000
journal queue max bytes = 10485760000

osd max write size = 512
osd client message size cap = 2147483648
osd deep scrub stride = 131072
osd op threads = 8
osd disk threads = 4
osd map cache size = 1024
osd map cache bl size = 128
osd mount options xfs = "rw,noexec,nodev,noatime,nodiratime,nobarrier"
osd recovery op priority = 4
osd recovery max active = 10
osd max backfills = 4

[client]
rbd cache = true
rbd cache size = 268435456
rbd cache max dirty = 134217728
rbd cache max dirty age = 5

同步配置
ceph-deploy --overwrite-conf admin ceph-node0 ceph-node1 ceph-node2

重启节点
systemctl restart ceph\*.service ceph\*.target

查看监听:
netstat -lntp
osd树查看
ceph osd tree



ceph-fs需要元数据mds服务
创建mds,osd上都创建,高可用性
ceph-deploy mds create ceph-node0 ceph-node1 ceph-node2

pool存储池:
ceph osd pool ls
创建存储池
ceph osd pool create data_data 32

查看已有文件系统
ceph fs ls


创建一个名称为data的文件系统
[root@ceph-node0 ceph-install]# ceph osd pool create data_data 32
[root@ceph-node0 ceph-install]# ceph osd pool create data_metadata 32
[root@ceph-node0 ceph-install]# ceph fs new data data_metadata data_data


使用客户端 ceph-fuse 挂载文件系统
[root@ceph-mon yum.repos.d]# yum install -y ceph-fuse

客户端创建目录挂载文件系统
// 创建data录目
[root@ceph-mon ~]# mkdir /data

// 挂载
root@ceph-mon ~]# ceph-fuse -m 192.168.118.137,192.168.118.138,192.168.118.139:6789 /data

查看pg状态
ceph pg stat


20 pgs: 20 active+undersized+degraded; 14512 kB data, 302 GB used, 6388 GB / 6691 GB avail; 12/36 objects degraded (33.333%)

查看集群监控状态
ceph health detail



创建安装ceph object gatway
格式:
$ ceph-deploy install --rgw <gateway-node1> [<gateway-node2> ...]
装在第2个节点

ceph-deploy install --rgw ceph-node0

管理RGW节点
Ceph CLI工具需要在管理员模式下运行,因此需要执行以下命令:

$ ceph-deploy admin ceph-node0

安装RGW实例
执行命令:

$ ceph-deploy rgw create ceph-node0




[root@ceph-node0 ceph-install]# ceph-deploy osd create ceph-node1 --data /dev/sdb1 --journal /dev/sdb1


ceph-deploy osd create ceph-node1 --data /dev/sdb1 --journal /home/osd


ceph-deploy osd prepare ceph-node1:/home/osd  ceph-node2:/home/osd
ceph-deploy osd activate ceph-node1:/home/osd  ceph-node2:/home/osd


ceph-deploy osd activate node2:/var/local/osd0 node3:/var/local/osd1

[root@ceph-node0 ceph-install]# ceph-deploy osd create ceph-node2 --data /dev/sdb1 --journal /dev/sdb1






ceph --admin-daemon /var/run/ceph/ceph-mon.ceph-node0.asok config  set   ceph-node0
ceph --admin-daemon /var/run/ceph/ceph-mon.ceph-node1.asok config  set  
ceph --admin-daemon /var/run/ceph/ceph-mon.ceph-node2.asok config  set  
public_network=192.168.118.0/255

清空数据
ceph-deploy purge ceph-node0 ceph-node1 ceph-node2
ceph-deploy purgedata ceph-node0 ceph-node1 ceph-node2
ceph-deploy forgetkeys && rm ceph.*


ceph-deploy purge node1 node2
ceph-deploy purgedata node1 node2
ceph-deploy forgetkeys && rm ceph.*




[Ceph-noarch]
name=Ceph noarch packages
baseurl=http://download.ceph.com/rpm-jewel/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc
priority=1


parted /dev/sdb  mklabel gpt   mkpart primary xfs  0% 50%    mkpart primary xfs 50% 100%    q



磁盘分区挂载
fdisk /dev/sdb   n -- p --默认
查看
fdisk -l
创建文件系统
mke2fs  -t ext4 /dev/sdb1 #ext4创建文件系统

内核重新读取分区表
partprobe /dev/sdb
建立ext4文件系统
mkfs.ext4 /dev/sdb1

挂载(临时挂载)
mount /dev/sdb1  /opt
mount /dev/sdb1 /home/osd
//永久挂载 修改配置文件  仿照上层
vim /etc/fstab



UUID的查询:  blkid
/dev/sdb1: UUID="d9405a25-9f13-4548-bc4b-b19d62c69126" TYPE="ext4"


mount -a


2019.5.6-091311
创建S3用户

[ceph@ceph-node0 ceph-install]$ radosgw-admin user create --uid="testuser" --display-name="First User"
{
    "user_id": "testuser",
    "display_name": "First User",
    "email": "",
    "suspended": 0,
    "max_buckets": 1000,
    "auid": 0,
    "subusers": [],
    "keys": [
        {
            "user": "testuser",
            "access_key": "46C4IXBZO8NQMDXWNSNV",
            "secret_key": "WCLvYcbLGwviyyMv9G60kMs1lu6GvVYVrLY9qfPE"
        }
    ],
    "swift_keys": [],
    "caps": [],
    "op_mask": "read, write, delete",
    "default_placement": "",
    "placement_tags": [],
    "bucket_quota": {
        "enabled": false,
        "check_on_raw": false,
        "max_size": -1,
        "max_size_kb": 0,
        "max_objects": -1
    },
    "user_quota": {
        "enabled": false,
        "check_on_raw": false,
        "max_size": -1,
        "max_size_kb": 0,
        "max_objects": -1
    },
    "temp_url_keys": [],
    "type": "rgw",
    "mfa_ids": []
}

重启网关
sudo systemctl restart ceph-radosgw.service


错误
[ceph@ceph-node0 ceph-install]$ sudo ceph-deploy new ceph-node0 ceph-node1 ceph-node2
Traceback (most recent call last):
  File "/bin/ceph-deploy", line 18, in <module>
    from ceph_deploy.cli import main
  File "/usr/lib/python2.7/site-packages/ceph_deploy/cli.py", line 1, in <module>
    import pkg_resources
ImportError: No module named pkg_resource





[ceph_deploy.osd][DEBUG ] Host ceph-node2 is now ready for osd use.
[ceph@ceph-node0 ceph-install]$ ceph -s
2019-05-07 20:21:50.948 7fc7bbe71700 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.admin.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin,: (2) No such file or directory
2019-05-07 20:21:50.948 7fc7bbe71700 -1 monclient: ERROR: missing keyring, cannot use cephx for authentication
[errno 2] error connecting to the cluster

解决方案:sudo chmod +r /etc/ceph/ceph.client.admin.keyring
分享到:
评论

相关推荐

    ceph安装部署使用文档

    《Ceph安装部署使用文档》 Ceph是一个开源的分布式存储系统,提供对象存储、块存储和文件存储三种服务,广泛应用于云计算、大数据和高性能计算领域。本文档将详细介绍Ceph在不同节点上的安装、配置及管理过程。 一...

    ceph 安装文档 各种安装文档

    【ceph 安装文档 各种安装文档】 ceph 是一个开源的、分布式存储系统,它提供了数据存储、备份、容灾、对象存储等多种功能。在 IT 领域,ceph 被广泛应用于云存储、大数据处理以及高性能计算场景。本安装文档将详细...

    ceph安装部署(centos6.6)

    四:安装ceph软件包 6 五:安装ceph对象网关 9 六、搭建ceph集群 10 6.1、配置mon节点 10 6.2:添加osd节点 13 6.2.1、添加第一块osd节点 13 6.3:添加元数据服务器 17 6.3.1、添加第一个元数据服务器 17 七:安装...

    ceph安装整理

    个人实测整理ceph安装,本人小白,供参考,一起交流,一起学习

    ceph安装部署

    ceph install manual. 全手工部署 文档.

    ceph安装配置以及遇到问题解决

    ceph安装配置以及我自己的安装过程中遇到问题和解决办法

    ceph安装实施规范+FS+S3.pdf

    Ceph是目前最热门的软件定义存储(SDS)技术,正在撼动整个存储行业。它是一个开源项目,为块、文件和对象存储提供统一的软件定义的解决方案。Ceph的核心思想是提供一个分布式存储系统,该系统具有大规模的可伸缩性和...

    ceph安装手册.txt

    根据提供的文件信息,本文将对Ceph的安装与配置过程进行详细解读,涵盖环境准备、配置文件编写以及集群搭建等核心环节。 ### 一、环境准备 #### 1. 创建用户与目录 为了确保Ceph服务的安全运行,首先需要创建一个...

    Ceph安装指南

    分布式存储ceph安装指南,通过vmvare安装,可以组建分布式

    ceph安装.docx

    Ceph是一套高性能,易扩展的,无单点的分布式文件存储系统,基于Sage A. Weil的论文开发,主要提供以下三个存储服务: 对象存储(Object Storage),既可以通过使用Ceph的库,利用C, C++, Java, Python, PHP代码,也...

    openstack+ceph非常详细整合安装部署.pdf

    openstack+ceph非常详细整合安装部署,网上openstack+ceph文档很多,90%都是只讲openstack与ceph整合部分、也没有讲整合后如何验证。此文档包括详细拓扑图、openstack与ceph一步一步详细安装步骤,配置参数讲解。

    openstack与ceph整合安装指导文档.docx

    4. **Ceph安装**:首先规划IP地址,确保各节点间的通信畅通。然后按照Ceph的安装指南,依次在所有存储节点上部署Ceph守护进程,包括OSD(Object Storage Daemon)、Mon(Monitor)和MDS(Metadata Server)。 - **...

    proxmox 搭建ceph服务

    在每台Proxmox VE服务器上,通过命令行执行以下操作来安装Ceph: ``` sudo apt-get update sudo apt-get install ceph-common ceph-mon ceph-osd ``` **5. 初始化Ceph集群** 首先,选择一台服务器作为初始化节点,...

    分布式存储系统ceph-14.2.10-手动部署手册

    安装 Ceph 需要以下步骤: 1. 下载 Ceph 软件包 2. 安装 Ceph 软件包 3. 配置 Ceph 环境变量 MON 部署 MON(Monitor)是 Ceph 集群中的核心组件,负责集群的 metadata 管理。MON 部署需要以下步骤: 1. 创建第一...

    Ceph 工作原理以及安装.zip_Ceph 工作原理以及安装_ceph

    4. **下载并安装 Ceph**:通过官方仓库或源码编译方式获取 Ceph,安装相关软件包。 5. **配置 Ceph 集群**:创建配置文件,设置集群名称、监控网络、数据网络等信息。 6. **初始化集群**:运行 `ceph-deploy` 创建...

    ceph集群(centos7)安装配置文档201510

    五:安装部署主机(ceph-deploy)安装环境准备 17 1:建立主机列表 17 2:为所有集群主机创建一个 ceph 工作目录 17 3:同步hosts文件 17 4:测试主机名解析 17 5:ceph-deploy安装配置 18 六:创建mon 节点 18 1:...

    PVE 6 离线安装CEPH-Nautilus.docx

    PVE 6 离线安装 CEPH-Nautilus 集群环境 本教程旨在解决纯内网环境无法安装配置 Ceph 集群的问题,通过搭建本地源和使用 Proxmox VE 6 离线安装 Ceph-Nautilus 集群环境,以满足内网环境的需求。 一、Proxmox VE 6...

    Centos7搭建CEPH集群运维测试与实验文档

    本文档详细介绍了如何在 CentOS 7 系统上搭建 CEPH 集群,包括实验环境背景及环境准备、虚拟机操作系统准备、基础环境准备、虚拟机 HOST 配置、CEPH 源配置安装、CEPH 安装等阶段。通过本文档,可以了解 CEPH 集群的...

    ceph-install-scripts:ZenDRIVE Ceph安装脚本

    **ZenDRIVE Ceph安装脚本详解** Ceph是一个开源的、分布式存储系统,它提供了对象存储、块存储和文件系统的功能,广泛应用于云服务、大数据处理和存储密集型应用中。ZenDRIVE Ceph安装脚本是为简化Ceph在服务器集群...

Global site tag (gtag.js) - Google Analytics