介绍
etcd是CoreOS团队于2013年6月发起的开源项目,它的目标是构建一个高可用的分布式键值(key-value)数据库。etcd内部采用raft协议作为一致性算法,etcd基于Go语言实现。
etcd作为服务发现系统,有以下的特点:
- 简单:安装配置简单,而且提供了HTTP API进行交互,使用也很简单
- 安全:支持SSL证书验证
- 快速:根据官方提供的benchmark数据,每个实例每秒1000+次写操作
- 可靠:采用raft算法,实现分布式系统数据的可用性和一致性
etcd项目地址:https://github.com/etcd-io/etcd
下载地址: https://github.com/etcd-io/etcd/releases/download/v3.4.14/etcd-v3.4.14-linux-amd64.tar.gz
etcd 是许多其他项目的核心组件。最值得注意的是,它是 Kubernetes 的首要数据存储,也是容器编排的实际标准系统。使用 etcd, 云原生应用可以保持更为一致的运行时间,而且在个别服务器发生故障时也能正常工作。应用从 etcd 读取数据并写入到其中;通过分散配置数据,为节点配置提供冗余和弹性。
Etcd应用场景
etcd比较多的应用场景是用于服务发现,服务发现(Service Discovery)要解决的是分布式系统中最常见的问题之一,即在同一个分布式集群中的进程或服务如何才能找到对方并建立连接。
从本质上说,服务发现就是要了解集群中是否有进程在监听upd或者tcp端口,并且通过名字就可以进行查找和链接。
要解决服务发现的问题,需要下面三大支柱,缺一不可。
一个强一致性、高可用的服务存储目录。 基于Ralf算法的etcd天生就是这样一个强一致性、高可用的服务存储目录。
一种注册服务和健康服务健康状况的机制。 用户可以在etcd中注册服务,并且对注册的服务配置key TTL,定时保持服务的心跳以达到监控健康状态的效果。
一种查找和连接服务的机制。 通过在etcd指定的主题下注册的服务业能在对应的主题下查找到。
Etcd vs Zookeeper
提供配置共享和服务发现的系统比较多,其中最为大家熟知的是 Zookeeper,而 etcd 可以算得上是后起之秀了。在项目实现、一致性协议易理解性、运维、安全等多个维度上,etcd 相比 zookeeper 都占据优势。
本文选取 Zookeeper 作为典型代表与 etcd 进行比较,而不考虑 Consul 项目作为比较对象,原因为 Consul 的可靠性和稳定性还需要时间来验证。
- 一致性协议: etcd 使用 Raft 协议,Zookeeper 使用 ZAB(类PAXOS协议),前者容易理解,方便工程实现;
- 运维方面:etcd 方便运维,Zookeeper 难以运维;
- 数据存储:etcd 多版本并发控制(MVCC)数据模型 , 支持查询先前版本的键值对
- 项目活跃度:etcd 社区与开发活跃,Zookeeper 开发缓慢;
- API:etcd 提供 HTTP+JSON, gRPC 接口,跨平台跨语言,Zookeeper 需要使用其客户端; 访问安全方面:etcd 支持 HTTPS 访问,Zookeeper 在这方面缺失;
Etcd vs Redis
尽管etcd和redis都是键值存储,随着技术的演进,二者在功能上也有逐渐相似的趋势,但二者在许多方面都有很大区别。 etcd的爆火来源于Kubernetes用etcd做服务发现,而redis的兴起则来源于memcache缓存本身的局限性。 etcd的重点是利用raft算法做分布式一致性,强调各个节点之间的通信、同步,确保各节点数据和事务的一致性,使得服务发现工作更稳定;
redis也可以做主从同步和读写分离,但节点一致性强调的是数据,不是事务。redis的注册和发现只能通过pub和sub实现,安全性不能保证(断线重连之后不会将历史信息推送给客户端,需要自己做一个定时轮询),延时也比etcd v3高。
etcd v3的底层采用boltdb做存储,value直接持久化;redis是一个内存数据库,它的持久化方案有aof和rdb,在宕机时都或多或少会丢失数据。
Etcd 集群的搭建
一共3台机器:
CentOS7,Etcd-v3.4.14
- HOST_1=172.19.0.12
- HOST_2=172.19.0.13
- HOST_3=172.19.0.14
先在所有机器上面执行
TOKEN=etcd-token-test-njcx
CLUSTER_STATE=new
NAME_1=machine-1
NAME_2=machine-2
NAME_3=machine-3
HOST_1=172.19.0.12
HOST_2=172.19.0.13
HOST_3=172.19.0.14
CLUSTER=${NAME_1}=http://${HOST_1}:2380,${NAME_2}=http://${HOST_2}:2380,${NAME_3}=http://${HOST_3}:2380
mkdir -p /var/lib/etcd
ETCD_DATA=/var/lib/etcd
然后在HOST_1 执行
THIS_NAME=${NAME_1}
THIS_IP=${HOST_1}
etcd --data-dir=${ETCD_DATA} --name ${THIS_NAME} \
--initial-advertise-peer-urls http://${THIS_IP}:2380 --listen-peer-urls http://${THIS_IP}:2380 \
--advertise-client-urls http://${THIS_IP}:2379 --listen-client-urls http://${THIS_IP}:2379 \
--initial-cluster ${CLUSTER} \
--initial-cluster-state ${CLUSTER_STATE} --initial-cluster-token ${TOKEN}
然后在HOST_2 执行
THIS_NAME=${NAME_2}
THIS_IP=${HOST_2}
etcd --data-dir=${ETCD_DATA} --name ${THIS_NAME} \
--initial-advertise-peer-urls http://${THIS_IP}:2380 --listen-peer-urls http://${THIS_IP}:2380 \
--advertise-client-urls http://${THIS_IP}:2379 --listen-client-urls http://${THIS_IP}:2379 \
--initial-cluster ${CLUSTER} \
--initial-cluster-state ${CLUSTER_STATE} --initial-cluster-token ${TOKEN}
然后在HOST_3 执行
THIS_NAME=${NAME_3}
THIS_IP=${HOST_3}
etcd --data-dir=${ETCD_DATA} --name ${THIS_NAME} \
--initial-advertise-peer-urls http://${THIS_IP}:2380 --listen-peer-urls http://${THIS_IP}:2380 \
--advertise-client-urls http://${THIS_IP}:2379 --listen-client-urls http://${THIS_IP}:2379 \
--initial-cluster ${CLUSTER} \
--initial-cluster-state ${CLUSTER_STATE} --initial-cluster-token ${TOKEN}
然后,在任何一个机器上面
export ETCDCTL_API=3
HOST_1=172.19.0.12
HOST_2=172.19.0.13
HOST_3=172.19.0.14
ENDPOINTS=$HOST_1:2379,$HOST_2:2379,$HOST_3:2379
./etcdctl --endpoints=$ENDPOINTS member list
8e9e05c52164694d, started, default, http://localhost:2380, http://0.0.0.0:2379, false
put 和get操作
./etcdctl --endpoints=$ENDPOINTS put web1 value1
OK
./etcdctl --endpoints=$ENDPOINTS put web2 value2
OK
./etcdctl --endpoints=$ENDPOINTS put web3 value3
OK
./etcdctl --endpoints=$ENDPOINTS get web3
web3
value3
./etcdctl --endpoints=$ENDPOINTS get web --prefix
web1
value1
web2
value2
web3
value3
删除操作
./etcdctl --endpoints=$ENDPOINTS put key myvalue
OK
./etcdctl --endpoints=$ENDPOINTS del key
1
./etcdctl --endpoints=$ENDPOINTS put k1 value1
OK
./etcdctl --endpoints=$ENDPOINTS put k2 value2
OK
./etcdctl --endpoints=$ENDPOINTS del k --prefix
1
监听key的变化
./etcdctl --endpoints=$ENDPOINTS watch stock1
PUT
stock1
1000
./etcdctl --endpoints=$ENDPOINTS put stock1 1000
ok
./etcdctl --endpoints=$ENDPOINTS watch stock --prefix
PUT
stock1
10
PUT
stock2
20
./etcdctl --endpoints=$ENDPOINTS put stock1 10
ok
./etcdctl --endpoints=$ENDPOINTS put stock2 20
ok
TTL
./etcdctl --endpoints=$ENDPOINTS lease grant 30
# lease 2be7547fbc6a5afa granted with TTL(30s)
./etcdctl --endpoints=$ENDPOINTS put sample value --lease=2be7547fbc6a5afa
./etcdctl --endpoints=$ENDPOINTS get sample
./etcdctl --endpoints=$ENDPOINTS lease keep-alive 2be7547fbc6a5afa #到期自动续期,会阻塞
./etcdctl --endpoints=$ENDPOINTS lease revoke 2be7547fbc6a5afa #直接销毁
./etcdctl --endpoints=$ENDPOINTS get sample
事务写
./etcdctl --endpoints=$ENDPOINTS put user1 bad
./etcdctl --endpoints=$ENDPOINTS txn --interactive
compares:
value("user1") = "bad"
success requests (get, put, delete):
del user1
failure requests (get, put, delete):
put user1 good
认证
./etcdctl --endpoints=${ENDPOINTS} role add root #创建角色root
./etcdctl --endpoints=${ENDPOINTS} role grant-permission root readwrite foo #只给foo读写权限(foo是key)
./etcdctl --endpoints=${ENDPOINTS} role get root
./etcdctl --endpoints=${ENDPOINTS} user add root #创建用户root
./etcdctl --endpoints=${ENDPOINTS} user grant-role root root #把用户添加到root 角色里面
./etcdctl --endpoints=${ENDPOINTS} user get root
./etcdctl --endpoints=${ENDPOINTS} auth enable #激活认证
./etcdctl --endpoints=${ENDPOINTS} --user=root:123 put foo bar
./etcdctl --endpoints=${ENDPOINTS} get foo
./etcdctl --endpoints=${ENDPOINTS} --user=root:123 get foo
./etcdctl --endpoints=${ENDPOINTS} --user=root:123 get foo1
分布式锁
./etcdctl --endpoints=$ENDPOINTS lock mutex1
# 启动另一个shell,上面会退出
./etcdctl --endpoints=$ENDPOINTS lock mutex1
查看etcd集群状态
./etcdctl --write-out=table --endpoints=$ENDPOINTS endpoint status #查看集群状态
./etcdctl --endpoints=$ENDPOINTS endpoint health #查看节点健康状态
备份与恢复
只能从一个etcd节点请求快照,因此--endpoints标志应仅包含一个端点。
ENDPOINTS=$HOST_1:2379
./etcdctl --endpoints=$ENDPOINTS snapshot save my.db
./etcdctl snapshot restore my.db -data-dir /var/lib/etcd
Etcd在HIDS-Agent配置管理和健康监测上的应用
使用 cgroups + etcd + kafka 开发而成的hids的架构,agent 部分使用go 开发而成, 会把采集的数据写入到kafka里面,由后端的规则引擎(go开发而成)消费,配置部分以及agent存活使用etcd。
HIDS-Agent 有如下需求:
- 1, agent 存活检测
- 2, 配置管理以及动态更新配置
- 3, 规则下发(比如,恶意程序扫描)
获取配置
cli, err := clientv3.New(clientv3.Config{
Endpoints: etcD,
DialTimeout: 5 * time.Second,
})
if err != nil {
a.log("connect failed, err:", err)
return
}
ctx, _ := context.WithTimeout(context.Background(), 10*time.Second)
resp, err := cli.Get(ctx, "/hids/kafka/host")
if err != nil {
a.log("get kafka_host failed, err:", err)
return
}
resp1, err := cli.Get(ctx, "/hids/kafka/topic")
if err != nil {
a.log("get kafka_topic failed, err:", err)
return
}
ev := resp.Kvs[0]
kafkaHost := string(ev.Value)
ev1 := resp1.Kvs[0]
kafkaTopic := string(ev1.Value)
a.Kafka = kafka.NewKafkaProducer(kafkaHost, kafkaTopic)
a.Mutex = new(sync.Mutex)
单独起一个goroutine,利用ttl做 agent 存活检测,如果key不在了,则认为agent下线了,这里用keep-alive也可以的
go func(cli *clientv3.Client) {
for {
resp, err := cli.Grant(context.TODO(), 60)
if err != nil {
a.log("etcd client leasegrant failed, err:", err)
return
}
_, err = cli.Put(context.TODO(), "/hids/alivehost/"+host+"--"+LocalIP, time.Now().Format("2006-01-02 15:04:05"),
clientv3.WithLease(resp.ID))
if err != nil {
a.log("etcd client leaseput failed, err:", err)
return
}
time.Sleep(10*time.Second)
}
cli.Close()
}(cli)
配置更新以及规则下发可以用 watch 实现
go func(cli *clientv3.Client) {
for {
rch := cli.Watch(context.Background(), "/hids/kafka/host")
for wresp := range rch {
err = wresp.Err()
if err != nil {
a.log("etcd client watch failed, err:", err)
}
for _, ev := range wresp.Events {
if string(ev.Kv.Type)== "PUT" {
a.Kafka = kafka.NewKafkaProducer(string(ev.Kv.Value), kafkaTopic)
}
}
}
}
}(cli)