扩展性
在这个示例中,您将学习如何设置一个简单的 ClickHouse 集群以进行扩展。配置了五台服务器。其中两台用于对数据进行分片,另外三台服务器用于协调。
您将要设置的集群的架构如下所示:
尽管可以在同一服务器上运行 ClickHouse Server 和 ClickHouse Keeper 的组合,但我们强烈建议在生产环境中为 ClickHouse Keeper 使用 专用 主机,这也是我们将在本示例中演示的方法。
Keeper 服务器可以更小,每个 Keeper 服务器一般需要 4GB 内存,直到您的 ClickHouse 服务器变得庞大。
前提条件
- 您之前已经设置了一个 本地 ClickHouse 服务器
- 您熟悉 ClickHouse 的基本配置概念,例如 配置文件
- 您的机器上已安装 docker
设置目录结构和测试环境
以下步骤将指导您从头开始设置集群。如果您希望跳过这些步骤并直接运行集群,可以从 examples repository 获取示例文件。
在本教程中,您将使用 Docker compose 来设置 ClickHouse 集群。此设置也可以修改为适用于单独的本地机器、虚拟机或云实例。
运行以下命令以设置此示例的目录结构:
将以下 docker-compose.yml
文件添加到 clickhouse-cluster
目录:
创建以下子目录和文件:
config.d
目录包含 ClickHouse 服务器配置文件config.xml
,在其中定义了每个 ClickHouse 节点的自定义配置。该配置与每个 ClickHouse 安装中自带的默认config.xml
ClickHouse 配置文件相结合。users.d
目录包含用户配置文件users.xml
,在其中定义了用户的自定义配置。该配置与每个 ClickHouse 安装中自带的默认 ClickHouseusers.xml
配置文件相结合。
在编写自己的配置时,最好使用 config.d
和 users.d
目录,而不是直接修改 /etc/clickhouse-server/config.xml
和 etc/clickhouse-server/users.xml
中的默认配置。
这一行
确保了在 config.d
和 users.d
目录中定义的配置部分覆盖默认 config.xml
和 users.xml
文件中定义的默认配置部分。
配置 ClickHouse 节点
服务器设置
现在修改位于 fs/volumes/clickhouse-{}/etc/clickhouse-server/config.d
的每个空配置文件 config.xml
。下面突出显示的行需要更改为特定于每个节点的内容:
目录 | 文件 |
---|---|
fs/volumes/clickhouse-01/etc/clickhouse-server/config.d | config.xml |
fs/volumes/clickhouse-02/etc/clickhouse-server/config.d | config.xml |
上面配置文件的每个部分将在下面详细解释。
网络和日志
外部通信通过激活 listen host 设置来启用网络接口。这确保 ClickHouse 服务器主机可以被其他主机访问:
HTTP API 的端口设置为 8123
:
用于 clickhouse-client 与其他本地 ClickHouse 工具以及 clickhouse-server 与其他 clickhouse-servers 之间通过 ClickHouse 本地协议进行交互的 TCP 端口设置为 9000
:
日志在 <logger>
块中定义。此示例配置为您提供一个调试日志,该日志将在 1000M 处翻转三次:
有关日志配置的更多信息,请参阅默认 ClickHouse 配置文件 中包含的注释。
集群配置
集群的配置在 <remote_servers>
块中设置。这里定义了集群名称 cluster_2S_1R
。
<cluster_2S_1R></cluster_2S_1R>
块定义了集群的布局,使用 <shard></shard>
和 <replica></replica>
设置,并充当分布式 DDL 查询的模板,分布式 DDL 查询是指在集群中执行的查询,使用 ON CLUSTER
子句。默认情况下,允许分布式 DDL 查询,但可通过设置 allow_distributed_ddl_queries
关闭。
internal_replication
设置为 true,以便数据仅写入一个副本。
对于每个服务器,指定以下参数:
参数 | 描述 | 默认值 |
---|---|---|
host | 远程服务器的地址。您可以使用域名或 IPv4 或 IPv6 地址。如果您指定域名,服务器在启动时会发出 DNS 请求,并将结果存储在服务器运行期间。如果 DNS 请求失败,服务器将无法启动。如果您更改 DNS 记录,则需要重新启动服务器。 | - |
port | 用于消息传递活动的 TCP 端口(配置中的 tcp_port ,通常设置为 9000)。不要与 http_port 混淆。 | - |
Keeper 配置
<ZooKeeper>
部分告知 ClickHouse ClickHouse Keeper(或 ZooKeeper)在哪里运行。由于我们使用的是 ClickHouse Keeper 集群,因此每个集群的 <node>
需要指定其主机名和端口号,使用 <host>
和 <port>
标签分别指定。
ClickHouse Keeper 的设置将在本教程的下一步中解释。
尽管可以在与 ClickHouse Server 相同的服务器上运行 ClickHouse Keeper,但在生产环境中,我们强烈建议将 ClickHouse Keeper 运行在专用主机上。
宏配置
此外,<macros>
部分用于定义参数替换以用于复制表。这些列在 system.macros
中,并允许在查询中使用替换,如 {shard}
和 {replica}
。
这些将在集群布局上唯一定义。
用户配置
现在修改位于 fs/volumes/clickhouse-{}/etc/clickhouse-server/users.d
的每个空配置文件 users.xml
,内容如下:
目录 | 文件 |
---|---|
fs/volumes/clickhouse-01/etc/clickhouse-server/users.d | users.xml |
fs/volumes/clickhouse-02/etc/clickhouse-server/users.d | users.xml |
在这个示例中,出于简便考虑,默认用户未配置密码。实际上,这不建议。
在这个示例中,每个 users.xml
文件在集群的所有节点上都是相同的。
配置 ClickHouse Keeper
Keeper 设置
为了使复制工作,必须设置和配置 ClickHouse Keeper 集群。 ClickHouse Keeper 提供数据复制的协调系统,作为 Zookeeper 的替代方案,Zookeeper 也可以使用。然而,推荐使用 ClickHouse Keeper,因为它提供更好的保障和可靠性,并且比 ZooKeeper 使用更少的资源。为了高可用性并保持法定人数,建议运行至少三个 ClickHouse Keeper 节点。
ClickHouse Keeper 可以与 ClickHouse 在集群的任何节点上运行,尽管建议在专用节点上运行,这样可以独立于数据库集群扩展和管理 ClickHouse Keeper 集群。
使用以下命令从示例文件夹的根目录为每个 ClickHouse Keeper 节点创建 keeper_config.xml
文件:
修改在每个节点目录 fs/volumes/clickhouse-keeper-{}/etc/clickhouse-keeper
中创建的空配置文件。下面突出显示的行需要根据每个节点进行更改:
目录 | 文件 |
---|---|
fs/volumes/clickhouse-keeper-01/etc/clickhouse-server/config.d | keeper_config.xml |
fs/volumes/clickhouse-keeper-02/etc/clickhouse-server/config.d | keeper_config.xml |
fs/volumes/clickhouse-keeper-03/etc/clickhouse-server/config.d | keeper_config.xml |
每个配置文件将包含以下唯一配置(如下所示)。
用于 ClickHouse Keeper 节点的 server_id
应在集群中唯一,并且与 <raft_configuration>
部分中定义的服务器 <id>
匹配。
tcp_port
是 ClickHouse Keeper 的 客户端 使用的端口。
以下部分用于配置参与 raft 共识算法 的服务器:
ClickHouse Cloud 消除了与管理分片和副本相关的操作负担。该平台自动处理高可用性、复制和扩展决策。 计算和存储是独立的,并根据需求进行扩展,无需手动配置或持续维护。
测试设置
确保您的机器上正在运行 docker。
使用 docker-compose up
命令从 cluster_2S_1R
目录的根目录启动集群:
您应该会看到 docker 开始拉取 ClickHouse 和 Keeper 的镜像,然后启动容器:
要验证集群是否正在运行,请连接到 clickhouse-01
或 clickhouse-02
,并运行以下查询。连接到第一个节点的命令如下所示:
如果成功,您将看到 ClickHouse 客户端提示:
运行以下查询以检查为哪些主机定义的集群拓扑:
运行以下查询以检查 ClickHouse Keeper 集群的状态:
mntr
命令通常用于验证 ClickHouse Keeper 是否正在运行,并获取有关三个 Keeper 节点关系的状态信息。在本示例中使用的配置中,有三个节点协同工作。节点将选举出一个领导者,其余的节点将作为跟随者。
mntr
命令提供与性能相关的信息,以及某个特定节点是跟随者还是领导者。
您可能需要安装 netcat
以便将 mntr
命令发送到 Keeper。请参见 nmap.org 页面以获取下载信息。
在 clickhouse-keeper-01
、clickhouse-keeper-02
和 clickhouse-keeper-03
上从 shell 运行以下命令,以检查每个 Keeper 节点的状态。clickhouse-keeper-01
的命令如下所示:
下面的响应显示了来自跟随者节点的示例响应:
下面的响应显示了来自领导者节点的示例响应:
这样,您就成功设置了一个单分片和两个副本的 ClickHouse 集群。在下一步中,您将创建一个集群中的表。
创建数据库
现在您已经验证了集群正确设置并正在运行,您将重新创建与 英国房产价格 示例数据集教程中使用的表相同的表。它包含自 1995 年以来在英格兰和威尔士支付的大约 3000 万行房地产价格数据。
通过在单独的终端选项卡或窗口中运行以下命令,连接到每个主机的客户端:
您可以从每个主机的 clickhouse-client 运行以下查询,以确认除了默认数据库外,没有数据库被创建:
从 clickhouse-01
客户端运行以下 分布式 DDL 查询,以使用 ON CLUSTER
子句创建名为 uk
的新数据库:
您可以再次从每个主机的客户端运行与之前相同的查询,以确认尽管只在 clickhouse-01
上运行该查询,数据库仍然已跨集群创建:
向分布式表插入数据
在插入英国房价数据之前,让我们快速进行实验,看看从任何主机向普通表插入数据时会发生什么。
从任何主机运行以下查询创建测试数据库和表:
现在从 clickhouse-01
运行以下 INSERT
查询:
切换到 clickhouse-02
并运行以下 INSERT
查询:
现在从 clickhouse-01
或 clickhouse-02
运行以下查询:
您会注意到,仅返回插入到特定主机表中的行,而不是两个行。
要从两个分片读取数据,我们需要一个接口,该接口可以处理跨所有分片的查询,在我们对其运行选择查询时结合来自两个分片的数据,并在我们运行插入查询时处理向不同分片插入数据。
在 ClickHouse 中,该接口称为分布式表,我们使用 Distributed
表引擎创建它。让我们看看它是如何工作的。
使用以下查询创建一个分布式表:
在这个示例中,选择 rand()
函数作为分片键,以便插入随机分布在各个分片上。
现在从任何主机查询分布式表,您将返回在两个主机上插入的两个行:
让我们为我们的英国房产价格数据做同样的事情。从任意主机客户端运行以下查询,使用之前创建的现有表创建分布式表,使用 ON CLUSTER
:
现在连接到任一主机并插入数据:
数据插入后,您可以使用分布式表检查行数:
如果您在任一主机上运行以下查询,您将看到数据已在分片间大致均匀分配(请记住,插入的分片选择是通过 rand()
设置的,因此结果可能会有所不同):
如果其中一台主机出现故障会发生什么?让我们通过关闭 clickhouse-01
来模拟这一点:
通过运行以下查询检查主机是否关闭:
现在从 clickhouse-02
运行我们之前在分布式表上运行的相同选择查询:
不幸的是,我们的集群不具备容错能力。如果其中一台主机出现故障,集群将被视为不健康,并且查询失败,相比之下,我们在 先前示例 中看到的复制表,我们能够在其中一台主机出现故障时插入数据。
结论
这种集群拓扑的优势在于数据分布在不同的主机上,并且每个节点消耗的存储量减半。更重要的是,查询跨两个分片处理,这在内存利用率方面更有效,并减少每个主机的 I/O。
这种集群拓扑的主要缺点是,当然,失去其中一台主机使我们无法提供查询服务。
在 下一个示例 中,我们将看看如何设置一个具有两个分片和两个副本的集群,以提供可扩展性和故障容错能力。