You are viewing a plain text version of this content. The canonical link for it is here.
Posted to notifications@shardingsphere.apache.org by xi...@apache.org on 2020/07/13 10:31:33 UTC

[shardingsphere] branch master updated: revise governance document

This is an automated email from the ASF dual-hosted git repository.

xiaoyu pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/shardingsphere.git


The following commit(s) were added to refs/heads/master by this push:
     new d8dfbb1  revise governance document
     new fb066b0  Merge pull request #6339 from menghaoranss/doc-update
d8dfbb1 is described below

commit d8dfbb1d86e32d187a44e0deda1ddd6035afdfb8
Author: menghaoranss <lo...@163.com>
AuthorDate: Mon Jul 13 15:46:51 2020 +0800

    revise governance document
---
 .../content/features/governance/_index.cn.md       | 16 ++++++-------
 .../governance/clusterstate/clusterstate.cn.md     |  4 ++--
 .../governance/clusterstate/heartbeat.cn.md        | 14 +++++------
 .../governance/management/config-center.cn.md      |  8 +++----
 .../governance/management/registry-center.cn.md    |  4 ++--
 .../governance/observability/metrics.cn.md         | 28 +++++++++++-----------
 6 files changed, 37 insertions(+), 37 deletions(-)

diff --git a/docs/document/content/features/governance/_index.cn.md b/docs/document/content/features/governance/_index.cn.md
index 61f6ada..911a624 100644
--- a/docs/document/content/features/governance/_index.cn.md
+++ b/docs/document/content/features/governance/_index.cn.md
@@ -17,26 +17,26 @@ chapter = true
 
 集成管理的复杂性体现在,一方面我们需要把所有的节点,不管是底层数据库节点,还是中间件或者业务系统节点,它们的状态都统一管理起来,并且能够实时的探测到最新的变动情况,进一步为集群的控制和调度提供依据。这方面我们使用集群拓扑状态图来管理集群状态,同时使用心跳检测机制实现状态检测与更新。
 
-另一方面,不同节点节点之间的统一协调,策略与规则的同步,也需要我们能够设计一套在分布式情况下,进行全局事件通知机制,以及独占性操作的分布式协调锁机制。这方面,我们使用Zookeeper/Etcd等实现配置的同步,状态变更的通知,以及分布式锁来控制排他性操作。
+另一方面,不同节点节点之间的统一协调,策略与规则的同步,也需要我们能够设计一套在分布式情况下,进行全局事件通知机制,以及独占性操作的分布式协调锁机制。这方面,我们使用 Zookeeper/Etcd 等实现配置的同步,状态变更的通知,以及分布式锁来控制排他性操作。
 
 同时,由于治理功能本身可以采用合适的第三方组件作为基础服务,需要我们抽象统一的接口,统一各种不同的组件的标准调用API,对接到治理功能模块。
 
-最后对于可管理性和可观测性的要求,我们需要完善通过UI查询、操作和控制系统的功能,进一步完善对于tracing和APM的支持,实现Metric指标监控以及与Prometheus、Grafana的支持,实现实时监控。
+最后对于可管理性和可观测性的要求,我们需要完善通过UI查询、操作和控制系统的功能,进一步完善对于 tracing 和 APM 的支持,实现 Metric 指标监控以及与 Prometheus、Grafana 的支持,实现实时监控。
 
 ## 目标
 
 对于治理功能,目标如下:
 
-- 实现配置中心:支持Zookeeper/Etcd/Apollo/Nacos,管理数据源、规则和策略的配置。
-- 实现注册中心:支持Zookeeper/Etcd,管理各个Proxy示例的状态。
-- 实现元数据中心:支持Zookeeper/Etcd,管理LogicSchema的元数据。
+- 实现配置中心:支持 Zookeeper/Etcd/Apollo/Nacos,管理数据源、规则和策略的配置。
+- 实现注册中心:支持 Zookeeper/Etcd,管理各个 Proxy 示例的状态。
+- 实现元数据中心:支持 Zookeeper/Etcd,管理 LogicSchema 的元数据。
 
 对于集群管理功能,目标如下:
 
-- 实现节点心跳检测:支持Sharding-JDBC、Sharding-Proxy,使用可配置策略探活。
+- 实现节点心跳检测:支持 Sharding-JDBC、Sharding-Proxy,使用可配置策略探活。
 - 实现集群状态拓扑管理:更新和管理集群状态拓扑图。
 
 对于可观测性,目标如下:
 
-- 支持OpenTracing/Skywalking集成,实现调用链的跟踪;
-- 实现Metric支持,对接Prometheus、Grafana,实现监控指标的可视化展示。
\ No newline at end of file
+- 支持 OpenTracing/Skywalking 集成,实现调用链的跟踪;
+- 实现 Metric 支持,对接 Prometheus、Grafana,实现监控指标的可视化展示。
\ No newline at end of file
diff --git a/docs/document/content/features/governance/clusterstate/clusterstate.cn.md b/docs/document/content/features/governance/clusterstate/clusterstate.cn.md
index 92213a7..1bbda15 100644
--- a/docs/document/content/features/governance/clusterstate/clusterstate.cn.md
+++ b/docs/document/content/features/governance/clusterstate/clusterstate.cn.md
@@ -6,7 +6,7 @@ weight = 2
 ## 背景
 
 集群状态拓扑用于展示集群中所有节点状态以及节点之间的通信情况。
-ShardingSphere基于心跳检测采集并存储在注册中心中的心跳数据,生成集群状态拓扑图,用于更直观展示集群中各个节点的实时状态以及应用节点和数据库节点之间的连接情况。
+ShardingSphere 基于心跳检测采集并存储在注册中心中的心跳数据,生成集群状态拓扑图,用于更直观展示集群中各个节点的实时状态以及应用节点和数据库节点之间的连接情况。
 
 ## 目标
 
@@ -23,4 +23,4 @@ ShardingSphere基于心跳检测采集并存储在注册中心中的心跳数据
 
 ## 使用
 
-集群状态拓扑集成在用户界面中,具体使用可参考`ShardingSphere-UI`项目。
+集群状态拓扑集成在用户界面中,具体使用可参考 `ShardingSphere-UI` 项目。
diff --git a/docs/document/content/features/governance/clusterstate/heartbeat.cn.md b/docs/document/content/features/governance/clusterstate/heartbeat.cn.md
index 583ba15..464adc8 100644
--- a/docs/document/content/features/governance/clusterstate/heartbeat.cn.md
+++ b/docs/document/content/features/governance/clusterstate/heartbeat.cn.md
@@ -5,7 +5,7 @@ weight = 1
 
 ## 背景
 
-ShardingSphere治理模块旨在提供更高效,更自动化的集群管理功能,实现此功能依赖于集群中各个节点的状态信息,而各个节点之间的实时连接状态也是实现自动化集群管理必不可少的。
+ShardingSphere 治理模块旨在提供更高效,更自动化的集群管理功能,实现此功能依赖于集群中各个节点的状态信息,而各个节点之间的实时连接状态也是实现自动化集群管理必不可少的。
 
 心跳检测功能负责采集应用程序和数据库之间的实时连接状态,为后续自动化治理和调度提供支持。
 
@@ -14,12 +14,12 @@ ShardingSphere治理模块旨在提供更高效,更自动化的集群管理功
 ![设计方案](https://shardingsphere.apache.org/document/current/img/control-panel/cluster/heartbeat.png)
 
 - 应用程序启动时根据配置初始化心跳检测模块
-- 心跳检测模块启动心跳检测任务,定时获取与实例关联的数据库连接并执行心跳检测`SQL`
+- 心跳检测模块启动心跳检测任务,定时获取与实例关联的数据库连接并执行心跳检测 `SQL`
 - 处理心跳检测结果并保存至注册中心
 
 ## 数据结构
 
-心跳检测结果保存在注册中心`instances`节点应用实例下:
+心跳检测结果保存在注册中心 `instances` 节点应用实例下:
 ```
 state: ONLINE # 应用实例状态
 sharding_db.ds_0: # 逻辑数据库名称.数据源名称
@@ -43,17 +43,17 @@ master_slave_db.slave_ds_1:
 
 ### Sharding-Proxy
 
-在ShardingSphere-Proxy 的`server.yaml`文件中新增以下配置:
+在 ShardingSphere-Proxy 的 `server.yaml` 文件中新增以下配置:
 ```
 cluster:
   heartbeat:
-    sql: select 1  # 心跳检测SQL
+    sql: select 1  # 心跳检测 SQL
     threadCount: 1 # 心跳检测线程池大小
     interval: 60   # 心跳检测任务间隔(s)
     retryEnable: false # 是否开启重试,开启后如果检测失败则进行重试直到达到最大重试次数
     retryMaximum: 3  # 最大重试次数,开启重试时生效
     retryInterval: 3 # 重试间隔(s),开启重试时生效
-proxy.cluster.enabled: false # 设置true开始心跳检测,false关闭心跳检测
+proxy.cluster.enabled: false # 设置 true 开始心跳检测,false 关闭心跳检测
 ```
 
-由于心跳检测结果需存储在注册中心,所以使用心跳检测功能需同时开启ShardingSphere[分布式治理](/cn/features/governance/management/)功能。
+由于心跳检测结果需存储在注册中心,所以使用心跳检测功能需同时开启 ShardingSphere [分布式治理](/cn/features/governance/management/)功能。
diff --git a/docs/document/content/features/governance/management/config-center.cn.md b/docs/document/content/features/governance/management/config-center.cn.md
index b554c32..1b23f6c 100644
--- a/docs/document/content/features/governance/management/config-center.cn.md
+++ b/docs/document/content/features/governance/management/config-center.cn.md
@@ -17,18 +17,18 @@ weight = 1
 config
     ├──authentication                            # 权限配置
     ├──props                                     # 属性配置
-    ├──schema                                    # Schema配置
-    ├      ├──schema_1                           # Schema名称1
+    ├──schema                                    # Schema 配置
+    ├      ├──schema_1                           # Schema 名称1
     ├      ├      ├──datasource                  # 数据源配置
     ├      ├      ├──rule                        # 规则配置
-    ├      ├──schema_2                           # Schema名称2
+    ├      ├──schema_2                           # Schema 名称2
     ├      ├      ├──datasource                  # 数据源配置
     ├      ├      ├──rule                        # 规则配置
 ```
 
 ### config/authentication
 
-权限配置,可配置访问ShardingSphere-Proxy的用户名和密码。
+权限配置,可配置访问 ShardingSphere-Proxy 的用户名和密码。
 
 ```yaml
 username: root
diff --git a/docs/document/content/features/governance/management/registry-center.cn.md b/docs/document/content/features/governance/management/registry-center.cn.md
index 0af20eb..c6e1c9d 100644
--- a/docs/document/content/features/governance/management/registry-center.cn.md
+++ b/docs/document/content/features/governance/management/registry-center.cn.md
@@ -40,7 +40,7 @@ datasources
 ### state/instances
 
 数据库访问对象运行实例信息,子节点是当前运行实例的标识。
-运行实例标识由运行服务器的IP地址和PID构成。运行实例标识均为临时节点,当实例上线时注册,下线时自动清理。
+运行实例标识由运行服务器的 IP 地址和 PID 构成。运行实例标识均为临时节点,当实例上线时注册,下线时自动清理。
 注册中心监控这些节点的变化来治理运行中实例对数据库的访问等。
 
 ### state/datasources
@@ -61,7 +61,7 @@ Zookeeper 命令如下:
 
 ### 禁用从库
 
-在读写分离场景下,可在数据源名称子节点中写入`DISABLED`(忽略大小写)表示禁用从库数据源,删除 `DISABLED` 或节点表示启用。
+在读写分离场景下,可在数据源名称子节点中写入 `DISABLED`(忽略大小写)表示禁用从库数据源,删除 `DISABLED` 或节点表示启用。
 
 Zookeeper 命令如下:
 
diff --git a/docs/document/content/features/governance/observability/metrics.cn.md b/docs/document/content/features/governance/observability/metrics.cn.md
index cb4d99c..6ce50f4 100644
--- a/docs/document/content/features/governance/observability/metrics.cn.md
+++ b/docs/document/content/features/governance/observability/metrics.cn.md
@@ -10,9 +10,9 @@ Apache ShardingSphere 旨在打造一款分布式数据库解决方案,而对
 
 ## 方案
 
-Apache ShardingSphere 遵循`Metrics`标准,定义了一套可插拔的`SPI` 标准,它并不存储,收集,展现 `Metrics`信息,
-只是负责在程序中对`Metrics` 进行埋点,目前默认的实现方案为:`Prometheus` 客户端API埋点,服务端通过
-`http` 协议来定时抓取`Metrics`数据。
+Apache ShardingSphere 遵循 `Metrics` 标准,定义了一套可插拔的 `SPI` 标准,它并不存储,收集,展现 `Metrics` 信息,
+只是负责在程序中对 `Metrics` 进行埋点,目前默认的实现方案为: `Prometheus` 客户端API埋点,服务端通过 
+`http` 协议来定时抓取 `Metrics` 数据。
 
 ![流程图](https://shardingsphere.apache.org/document/current/img/control-panel/metrics/metrics.png)
 
@@ -30,26 +30,26 @@ Apache ShardingSphere 遵循`Metrics`标准,定义了一套可插拔的`SPI` 
  
  |名称                       | 类型                  |标签名称       | 说明                  |
  |:------------------------ |:--------------------- |:-------------|:-------------------- |
- |request_total             |Counter                | 无           |收集ShardingSphere所有的请求 |
- |sql_statement_count       |Counter                | sql_type     |收集执行的SQL类型,比如 (SELECT,UPDATE,INSERT...)| 
- |channel_count             |Gauge                  | 无           |收集ShardingSphere-Proxy的连接数               | 
+ |request_total             |Counter                | 无           |收集 ShardingSphere 所有的请求 |
+ |sql_statement_count       |Counter                | sql_type     |收集执行的 SQL 类型,比如 (SELECT,UPDATE,INSERT...)| 
+ |channel_count             |Gauge                  | 无           |收集 ShardingSphere-Proxy 的连接数               | 
  |requests_latency_histogram_millis |Histogram      | 无            |收集执行所有请求的迟延时间(单位:ms)              | 
- |sharding_datasource       |Counter                | datasource   |收集执行SQL语句命中的分库                       | 
- |sharding_table            |Counter                | table        |收集执行SQL语句命中的分表                       | 
+ |sharding_datasource       |Counter                | datasource   |收集执行 SQL 语句命中的分库                       | 
+ |sharding_table            |Counter                | table        |收集执行 SQL 语句命中的分表                       | 
  |transaction               |Counter                | status       |收集所有的事务数量                              | 
 
 ## 使用
-在ShardingSphere-Proxy 的server.yaml文件中新增以下配置:
+在 ShardingSphere-Proxy 的 server.yaml 文件中新增以下配置:
 
 ```yaml
 metrics:
-   name: prometheus # 指定类型为prometheus.
-   host:  127.0.0.1 # 指定host,如果为空,则获取默认
-   port:  9190  # 指定prometheus服务端抓取metrics端口
-   enable : true # 配置为true代表开启,设置为false代表关闭 ,此字段不配置时候,默认开启.
+   name: prometheus # 指定类型为 prometheus.
+   host:  127.0.0.1 # 指定 host,如果为空,则获取默认
+   port:  9190  # 指定 prometheus 服务端抓取 metrics 端口
+   enable : true # 配置为 true 代表开启,设置为 false 代表关闭 ,此字段不配置时候,默认开启.
 ```
 
-用户自己搭建`Prometheus` 服务,在 prometheus.yml 文件中新增如下配置:
+用户自己搭建 `Prometheus` 服务,在 prometheus.yml 文件中新增如下配置:
 
 ```yaml
 scrape_configs: