You are viewing a plain text version of this content. The canonical link for it is here.
Posted to commits@doris.apache.org by mo...@apache.org on 2022/05/27 13:57:12 UTC

[incubator-doris] branch master updated: [doc] website document update (#9776)

This is an automated email from the ASF dual-hosted git repository.

morningman pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/incubator-doris.git


The following commit(s) were added to refs/heads/master by this push:
     new 77de4869ed [doc] website document update (#9776)
77de4869ed is described below

commit 77de4869ed124026c9405cde7c685470beffac8c
Author: LOVEGISER <wa...@163.com>
AuthorDate: Fri May 27 21:57:06 2022 +0800

    [doc] website document update (#9776)
---
 docs/en/admin-manual/maint-monitor/disk-capacity.md             | 4 ++--
 docs/en/advanced/cache/partition-cache.md                       | 2 +-
 docs/en/ecosystem/logstash.md                                   | 2 +-
 docs/zh-CN/admin-manual/maint-monitor/disk-capacity.md          | 2 +-
 docs/zh-CN/advanced/cache/partition-cache.md                    | 5 +++--
 docs/zh-CN/advanced/materialized-view.md                        | 1 -
 docs/zh-CN/data-operate/import/import-scenes/jdbc-load.md       | 2 +-
 docs/zh-CN/data-operate/import/import-way/insert-into-manual.md | 4 ++--
 docs/zh-CN/data-operate/import/import-way/load-json-format.md   | 2 +-
 docs/zh-CN/design/doris_storage_optimization.md                 | 2 +-
 docs/zh-CN/ecosystem/logstash.md                                | 2 +-
 docs/zh-CN/faq/data-faq.md                                      | 2 +-
 12 files changed, 15 insertions(+), 15 deletions(-)

diff --git a/docs/en/admin-manual/maint-monitor/disk-capacity.md b/docs/en/admin-manual/maint-monitor/disk-capacity.md
index 710386928a..59412f846b 100644
--- a/docs/en/admin-manual/maint-monitor/disk-capacity.md
+++ b/docs/en/admin-manual/maint-monitor/disk-capacity.md
@@ -136,7 +136,7 @@ When the disk capacity is higher than High Watermark or even Flood Stage, many o
     * If the disk usage does not reach 90% of the **Flood Stage**, expired trash files and expired snapshot files will be cleaned up. At this time, some recent files will be retained without affecting the recovery of data. 
     * If the disk usage has reached 90% of the **Flood Stage**, **all trash files** and expired snapshot files will be cleaned up, **This will affect the operation of restoring data from the trash bin**.
 
-    The time interval for automatic execution can be changed by `max_garbage_sweep_interval` and `max_garbage_sweep_interval` in the configuration items. 
+    The time interval for automatic execution can be changed by `max_garbage_sweep_interval` and `min_garbage_sweep_interval` in the configuration items. 
 
     When the recovery fails due to lack of trash files, the following results may be returned: 
 
@@ -164,4 +164,4 @@ When the disk capacity is higher than High Watermark or even Flood Stage, many o
 
     * Delete tablet metadata (refer to [Tablet metadata management tool](./tablet-meta-tool.md))
 
-        ```./lib/meta_tool --operation=delete_header --root_path=/path/to/root_path --tablet_id=12345 --schema_hash= 352781111```
\ No newline at end of file
+        ```./lib/meta_tool --operation=delete_header --root_path=/path/to/root_path --tablet_id=12345 --schema_hash= 352781111```
diff --git a/docs/en/advanced/cache/partition-cache.md b/docs/en/advanced/cache/partition-cache.md
index 1f98ea86a5..c4d0bf0394 100644
--- a/docs/en/advanced/cache/partition-cache.md
+++ b/docs/en/advanced/cache/partition-cache.md
@@ -251,7 +251,7 @@ query_cache_elasticity_size_mb=128
 
 Calculation method:
 
-If 10K queries are cached, each query caches 1000 rows, each row is 128 bytes, distributed on 10 BEs, then each BE requires 128M memory (10K*1000*128/10).
+If 10000 queries are cached, each query caches 1000 rows, each row is 128 bytes, distributed on 10 BEs, then each BE requires about 128M memory (10000 * 1000 * 128/10).
 
 ## Unfinished Matters
 
diff --git a/docs/en/ecosystem/logstash.md b/docs/en/ecosystem/logstash.md
index 742aa102c2..d5dfe17a41 100644
--- a/docs/en/ecosystem/logstash.md
+++ b/docs/en/ecosystem/logstash.md
@@ -77,7 +77,7 @@ Connection configuration:
 
 Configuration | Explanation
 --- | ---
-`http_hosts` | FE's HTTP interactive address eg | ["http://fe1:8030", "http://fe2:8030"]
+`http_hosts` | FE's HTTP interactive address eg : ["http://fe1:8030", "http://fe2:8030"]
 `user` | User name, the user needs to have import permission for the doris table
 `password` | Password
 `db` | Database name
diff --git a/docs/zh-CN/admin-manual/maint-monitor/disk-capacity.md b/docs/zh-CN/admin-manual/maint-monitor/disk-capacity.md
index 4b78898e8f..e83ec4592d 100644
--- a/docs/zh-CN/admin-manual/maint-monitor/disk-capacity.md
+++ b/docs/zh-CN/admin-manual/maint-monitor/disk-capacity.md
@@ -132,7 +132,7 @@ capacity_min_left_bytes_flood_stage 默认 1GB。
   如果不手动执行`ADMIN CLEAN TRASH`,系统仍将会在几分钟至几十分钟内自动执行清理,这里分为两种情况:
 
   - 如果磁盘占用未达到 **危险水位(Flood Stage)** 的90%,则会清理过期trash文件和过期snapshot文件,此时会保留一些近期文件而不影响恢复数据。
-  - 如果磁盘占用已达到 **危险水位(Flood Stage)** 的90%,则会清理 **所有** trash文件和过期snapshot文件, **此时会影响从回收站恢复数据的操作** 。 自动执行的时间间隔可以通过配置项中的`max_garbage_sweep_interval`和`max_garbage_sweep_interval`更改。
+  - 如果磁盘占用已达到 **危险水位(Flood Stage)** 的90%,则会清理 **所有** trash文件和过期snapshot文件, **此时会影响从回收站恢复数据的操作** 。 自动执行的时间间隔可以通过配置项中的`max_garbage_sweep_interval`和`min_garbage_sweep_interval`更改。
 
   出现由于缺少trash文件而导致恢复失败的情况时,可能返回如下结果:
 
diff --git a/docs/zh-CN/advanced/cache/partition-cache.md b/docs/zh-CN/advanced/cache/partition-cache.md
index b4a1c47dc5..1871b312af 100644
--- a/docs/zh-CN/advanced/cache/partition-cache.md
+++ b/docs/zh-CN/advanced/cache/partition-cache.md
@@ -251,10 +251,11 @@ query_cache_elasticity_size_mb=128
 
 计算方法:
 
-假如缓存10K个Query,每个Query缓存1000行,每行是128个字节,分布在10台BE上,则每个BE需要128M内存(10K*1000*128/10)。
+假如缓存10000个Query,每个Query缓存1000行,每行是128个字节,分布在10台BE上,则每个BE需要约128M内存
+(10000 * 1000 * 128/10)。
 
 ## 未尽事项
 
 - T+1的数据,是否也可以用Partition缓存? 目前不支持
 - 类似的SQL,之前查询了2个指标,现在查询3个指标,是否可以利用2个指标的缓存? 目前不支持
-- 按日期分区,但是需要按周维度汇总数据,是否可用PartitionCache? 目前不支持
\ No newline at end of file
+- 按日期分区,但是需要按周维度汇总数据,是否可用PartitionCache? 目前不支持
diff --git a/docs/zh-CN/advanced/materialized-view.md b/docs/zh-CN/advanced/materialized-view.md
index 355b3c8383..80b1871e16 100644
--- a/docs/zh-CN/advanced/materialized-view.md
+++ b/docs/zh-CN/advanced/materialized-view.md
@@ -162,7 +162,6 @@ MySQL [test]> desc mv_test all;
 
 **首先是第一步:创建物化视图**
 
-假设用户有一张销售记录明细表,存储了每个交易的交易id,销售员,售卖门店,销售时间,以及金额。建表语句为:
 
 假设用户有一张销售记录明细表,存储了每个交易的交易id,销售员,售卖门店,销售时间,以及金额。建表语句为:
 
diff --git a/docs/zh-CN/data-operate/import/import-scenes/jdbc-load.md b/docs/zh-CN/data-operate/import/import-scenes/jdbc-load.md
index 8aa52fcbba..0dd586e030 100644
--- a/docs/zh-CN/data-operate/import/import-scenes/jdbc-load.md
+++ b/docs/zh-CN/data-operate/import/import-scenes/jdbc-load.md
@@ -47,7 +47,7 @@ INSERT INTO example_tbl (col1, col2, col3) VALUES (1000, "test", 3.25);
 
 对于 Doris 来说,一个 INSERT 命令就是一个完整的导入事务。
 
-因此不论是导入一条数据,还是多条数据,我们都不建议在生产环境使用这种方式进行数据导入。高频词的 INSERT 操作会导致在存储层产生大量的小文件,会严重影响系统性能。
+因此不论是导入一条数据,还是多条数据,我们都不建议在生产环境使用这种方式进行数据导入。高频次的 INSERT 操作会导致在存储层产生大量的小文件,会严重影响系统性能。
 
 该方式仅用于线下简单测试或低频少量的操作。
 
diff --git a/docs/zh-CN/data-operate/import/import-way/insert-into-manual.md b/docs/zh-CN/data-operate/import/import-way/insert-into-manual.md
index dae32aa340..5a42074327 100644
--- a/docs/zh-CN/data-operate/import/import-way/insert-into-manual.md
+++ b/docs/zh-CN/data-operate/import/import-way/insert-into-manual.md
@@ -185,9 +185,9 @@ TransactionStatus: VISIBLE
 
   导入任务的超时时间(以秒为单位),导入任务在设定的 timeout 时间内未完成则会被系统取消,变成 CANCELLED。
 
-  目前 Insert Into 并不支持自定义导入的 timeout 时间,所有 Insert Into 导入的超时时间是统一的,默认的 timeout 时间为1小时。如果导入的源文件无法再规定时间内完成导入,则需要调整 FE 的参数```insert_load_default_timeout_second```。
+  目前 Insert Into 并不支持自定义导入的 timeout 时间,所有 Insert Into 导入的超时时间是统一的,默认的 timeout 时间为1小时。如果导入的源文件无法在规定时间内完成导入,则需要调整 FE 的参数```insert_load_default_timeout_second```。
 
-  同时 Insert Into 语句收到 Session 变量 `query_timeout` 的限制。可以通过 `SET query_timeout = xxx;` 来增加超时时间,单位是秒。
+  同时 Insert Into 语句受到 Session 变量 `query_timeout` 的限制。可以通过 `SET query_timeout = xxx;` 来增加超时时间,单位是秒。
 
 ### Session 变量
 
diff --git a/docs/zh-CN/data-operate/import/import-way/load-json-format.md b/docs/zh-CN/data-operate/import/import-way/load-json-format.md
index 5c3d285f30..97a4ebf99c 100644
--- a/docs/zh-CN/data-operate/import/import-way/load-json-format.md
+++ b/docs/zh-CN/data-operate/import/import-way/load-json-format.md
@@ -39,7 +39,7 @@ Doris 支持导入 JSON 格式的数据。本文档主要说明在进行JSON格
 
 ## 支持的 Json 格式
 
-当前前仅支持以下两种 Json 格式:
+当前仅支持以下两种 Json 格式:
 
 1. 以 Array 表示的多行数据
 
diff --git a/docs/zh-CN/design/doris_storage_optimization.md b/docs/zh-CN/design/doris_storage_optimization.md
index f2816494e1..6e51eab8a5 100644
--- a/docs/zh-CN/design/doris_storage_optimization.md
+++ b/docs/zh-CN/design/doris_storage_optimization.md
@@ -187,7 +187,7 @@ message SegmentFooterPB {
 大体的写入流程如下:
 1. 写入magic
 2. 根据schema信息,生成对应的ColumnWriter,每个ColumnWriter按照不同的类型,获取对应的encoding信息(可配置),根据encoding,生成对应的encoder
-3. 调用encoder->add(value)进行数据写入,每个K行,生成一个short key index entry,并且,如果当前的page满足一定条件(大小超过1M或者行数为K),就生成一个新的page,缓存在内存中。
+3. 调用encoder->add(value)进行数据写入,每隔K行,生成一个short key index entry,并且,如果当前的page满足一定条件(大小超过1M或者行数为K),就生成一个新的page,缓存在内存中。
 4. 不断的循环步骤3,直到数据写入完成。将各个列的数据依序刷入文件中
 5. 生成FileFooterPB信息,写入文件中。
 
diff --git a/docs/zh-CN/ecosystem/logstash.md b/docs/zh-CN/ecosystem/logstash.md
index aeb95e3cfd..bb16bc4084 100644
--- a/docs/zh-CN/ecosystem/logstash.md
+++ b/docs/zh-CN/ecosystem/logstash.md
@@ -77,7 +77,7 @@ copy logstash-output-doris-{version}.gem 到 logstash 安装目录下
 
 配置 | 说明
 --- | ---
-`http_hosts` | FE的HTTP交互地址 eg | ["http://fe1:8030", "http://fe2:8030"]
+`http_hosts` | FE的HTTP交互地址。 例如:  ["http://fe1:8030", "http://fe2:8030"]
 `user` | 用户名,该用户需要有doris对应库表的导入权限
 `password` | 密码
 `db` | 数据库名
diff --git a/docs/zh-CN/faq/data-faq.md b/docs/zh-CN/faq/data-faq.md
index e3f4ee3b8b..81d8e6f6ad 100644
--- a/docs/zh-CN/faq/data-faq.md
+++ b/docs/zh-CN/faq/data-faq.md
@@ -32,7 +32,7 @@ under the License.
 
 当 stream load 的连接目标为FE的http端口时,FE仅会随机选择一台BE节点做http 307 redirect 操作,因此用户的请求实际是发送给FE指派的某一个BE的。而redirect返回的是BE的ip,也即内网IP。所以如果你是通过FE的公网IP发送的请求,很有可能因为redirect到内网地址而无法连接。
 
-通常的做法,一种是确保自己能够访问内网IP地址,或者是给所有BE上层假设一个负载均衡,然后直接将 stream load 请求发送到负载均衡器上,由负载均衡将请求透传到BE节点。
+通常的做法,一种是确保自己能够访问内网IP地址,或者是给所有BE上层架设一个负载均衡,然后直接将 stream load 请求发送到负载均衡器上,由负载均衡将请求透传到BE节点。
 
 ### Q2. Doris 是否支持修改列名?
 


---------------------------------------------------------------------
To unsubscribe, e-mail: commits-unsubscribe@doris.apache.org
For additional commands, e-mail: commits-help@doris.apache.org