You are viewing a plain text version of this content. The canonical link for it is here.
Posted to notifications@shardingsphere.apache.org by zh...@apache.org on 2020/07/08 11:19:07 UTC

[shardingsphere-elasticjob-lite] branch master updated: Add todo for english doc (#993)

This is an automated email from the ASF dual-hosted git repository.

zhangliang pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/shardingsphere-elasticjob-lite.git


The following commit(s) were added to refs/heads/master by this push:
     new 820ac1c  Add todo for english doc (#993)
820ac1c is described below

commit 820ac1c19374a2ae15145daee63fabbc8e1b9630
Author: Liang Zhang <te...@163.com>
AuthorDate: Wed Jul 8 19:18:58 2020 +0800

    Add todo for english doc (#993)
---
 docs/content/blog/_index.en.md                     |  16 +-
 docs/content/dev-manual/_index.cn.md               |   4 +-
 docs/content/dev-manual/_index.en.md               |   3 +-
 docs/content/dev-manual/lite-design.en.md          |  71 +------
 docs/content/faq/_index.en.md                      | 108 +----------
 docs/content/features/elastic.en.md                |  39 +---
 docs/content/powered-by/_index.en.md               |  83 +-------
 docs/content/quick-start/_index.en.md              | 112 +----------
 docs/content/user-manual/_index.cn.md              |  12 +-
 docs/content/user-manual/customized-hook.cn.md     |   2 +-
 docs/content/user-manual/customized-hook.en.md     |  10 -
 docs/content/user-manual/deploy-guide.cn.md        |  14 +-
 docs/content/user-manual/deploy-guide.en.md        |  16 +-
 docs/content/user-manual/dump.cn.md                |  19 +-
 docs/content/user-manual/dump.en.md                |  72 +------
 docs/content/user-manual/event-trace.cn.md         |  73 +++----
 docs/content/user-manual/event-trace.en.md         |  65 +------
 docs/content/user-manual/execution-monitor.cn.md   |   4 +-
 docs/content/user-manual/execution-monitor.en.md   |   6 +-
 docs/content/user-manual/job-api.en.md             | 213 +--------------------
 docs/content/user-manual/job-config.en.md          | 133 +------------
 docs/content/user-manual/job-listener.en.md        |  98 +---------
 docs/content/user-manual/job-reconcile.en.md       |  41 +---
 .../user-manual/job-sharding-strategy.cn.md        |   1 -
 .../user-manual/job-sharding-strategy.en.md        |  64 +------
 docs/content/user-manual/operation-manual.en.md    | 110 +----------
 docs/content/user-manual/web-console.en.md         |  33 +---
 27 files changed, 83 insertions(+), 1339 deletions(-)

diff --git a/docs/content/blog/_index.en.md b/docs/content/blog/_index.en.md
index 4cf9986..02b2a5c 100644
--- a/docs/content/blog/_index.en.md
+++ b/docs/content/blog/_index.en.md
@@ -5,18 +5,4 @@ weight = 8
 chapter = true
 +++
 
-* 2020-05 [官微快讯:The distributed scheduling project ElasticJob is about to restart](https://mp.weixin.qq.com/s/XJFj_vOj3bR6HRQUzy1ikg)
-
-* 2017-09 [Mesosphere新闻:Q&A with Zhang Liang of Dangdang: the biggest book seller in China](https://mesosphere.com/blog/qa-dangdang-book-seller-china/?from=timeline&isappinstalled=0)
-
-* 2017-04 [InfoQ新闻:分布式调度中间件Elastic-Job 2.1.0发布:Cloud Native里程碑版本](http://www.infoq.com/cn/news/2017/04/Elastic-Job-2.1.0)
-
-* 2017-03 [源码分析:Elastic-Job项目源码分析系列](http://blog.csdn.net/spy19881201/article/category/6784965)
-
-* 2015-12 [InfoQ文章:详解当当网的分布式作业框架elastic-job](http://www.infoq.com/cn/articles/dangdang-distributed-work-framework-elastic-job)
-
-* 2015-11 [高可用架构群分享:新一代分布式任务调度框架,elastic-job开源项目的10项特性](http://mp.weixin.qq.com/s?__biz=MzAwMDU1MTE1OQ==&mid=401047377&idx=1&sn=2a88e5b10d80e2b8bee289abd2fe4bd1&scene=23&srcid=1105c4GbpUGl6I6PyvRsRWxJ#rd)
-
-* 2015-11 [CSDN专访:深度解读分布式作业调度框架elastic-job](http://www.csdn.net/article/2015-11-23/2826304)
-
-* 2015-09 [InfoQ新闻:当当开源elastic-job,分布式作业调度框架](http://www.infoq.com/cn/news/2015/09/dangdang-elastic-job)
+TODO
diff --git a/docs/content/dev-manual/_index.cn.md b/docs/content/dev-manual/_index.cn.md
index 226962f..dd658b2 100644
--- a/docs/content/dev-manual/_index.cn.md
+++ b/docs/content/dev-manual/_index.cn.md
@@ -7,5 +7,5 @@ chapter = true
 
 # 本章导航
 
- - 想了解架构设计及项目模块设计的概念,请阅读[实现原理](/dev-manual/lite-design/)及[目录结构说明](/dev-manual/module/)。
- - Elastic-Job未来规划有哪些呢?请阅读[未来规划](/dev-manual/roadmap/)。
+ - 想了解架构设计及项目模块设计的概念,请阅读[实现原理](/cn/dev-manual/lite-design/)。
+ - ElasticJob 未来规划有哪些呢?请阅读[未来规划](/cn/dev-manual/roadmap/)。
diff --git a/docs/content/dev-manual/_index.en.md b/docs/content/dev-manual/_index.en.md
index 6a98760..36f5dff 100644
--- a/docs/content/dev-manual/_index.en.md
+++ b/docs/content/dev-manual/_index.en.md
@@ -7,5 +7,4 @@ chapter = true
 
 # 本章导航
 
- - 想了解架构设计及项目模块设计的概念,请阅读[实现原理](/dev-manual/lite-design/)及[目录结构说明](/dev-manual/module/)。
- - Elastic-Job未来规划有哪些呢?请阅读[未来规划](/dev-manual/roadmap/)。
+ TODO
diff --git a/docs/content/dev-manual/lite-design.en.md b/docs/content/dev-manual/lite-design.en.md
index 7344db7..3e892c4 100644
--- a/docs/content/dev-manual/lite-design.en.md
+++ b/docs/content/dev-manual/lite-design.en.md
@@ -5,73 +5,4 @@ weight = 1
 chapter = true
 +++
 
-## 弹性分布式实现
-
-* 第一台服务器上线触发主服务器选举。主服务器一旦下线,则重新触发选举,选举过程中阻塞,只有主服务器选举完成,才会执行其他任务。
-
-* 某作业服务器上线时会自动将服务器信息注册到注册中心,下线时会自动更新服务器状态。
-
-* 主节点选举,服务器上下线,分片总数变更均更新重新分片标记。
-
-* 定时任务触发时,如需重新分片,则通过主服务器分片,分片过程中阻塞,分片结束后才可执行任务。如分片过程中主服务器下线,则先选举主服务器,再分片。
-
-* 通过上一项说明可知,为了维持作业运行时的稳定性,运行过程中只会标记分片状态,不会重新分片。分片仅可能发生在下次任务触发前。
-
-* 每次分片都会按服务器IP排序,保证分片结果不会产生较大波动。
-
-* 实现失效转移功能,在某台服务器执行完毕后主动抓取未分配的分片,并且在某台服务器下线后主动寻找可用的服务器执行任务。
-
-## 注册中心数据结构
-
-注册中心在定义的命名空间下,创建作业名称节点,用于区分不同作业,所以作业一旦创建则不能修改作业名称,如果修改名称将视为新的作业。作业名称节点下又包含4个数据子节点,分别是config, instances, sharding, servers和leader。
-
-### config节点
-
-作业配置信息,以JSON格式存储
-
-### instances节点
-
-作业运行实例信息,子节点是当前作业运行实例的主键。作业运行实例主键由作业运行服务器的IP地址和PID构成。作业运行实例主键均为临时节点,当作业实例上线时注册,下线时自动清理。注册中心监控这些节点的变化来协调分布式作业的分片以及高可用。
-可在作业运行实例节点写入TRIGGER表示该实例立即执行一次。
-
-### sharding节点
-
-作业分片信息,子节点是分片项序号,从零开始,至分片总数减一。分片项序号的子节点存储详细信息。每个分片项下的子节点用于控制和记录分片运行状态。节点详细信息说明:
-
-| 子节点名                          | 临时节点 | 描述                                                                        |
-| -------------------------------- |:--------|:----------------------------------------------------------------------------|
-| instance                         | 否      | 执行该分片项的作业运行实例主键                                                  |
-| running                          | 是      | 分片项正在运行的状态<br />仅配置monitorExecution时有效                          |
-| failover                         | 是      | 如果该分片项被失效转移分配给其他作业服务器,则此节点值记录执行此分片的作业服务器IP     |
-| misfire                          | 否      | 是否开启错过任务重新执行                                                       |
-| disabled                         | 否      | 是否禁用此分片项                                                              |
-
-### servers节点
-
-作业服务器信息,子节点是作业服务器的IP地址。可在IP地址节点写入DISABLED表示该服务器禁用。
-在新的cloud native架构下,servers节点大幅弱化,仅包含控制服务器是否可以禁用这一功能。为了更加纯粹的实现job核心,servers功能未来可能删除,控制服务器是否禁用的能力应该下放至自动化部署系统。
-
-### leader节点
-
-作业服务器主节点信息,分为election,sharding和failover三个子节点。分别用于主节点选举,分片和失效转移处理。
-
-leader节点是内部使用的节点,如果对作业框架原理不感兴趣,可不关注此节点。
-
-| 子节点名                          | 临时节点 | 描述                                                                        |
-| -------------------------------- |:--------|:----------------------------------------------------------------------------|
-| election\instance                | 是    | 主节点服务器IP地址<br />一旦该节点被删除将会触发重新选举<br />重新选举的过程中一切主节点相关的操作都将阻塞   |
-| election\latch                   | 否      | 主节点选举的分布式锁<br />为curator的分布式锁使用 |
-| sharding\necessary               | 否      | 是否需要重新分片的标记<br />如果分片总数变化,或作业服务器节点上下线或启用/禁用,以及主节点选举,会触发设置重分片标记<br />作业在下次执行时使用主节点重新分片,且中间不会被打断<br />作业执行时不会触发分片|
-| sharding\processing              | 是    | 主节点在分片时持有的节点<br />如果有此节点,所有的作业执行都将阻塞,直至分片结束<br />主节点分片结束或主节点崩溃会删除此临时节点 |
-| failover\items\分片项             | 否      | 一旦有作业崩溃,则会向此节点记录<br />当有空闲作业服务器时,会从此节点抓取需失效转移的作业项 |
-| failover\items\latch             | 否      | 分配失效转移分片项时占用的分布式锁<br />为curator的分布式锁使用                    |
-
-## 流程图
-
-### 作业启动
-
-![作业启动](https://shardingsphere.apache.org/elasticjob/lite/img/principles/job_start.jpg)
-
-### 作业执行
-
-![作业执行](https://shardingsphere.apache.org/elasticjob/lite/img/principles/job_exec.jpg)
+TODO
\ No newline at end of file
diff --git a/docs/content/faq/_index.en.md b/docs/content/faq/_index.en.md
index 30add21..1fb203a 100644
--- a/docs/content/faq/_index.en.md
+++ b/docs/content/faq/_index.en.md
@@ -5,110 +5,4 @@ weight = 7
 chapter = true
 +++
 
-### 1. 阅读源码时为什么会出现编译错误?
-
-回答:
-
-Elastic-Job使用lombok实现极简代码。关于更多使用和安装细节,请参考[lombok官网](https://projectlombok.org/download.html)。
-
-***
-
-### 2. 为什么在代码或Spring配置文件中修改了作业配置,注册中心配置却没有更新?
-
-回答:
-
-Elastic-Job-Lite采用无中心化设计,若每个客户端的配置不一致,不做控制的话,最后一个启动的客户端配置将会成为注册中心的最终配置。
-
-Elastic-Job-Lite提出了overwrite概念,可通过JobConfiguration或Spring命名空间配置。overwrite=true即允许客户端配置覆盖注册中心,反之则不允许。如果注册中心无相关作业的配置,则无论overwrite是否配置,客户端配置都将写入注册中心。
-
-***
-
-### 3. 怀疑Elastic-Job-Lite在分布式环境中有问题,但无法重现又不能在线上环境调试,应该怎么做?
-
-回答:
-
-分布式问题非常难于调试和重现,为此Elastic-Job-Lite提供了dump命令。
-
-如果您怀疑某些场景出现问题,可参照[dump文档](/02-guide/dump/)将作业运行时信息发给我们、提交issue或发至QQ群讨论。我们已将IP等敏感信息过滤,dump出来的信息可在公网安全传输。
-
-***
-
-### 4. Elastic-Job有何使用限制?
-
-回答:
-
-* 作业启动成功后修改作业名称视为新作业,原作业废弃。
-
-* 同一台作业服务器可以运行多个相同的作业实例,但每个作业实例必须使用不同的JobInstanceId,因为作业运行时是按照IP和JobInstanceId注册和管理的。JobInstanceId可在作业配置中设置。
-
-* 一旦有服务器波动,或者修改分片项,将会触发重新分片;触发重新分片将会导致运行中的流式处理的作业在执行完本次作业后不再继续执行,等待分片结束后再恢复正常。
-
-* 开启monitorExecution才能实现分布式作业幂等性(即不会在多个作业服务器运行同一个分片)的功能,但monitorExecution对短时间内执行的作业(如每5秒一触发)性能影响较大,建议关闭并自行实现幂等性。
-
-***
-
-### 5. 是否支持动态添加作业?
-
-回答:
-
-动态添加作业这个概念每个人理解不尽相同。
-
-elastic-job-lite为jar包,由开发或运维人员负责启动。启动时自动向注册中心注册作业信息并进行分布式协调,因此并不需要手工在注册中心填写作业信息。
-但注册中心与作业部署机无从属关系,注册中心并不能控制将单点的作业分发至其他作业机,也无法将远程服务器未启动的作业启动。elastic-job-lite并不会包含ssh免密管理等功能。
-
-elastic-job-cloud为mesos框架,由mesos负责作业启动和分发。
-但需要将作业打包上传,并调用elastic-job-cloud提供的REST API写入注册中心。
-打包上传属于部署系统的范畴elastic-job-cloud并未涉及。
-
-综上所述,elastic-job已做了基本动态添加功能,但无法做到真正意义的完全自动化添加。
-
-***
-
-### 6. 使用Spring版本有何限制?
-
-回答:
-
-Elastic-Job的Spring版本支持从3.1.0.RELEASE至4的任何版本。Spring 5由于仅支持JDK 8及其以上版本,因此目前并不支持。Spring 3.1.0之前的版本对占位符的使用与目前不同,因此不再支持。Elastic-Job并未包含Spring的maven依赖,请自行添加您需要的版本。
-
-***
-
-### 7. Zookeeper版本不是3.4.6会有什么问题?
-
-回答:
-
-根据测试,使用3.3.6版本的Zookeeper在使用Curator 2.10.0的CuratorTransactionFinal的commit时会导致死锁。
-
-***
-
-### 8. Elastic-Job 2.0.5及之前版本的作业暂停(Pause)与作业失效(Disable)的区别是什么?
-
-回答:
-
-作业暂停和失效都会停止当前节点作业的运行。但作业暂停和恢复不会触发重分片,而作业失效和生效将触发重分片。
-
-***
-
-### 9. Elastic-Job 2.1.0版本支持单节点运行多个相同的作业实例,是否兼容原来的数据结构?
-
-回答:
-
-是的。新Elastic-Job Lite的数据结构和原有结构完全兼容。
-
-### 10. 界面Console无法正常显示?
-
-回答:
-
-使用Web Console时应确保与Elastic-Job相关jar包版本保持一致,否则会导致不可用。
-
-### 11. 作业与注册中心无法通信会如何?
-
-回答:
-
-为了保证作业的在分布式场景下的一致性,一旦作业与注册中心无法通信,运行中的作业会立刻停止执行,但作业的进程不会退出,这样做的目的是为了防止作业重分片时,将与注册中心失去联系的节点执行的分片分配给另外节点,导致同一分片在两个节点中同时执行。
-当作业节点恢复与注册中心联系时,将重新参与分片并恢复执行新的分配到的分片。
-
-### 12. 为什么界面Console中的作业状态是分片待调整?
-
-回答:
-
-分片待调整表示作业已启动但尚未获得分片时的状态。
+TODO
diff --git a/docs/content/features/elastic.en.md b/docs/content/features/elastic.en.md
index 4c9a4de..17cdaac 100644
--- a/docs/content/features/elastic.en.md
+++ b/docs/content/features/elastic.en.md
@@ -5,41 +5,4 @@ weight = 1
 chapter = true
 +++
 
-## 分片
-
-任务的分布式执行,需要将一个任务拆分为多个独立的任务项,然后由分布式的服务器分别执行某一个或几个分片项。
-
-例如:有一个遍历数据库某张表的作业,现有 2 台服务器。为了快速的执行作业,那么每台服务器应执行作业的 50%。
-为满足此需求,可将作业分成 2 片,每台服务器执行 1 片。作业遍历数据的逻辑应为:服务器 A 遍历 ID 以奇数结尾的数据;服务器 B 遍历 ID 以偶数结尾的数据。
-如果分成 10 片,则作业遍历数据的逻辑应为:每片分到的分片项应为 ID % 10,而服务器A被分配到分片项 0,1,2,3,4;服务器B被分配到分片项 5,6,7,8,9,直接的结果就是服务器A遍历 ID 以 0-4 结尾的数据;服务器 B 遍历 ID 以 5-9 结尾的数据。
-
-### 分片项与业务处理解耦
-
-Elastic-Job 并不直接提供数据处理的功能,框架只会将分片项分配至各个运行中的作业服务器,开发者需要自行处理分片项与真实数据的对应关系。
-
-### 个性化参数
-
-个性化参数即 shardingItemParameter,可以和分片项匹配对应关系,用于将分片项的数字转换为更加可读的业务代码。
-
-例如:按照地区水平拆分数据库,数据库A是北京的数据;数据库 B 是上海的数据;数据库 C 是广州的数据。
-如果仅按照分片项配置,开发者需要了解 0 表示北京;1 表示上海;2 表示广州。
-合理使用个性化参数可以让代码更可读,如果配置为 0=北京,1=上海,2=广州,那么代码中直接使用北京,上海,广州的枚举值即可完成分片项和业务逻辑的对应关系。
-
-## 分布式调度
-
-ElasticJob Lite 并无作业调度中心节点,而是基于部署作业框架的程序在到达相应时间点时各自触发调度。
-
-注册中心仅用于作业注册和监控信息存储。而主作业节点仅用于处理分片和清理等功能。
-
-## 高可用
-
-ElasticJob Lite 提供最安全的方式执行作业。将分片总数设置为 1,并使用多于 1 台的服务器执行作业,作业将会以 1 主 n 从的方式执行。
-
-一旦执行作业的服务器崩溃,等待执行的服务器将会在下次作业启动时替补执行。开启失效转移功能效果更好,可以保证在本次作业执行时崩溃,备机立即启动替补执行。
-
-## 最大限度利用资源
-
-ElasticJob Lite 也提供最灵活的方式,最大限度的提高执行作业的吞吐量。将分片项设置为大于服务器的数量,最好是大于服务器倍数的数量,作业将会合理的利用分布式资源,动态的分配分片项。
-
-例如:3 台服务器,分成 10 片,则分片项分配结果为服务器 A=0,1,2;服务器 B=3,4,5;服务器 C=6,7,8,9。
-如果服务器 C 崩溃,则分片项分配结果为服务器 A=0,1,2,3,4;服务器 B=5,6,7,8,9。在不丢失分片项的情况下,最大限度的利用现有资源提高吞吐量。
+TODO
diff --git a/docs/content/powered-by/_index.en.md b/docs/content/powered-by/_index.en.md
index 72fa800..4372bab 100644
--- a/docs/content/powered-by/_index.en.md
+++ b/docs/content/powered-by/_index.en.md
@@ -5,85 +5,4 @@ weight = 6
 chapter = true
 +++
 
-## 登记
-
-欢迎采用了 ElasticJob 的公司在此登记,您的支持是我们最大的动力。
-
-请按`公司名` + `首页` + `应用案例(可选)` 的格式在[此处](https://github.com/apache/shardingsphere-elasticjob-lite/issues/254)登记。
-
-## 谁在使用 ElasticJob?
-
-采用公司列表按登记时间展示。
-
-1. <a href="http://www.dangdang.com/" rel="nofollow">当当</a>
-1. <a href="http://www.ziroom.com/" rel="nofollow">自如网</a>
-1. <a href="https://www.joyowo.com/" rel="nofollow">金柚网</a>
-1. <a href="http://www.yaolaivip.com/" rel="nofollow">耀莱在线</a>
-1. <a href="https://www.laocaibao.com/" rel="nofollow">捞财宝</a>
-1. <a href="http://www.xiu.com/" rel="nofollow">走秀网</a>
-1. <a href="http://www.b5cai.com/" rel="nofollow">帮5采</a>
-1. <a href="https://auto.ifeng.com/" rel="nofollow">凤凰汽车</a>
-1. <a href="https://www.01zhuanche.com/" rel="nofollow">首汽约车</a>
-1. <a href="https://www.chunbo.com/" rel="nofollow">春播</a>
-1. <a href="http://www.yunyichina.cn/" rel="nofollow">云医科技</a>
-1. <a href="https://www.treebear.cn/" rel="nofollow">树熊网络</a>
-1. <a href="http://www.yto.net.cn/" rel="nofollow">圆通速递</a>
-1. <a href="http://www.duiba.com.cn" rel="nofollow">兑吧</a>
-1. <a href="https://www.ucommune.com/" rel="nofollow">优客工场</a>
-1. <a href="https://www.gizwits.com/" rel="nofollow">机智云</a>
-1. <a href="https://www.cnhnb.com/" rel="nofollow">惠农网</a>
-1. <a href="https://www.caocaokeji.cn/" rel="nofollow">曹操出行</a>
-1. <a href="https://www.ppdai.com/" rel="nofollow">拍拍贷</a>
-1. <a href="https://www.dazong.com/" rel="nofollow">飞马大宗</a>
-1. <a href="https://www.ysepay.com/" rel="nofollow">银盛支付</a>
-1. <a href="http://bj.fangjia.com/" rel="nofollow">房价网</a>
-1. <a href="https://cn.yeahmobi.com/" rel="nofollow">Yeahmobi</a>
-1. <a href="http://www.cig.com.cn/" rel="nofollow">新意互动</a>
-1. <a href="https://www.tuhu.cn/" rel="nofollow">途虎养车</a>
-1. <a href="http://www.3songshu.com/" rel="nofollow">三只松鼠</a>
-1. <a href="https://www.taoguba.com.cn/" rel="nofollow">淘股吧</a>
-1. <a href="http://www.bessky.cn/" rel="nofollow">宝视佳</a>
-1. <a href="https://thinkiot.lenovo.com/" rel="nofollow">联想懂的通信</a>
-1. <a href="https://www.yunyangtao.com/" rel="nofollow">洋桃跨境供应链</a>
-1. <a href="https://www.ibeiliao.com/" rel="nofollow">贝聊科技</a>
-1. <a href="https://www.120yibao.com/" rel="nofollow">壹宝健康</a>
-1. <a href="https://www.sytown.cn/" rel="nofollow">尚一健康</a>
-1. <a href="https://www.kaniu.com/" rel="nofollow">卡牛信用管家</a>
-1. <a href="http://www.haoyunhu56.com/" rel="nofollow">好运虎物流</a>
-1. <a href="http://www.dekuncn.com/" rel="nofollow">德坤物流</a>
-1. <a href="http://www.neoway.com/" rel="nofollow">有方科技</a>
-1. <a href="https://www.ultrapower.com.cn/" rel="nofollow">神州泰岳</a>
-1. <a href="https://www.hh.global/" rel="nofollow">健合集团</a>
-1. <a href="http://www.leimingtech.com/" rel="nofollow">雷铭科技</a>
-1. <a href="https://www.itrip.com/" rel="nofollow">iTrip爱去</a>
-1. <a href="https://www.oneplus.com/cn" rel="nofollow">一加科技</a>
-1. <a href="https://www.zhongan.com/" rel="nofollow">众安保险</a>
-1. <a href="http://www.iqihang.com/" rel="nofollow">爱启航</a>
-1. <a href="https://www.dg-mall.com/" rel="nofollow">点购集团</a>
-1. <a href="http://www.jiedaibao.com/" rel="nofollow">借贷宝</a>
-1. <a href="https://www.fanhaoyue.com/" rel="nofollow">饭好约</a>
-1. <a href="http://www.jchl.com/" rel="nofollow">金财互联</a>
-1. <a href="https://www.jinhui365.com/" rel="nofollow">金汇金融</a>
-1. <a href="https://www.zyzc8.com/" rel="nofollow">众畅网络科技</a>
-1. <a href="https://www.maihaoche.com/" rel="nofollow">卖好车</a>
-1. <a href="https://g.10086.cn/" rel="nofollow">咪咕互娱</a>
-1. <a href="http://www.deepdraw.cn/" rel="nofollow">深绘智能</a>
-1. <a href="http://www.gdyuanpeng.com/" rel="nofollow">沅朋物联</a>
-1. <a href="https://nexposter.com/" rel="nofollow">晶泓科技</a>
-1. <a href="https://www.lianlianpay.com/" rel="nofollow">连连支付</a>
-1. <a href="https://www.haizol.com/" rel="nofollow">海智在线</a>
-1. <a href="http://www.yunjiacloud.com/" rel="nofollow">云嘉云计算</a>
-1. <a href="https://www.g7.com.cn/" rel="nofollow">汇通天下</a>
-1. <a href="https://www.meizu.com/" rel="nofollow">魅族</a>
-1. <a href="http://www.juneyaoair.com/" rel="nofollow">吉祥航空</a>
-1. <a href="http://www.wxsbank.com/" rel="nofollow">无锡锡商银行</a>
-1. <a href="http://changemax.cn/" rel="nofollow">松鼠白菜</a>
-1. <a href="https://willclass.com/" rel="nofollow">会通教育</a>
-1. <a href="https://www.homedo.com/" rel="nofollow">河姆渡</a>
-1. <a href="http://www.eavic.com/" rel="nofollow">中航电子采购平台</a>
-1. <a href="https://www.motie.com/" rel="nofollow">磨铁文学</a>
-1. <a href="https://www.ttpai.cn/" rel="nofollow">天天拍车</a>
-1. <a href="https://www.bestpay.com.cn/" rel="nofollow">甜橙金融(翼支付)</a>
-1. <a href="http://www.thinktown.com/" rel="nofollow">新课堂教育</a>
-
-<img src="https://shardingsphere.apache.org/community/image/powered-by.png" width = "30%" height = "30%" align="right" alt="Powered By ShardingSphere" />
+TODO
diff --git a/docs/content/quick-start/_index.en.md b/docs/content/quick-start/_index.en.md
index f880dfb..10f8fe5 100644
--- a/docs/content/quick-start/_index.en.md
+++ b/docs/content/quick-start/_index.en.md
@@ -5,114 +5,4 @@ weight = 2
 chapter = true
 +++
 
-## 1. 使用 API 配置启动
-
-### 引入 maven 依赖
-
-```xml
-<dependency>
-    <groupId>org.apache.shardingsphere.elasticjob</groupId>
-    <artifactId>elastic-job-lite-core</artifactId>
-    <version>${latest.release.version}</version>
-</dependency>
-```
-
-### 作业开发
-
-```java
-public class MyElasticJob implements SimpleJob {
-    
-    @Override
-    public void execute(ShardingContext context) {
-        switch (context.getShardingItem()) {
-            case 0: 
-                // do something by sharding item 0
-                break;
-            case 1: 
-                // do something by sharding item 1
-                break;
-            case 2: 
-                // do something by sharding item 2
-                break;
-            // case n: ...
-        }
-    }
-}
-```
-
-### 作业配置
-
-```java
-    // 定义作业核心配置
-    JobCoreConfiguration simpleCoreConfig = JobCoreConfiguration.newBuilder("demoSimpleJob", "0/15 * * * * ?", 10).build();
-    // 定义 SIMPLE 类型配置
-    SimpleJobConfiguration simpleJobConfig = new SimpleJobConfiguration(simpleCoreConfig, SimpleDemoJob.class.getCanonicalName());
-    // 定义作业根配置
-    JobConfiguration jobConfig = JobConfiguration.newBuilder(simpleJobConfig).build();
-```
-
-### 启动作业
-
-```java
-public class JobDemo {
-    
-    public static void main(String[] args) {
-        new JobScheduler(createRegistryCenter(), createJobConfiguration()).init();
-    }
-    
-    private static CoordinatorRegistryCenter createRegistryCenter() {
-        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("zk_host:2181", "elastic-job-demo"));
-        regCenter.init();
-        return regCenter;
-    }
-    
-    private static JobConfiguration createJobConfiguration() {
-        // 创建作业配置
-        // ...
-    }
-}
-```
-
-## 2. 使用 Spring 配置启动
-
-```xml
-<dependency>
-    <groupId>org.apache.shardingsphere.elasticjob</groupId>
-    <artifactId>elastic-job-lite-spring</artifactId>
-    <version>${latest.release.version}</version>
-</dependency>
-```
-
-### 作业开发
-
-同使用 API 配置中作业开发
-
-### 作业配置
-
-```xml
-<?xml version="1.0" encoding="UTF-8"?>
-<beans xmlns="http://www.springframework.org/schema/beans"
-       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
-       xmlns:elasticjob="http://elasticjob.shardingsphere.apache.org/schema/elasticjob"
-       xsi:schemaLocation="http://www.springframework.org/schema/beans
-                           http://www.springframework.org/schema/beans/spring-beans.xsd
-                           http://elasticjob.shardingsphere.apache.org/schema/elasticjob
-                           http://elasticjob.shardingsphere.apache.org/schema/elasticjob/elasticjob.xsd
-                           ">
-    <!--配置作业注册中心 -->
-    <elasticjob:zookeeper id="regCenter" server-lists="yourhost:2181" namespace="elastic-job" base-sleep-time-milliseconds="1000" max-sleep-time-milliseconds="3000" max-retries="3" />
-   
-    <!--配置任务监控 -->
-    <elasticjob:monitor id="monitor1" registry-center-ref="regCenter" monitor-port="9999" />    
-
-    <!--配置作业类 -->
-    <bean id="simpleJob" class="xxx.MyElasticJob" />
-    
-    <!--配置作业 -->
-    <elasticjob:simple id="oneOffElasticJob" job-ref="simpleJob" registry-center-ref="regCenter" reconcile-interval-minutes="10" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-</beans>
-```
-
-### 启动作业
-
-将配置 Spring 命名空间的 xml 通过 Spring 启动,作业将自动加载。
+TODO
diff --git a/docs/content/user-manual/_index.cn.md b/docs/content/user-manual/_index.cn.md
index 6481ca6..b53e718 100644
--- a/docs/content/user-manual/_index.cn.md
+++ b/docs/content/user-manual/_index.cn.md
@@ -7,14 +7,14 @@ chapter = true
 
 # 本章导航
  
- - Elastic-Job提供了简单易用的[运维平台](/02-guide/web-console/),方便用户操作及查询作业。
+ - ElasticJob 提供了简单易用的[运维平台](/cn/user-manual/web-console/),方便用户操作及查询作业。
  
- - [配置手册](/02-guide/config-manual/)介绍了如何通过Java Code和Spring两种方式配置。
+ - [配置手册](/cn/user-manual/job-config/)介绍了如何通过 Java 和 Spring 两种方式配置。
  
- - 一般情况Elastic-Job是通过平均分配算法的分片策略数据的,但也可以选择哈希及轮转等策略,或者自己定义[作业分片策略](/02-guide/job-sharding-strategy/)。
+ - 一般情况 ElasticJob 是通过平均分配算法的分片策略数据的,但也可以选择哈希及轮转等策略,或者自己定义[作业分片策略](/cn/user-manual/job-sharding-strategy/)。
  
- - 为了便于记录、查询、统计及监控作业运行情况,Elastic-Job提供了[事件追踪](/02-guide/event-trace/)功能,也可自行对[作业运行状态监控](/02-guide/execution-monitor/)。
+ - 为了便于记录、查询、统计及监控作业运行情况,ElasticJob 提供了[事件追踪](/cn/user-manual/event-trace/)功能,也可自行对[作业运行状态监控](/cn/user-manual/execution-monitor/)。
  
- - 由于无法在生产环境调试,通过[dump](/02-guide/dump/)可以把作业运行相关信息dump出来,方便开发者debug分析。
+ - 由于无法在生产环境调试,通过[dump](/cn/user-manual/dump/)可以把作业运行相关信息导出,方便开发者调试分析。
  
- - 最后,Elastic-Job还提供了其它扩展功能,如:[作业监听器](/02-guide/job-listener/)、[自诊断修复](/02-guide/job-reconcile/)、[定制化处理](/02-guide/customized-hook/)及[操作手册](/02-guide/operation-manual/)等。
+ - 最后,ElasticJob 还提供了其它扩展功能,如:[作业监听器](/cn/user-manual/job-listener/)、[自诊断修复](/cn/user-manual/job-reconcile/)、[定制化处理](/cn/user-manual/customized-hook/)及[操作手册](/cn/user-manual/operation-manual/)等。
diff --git a/docs/content/user-manual/customized-hook.cn.md b/docs/content/user-manual/customized-hook.cn.md
index f1500d4..67abbe2 100644
--- a/docs/content/user-manual/customized-hook.cn.md
+++ b/docs/content/user-manual/customized-hook.cn.md
@@ -5,7 +5,7 @@ weight = 7
 chapter = true
 +++
 
-Elastic-Job 在配置中提供了 JobHandler,用于定制化处理,目前支持自定义异常处理及作业处理线程池。
+ElasticJob 在配置中提供了 JobHandler,用于定制化处理,目前支持自定义异常处理及作业处理线程池。
 
 ## 异常处理
 
diff --git a/docs/content/user-manual/customized-hook.en.md b/docs/content/user-manual/customized-hook.en.md
index 5888305..d1502d3 100644
--- a/docs/content/user-manual/customized-hook.en.md
+++ b/docs/content/user-manual/customized-hook.en.md
@@ -4,13 +4,3 @@ title = "Customization"
 weight = 10
 chapter = true
 +++
-
-Elastic-Job 在配置中提供了 JobHandler,用于定制化处理,目前支持自定义异常处理及作业处理线程池。
-
-## 异常处理
-
-可扩展 JobErrorHandler 接口,默认实现是记录日志但不抛出异常。
-
-## 作业处理线程池
-
-可扩展 JobExecutorServiceHandler 接口,定制线程池。
diff --git a/docs/content/user-manual/deploy-guide.cn.md b/docs/content/user-manual/deploy-guide.cn.md
index ec3d221..03f9ed1 100644
--- a/docs/content/user-manual/deploy-guide.cn.md
+++ b/docs/content/user-manual/deploy-guide.cn.md
@@ -7,16 +7,16 @@ chapter = true
 
 ## 应用部署
 
-1. 启动Elastic-Job-Lite指定注册中心的Zookeeper。
+1. 启动 ElasticJob Lite 指定注册中心的 Zookeeper。
 
-2. 运行包含Elastic-Job-Lite和业务代码的jar文件。不限于jar或war的启动方式。
+2. 运行包含 ElasticJob Lite 和业务代码的 jar 文件。不限于 jar 或 war 的启动方式。
 
-## 运维平台和RESTFul API部署(可选)
+## 运维平台和 RESTFul API 部署(可选)
 
-1. 解压缩elastic-job-lite-console-${version}.tar.gz并执行bin\start.sh。
+1. 解压缩 `elastic-job-lite-console-${version}.tar.gz` 并执行 `bin\start.sh`。
 
-2. 打开浏览器访问`http://localhost:8899/`即可访问控制台。8899为默认端口号,可通过启动脚本输入-p自定义端口号。
+2. 打开浏览器访问 `http://localhost:8899/` 即可访问控制台。8899 为默认端口号,可通过启动脚本输入 `-p` 自定义端口号。
 
-3. 访问RESTFul API方法同控制台。
+3. 访问 RESTFul API 方法同控制台。
 
-4. elastic-job-lite-console-${version}.tar.gz可通过mvn install编译获取。
+4. `elastic-job-lite-console-${version}.tar.gz`可通过 `mvn install` 编译获取。
diff --git a/docs/content/user-manual/deploy-guide.en.md b/docs/content/user-manual/deploy-guide.en.md
index 3defc74..bfe51b7 100644
--- a/docs/content/user-manual/deploy-guide.en.md
+++ b/docs/content/user-manual/deploy-guide.en.md
@@ -5,18 +5,4 @@ weight = 10
 chapter = true
 +++
 
-## 应用部署
-
-1. 启动Elastic-Job-Lite指定注册中心的Zookeeper。
-
-2. 运行包含Elastic-Job-Lite和业务代码的jar文件。不限于jar或war的启动方式。
-
-## 运维平台和RESTFul API部署(可选)
-
-1. 解压缩elastic-job-lite-console-${version}.tar.gz并执行bin\start.sh。
-
-2. 打开浏览器访问`http://localhost:8899/`即可访问控制台。8899为默认端口号,可通过启动脚本输入-p自定义端口号。
-
-3. 访问RESTFul API方法同控制台。
-
-4. elastic-job-lite-console-${version}.tar.gz可通过mvn install编译获取。
+TODO
diff --git a/docs/content/user-manual/dump.cn.md b/docs/content/user-manual/dump.cn.md
index 4f0fd0d..0fa5670 100644
--- a/docs/content/user-manual/dump.cn.md
+++ b/docs/content/user-manual/dump.cn.md
@@ -5,18 +5,18 @@ weight = 8
 chapter = true
 +++
 
-使用Elastic-Job-Lite过程中可能会碰到一些分布式问题,导致作业运行不稳定。
+使用 ElasticJob Lite 过程中可能会碰到一些分布式问题,导致作业运行不稳定。
 
-由于无法在生产环境调试,通过dump命令可以把作业内部相关信息dump出来,方便开发者debug分析;
-另外为了不泄露隐私,已将相关信息中的ip地址以ip1, ip2...的形式过滤,可以在互联网上公开传输环境信息,便于进一步完善Elastic-Job。
+由于无法在生产环境调试,通过 dump 命令可以把作业内部相关信息导出,方便开发者调试分析;
+另外为了不泄露隐私,已将相关信息中的 IP 地址以 ip1, ip2... 的形式过滤,可以在互联网上公开传输环境信息,便于进一步完善 ElasticJob。
 
 ## 如何使用
 
 ### 配置监听端口
 
-支持两种配置方式
+支持 2 种配置方式
 
-* Spring方式
+* Spring 方式
 
 ```xml
 <?xml version="1.0" encoding="UTF-8"?>
@@ -42,10 +42,11 @@ chapter = true
 </beans>
 ```
 
-* Java方式
+* Java 方式
 
 ```java
 public class JobMain {
+    
     public static void main(final String[] args) {
         // ...
         SnapshotService snapshotService = new SnapshotService(regCenter, 9888);
@@ -57,9 +58,9 @@ public class JobMain {
 
 ### 启动作业
 
-### 执行dump命令
+### 执行 dump 命令
 
-dump命令完全参照Zookeeper的四字命令理念
+dump 命令完全参照 Zookeeper 的四字命令理念
 
 ```bash
 echo "dump@jobName" | nc <任意一台作业服务器IP> 9888
@@ -75,4 +76,4 @@ echo "dump@jobName" | nc <任意一台作业服务器IP> 9888 > job_debug.txt
 
 ## 使用注意事项
 
-务必更新至1.0.3以上版本
+务必更新至 1.0.3 以上版本。
diff --git a/docs/content/user-manual/dump.en.md b/docs/content/user-manual/dump.en.md
index 81edbe6..7263369 100644
--- a/docs/content/user-manual/dump.en.md
+++ b/docs/content/user-manual/dump.en.md
@@ -5,74 +5,4 @@ weight = 6
 chapter = true
 +++
 
-使用Elastic-Job-Lite过程中可能会碰到一些分布式问题,导致作业运行不稳定。
-
-由于无法在生产环境调试,通过dump命令可以把作业内部相关信息dump出来,方便开发者debug分析;
-另外为了不泄露隐私,已将相关信息中的ip地址以ip1, ip2...的形式过滤,可以在互联网上公开传输环境信息,便于进一步完善Elastic-Job。
-
-## 如何使用
-
-### 配置监听端口
-
-支持两种配置方式
-
-* Spring方式
-
-```xml
-<?xml version="1.0" encoding="UTF-8"?>
-<beans xmlns="http://www.springframework.org/schema/beans"
-       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
-       xmlns:elasticjob="http://elasticjob.shardingsphere.apache.org/schema/elasticjob"
-       xsi:schemaLocation="http://www.springframework.org/schema/beans
-                           http://www.springframework.org/schema/beans/spring-beans.xsd
-                           http://elasticjob.shardingsphere.apache.org/schema/elasticjob
-                           http://elasticjob.shardingsphere.apache.org/schema/elasticjob/elasticjob.xsd
-                         ">
-    <!--配置作业注册中心 -->
-    <elasticjob:zookeeper id="regCenter" server-lists="yourhost:2181" namespace="dd-job" base-sleep-time-milliseconds="1000" max-sleep-time-milliseconds="3000" max-retries="3" />
-    
-    <!--配置任务快照 -->
-    <elasticjob:snapshot id="jobSnapshot" registry-center-ref="regCenter" dump-port="9999"/>    
-    
-    <!--配置作业类 -->
-    <bean id="simpleJob" class="xxx.MyElasticJob" />    
-
-    <!-- 配置作业-->
-    <elasticjob:simple id="oneOffElasticJob" job-ref="simpleJob" registry-center-ref="regCenter" cron="0/10 * * * * ?"   sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-</beans>
-```
-
-* Java方式
-
-```java
-public class JobMain {
-    public static void main(final String[] args) {
-        // ...
-        SnapshotService snapshotService = new SnapshotService(regCenter, 9888);
-        snapshotService.listen();
-        // ...
-    }
-}
-```
-
-### 启动作业
-
-### 执行dump命令
-
-dump命令完全参照Zookeeper的四字命令理念
-
-```bash
-echo "dump@jobName" | nc <任意一台作业服务器IP> 9888
-```
-
-![dump命令](https://shardingsphere.apache.org/elasticjob/lite/img/dump/dump.jpg)
-
-导出至文件
-
-```bash
-echo "dump@jobName" | nc <任意一台作业服务器IP> 9888 > job_debug.txt
-```
-
-## 使用注意事项
-
-务必更新至1.0.3以上版本
+TODO
diff --git a/docs/content/user-manual/event-trace.cn.md b/docs/content/user-manual/event-trace.cn.md
index c4892e4..2745197 100644
--- a/docs/content/user-manual/event-trace.cn.md
+++ b/docs/content/user-manual/event-trace.cn.md
@@ -5,11 +5,12 @@ weight = 6
 chapter = true
 +++
 
-Elastic-Job提供了事件追踪功能,可通过事件订阅的方式处理调度过程的重要事件,用于查询、统计和监控。Elastic-Job目前提供了基于关系型数据库两种事件订阅方式记录事件。
+ElasticJob 提供了事件追踪功能,可通过事件订阅的方式处理调度过程的重要事件,用于查询、统计和监控。
+ElasticJob 目前提供了基于关系型数据库两种事件订阅方式记录事件。
 
 ## 通过代码配置开启事件追踪
 
-Elastic-Job-Lite 在配置中提供了 TracingConfiguration,目前支持数据库方式配置。
+ElasticJob Lite 在配置中提供了 TracingConfiguration,目前支持数据库方式配置。
 
 ```java
     // 初始化数据源
@@ -23,49 +24,49 @@ Elastic-Job-Lite 在配置中提供了 TracingConfiguration,目前支持数据
     new JobScheduler(regCenter, jobConfig, tracingConfig).init(); 
 ```
 
-具体配置方式请参见[开发指南](/01-start/dev-guide/).
+具体配置方式请参见[开发指南](/user-manual/job-config/).
 
-事件追踪的event_trace_rdb_url属性对应库自动创建JOB_EXECUTION_LOG和JOB_STATUS_TRACE_LOG两张表以及若干索引。
+事件追踪的 event_trace_rdb_url 属性对应库自动创建 JOB_EXECUTION_LOG 和 JOB_STATUS_TRACE_LOG 两张表以及若干索引。
 
-JOB_EXECUTION_LOG字段含义
+JOB_EXECUTION_LOG 字段含义
 
-| 字段名称           | 字段类型     | 是否必填 | 描述                                                                                             |
-| ----------------- |:------------|:--------|:------------------------------------------------------------------------------------------------|
-|id                 |VARCHAR(40)  |是       | 主键                                                                                             |
-|job_name           |VARCHAR(100) |是       | 作业名称                                                                                          |
-|task_id            |VARCHAR(1000)|是       | 任务名称,每次作业运行生成新任务                                                                      |
-|hostname           |VARCHAR(255) |是       | 主机名称                                                                                          |
-|ip                 |VARCHAR(50)  |是       | 主机IP                                                                                            |
-|sharding_item      |INT          |是       | 分片项                                                                                            |
-|execution_source   |VARCHAR(20)  |是       | 作业执行来源。可选值为NORMAL_TRIGGER, MISFIRE, FAILOVER                                             |
-|failure_cause      |VARCHAR(2000)|否       | 执行失败原因                                                                                       |
-|is_success         |BIT          |是       | 是否执行成功                                                                                       |
-|start_time         |TIMESTAMP    |是       | 作业开始执行时间                                                                                   |
-|complete_time      |TIMESTAMP    |否       | 作业结束执行时间                                                                                   |
+| 字段名称           | 字段类型      | 是否必填 | 描述                                                                                             |
+| ----------------- |:-------------|:--------|:------------------------------------------------------------------------------------------------|
+|id                 |VARCHAR(40)   |是       | 主键                                                                                             |
+|job_name           |VARCHAR(100)  |是       | 作业名称                                                                                          |
+|task_id            |VARCHAR(1000) |是       | 任务名称,每次作业运行生成新任务                                                                      |
+|hostname           |VARCHAR(255)  |是       | 主机名称                                                                                          |
+|ip                 |VARCHAR(50)   |是       | 主机IP                                                                                            |
+|sharding_item      |INT           |是       | 分片项                                                                                            |
+|execution_source   |VARCHAR(20)   |是       | 作业执行来源。可选值为NORMAL_TRIGGER, MISFIRE, FAILOVER                                             |
+|failure_cause      |VARCHAR(2000) |否       | 执行失败原因                                                                                       |
+|is_success         |BIT           |是       | 是否执行成功                                                                                       |
+|start_time         |TIMESTAMP     |是       | 作业开始执行时间                                                                                   |
+|complete_time      |TIMESTAMP     |否       | 作业结束执行时间                                                                                   |
 
 
-JOB_EXECUTION_LOG记录每次作业的执行历史。分为两个步骤:
+JOB_EXECUTION_LOG 记录每次作业的执行历史。分为两个步骤:
 
-1. 作业开始执行时向数据库插入数据,除failure_cause和complete_time外的其他字段均不为空。
+1. 作业开始执行时向数据库插入数据,除 failure_cause 和 complete_time 外的其他字段均不为空。
 
-2. 作业完成执行时向数据库更新数据,更新is_success, complete_time和failure_cause(如果作业执行失败)。
+2. 作业完成执行时向数据库更新数据,更新 is_success, complete_time 和 failure_cause(如果作业执行失败)。
 
 ***
 
 JOB_STATUS_TRACE_LOG字段含义
 
-| 字段名称           | 字段类型     | 是否必填 | 描述                                                                                                                       |
-| ----------------- |:------------|:--------|:--------------------------------------------------------------------------------------------------------------------------|
-|id                 |VARCHAR(40)  |是       | 主键                                                                                                                       |
-|job_name           |VARCHAR(100) |是       | 作业名称                                                                                                                    |
-|original_task_id   |VARCHAR(1000)|是       | 原任务名称                                                                                                                  |
-|task_id            |VARCHAR(1000)|是       | 任务名称                                                                                                                    |
-|slave_id           |VARCHAR(1000)|是       | 执行作业服务器的名称,Lite版本为服务器的IP地址,Cloud版本为Mesos执行机主键                                                         |
-|source             |VARCHAR(50)  |是       | 任务执行源,可选值为CLOUD_SCHEDULER, CLOUD_EXECUTOR, LITE_EXECUTOR                                                            |
-|execution_type     |VARCHAR(20)  |是       | 任务执行类型,可选值为NORMAL_TRIGGER, MISFIRE, FAILOVER                                                                       |
-|sharding_item      |VARCHAR(255) |是       | 分片项集合,多个分片项以逗号分隔                                                                                                |
-|state              |VARCHAR(20)  |是       | 任务执行状态,可选值为TASK_STAGING, TASK_RUNNING, TASK_FINISHED, TASK_KILLED, TASK_LOST, TASK_FAILED, TASK_ERROR              |
-|message            |VARCHAR(2000)|是       | 相关信息                                                                                                                    |
-|creation_time      |TIMESTAMP    |是       | 记录创建时间                                                                                                                 |
-
-JOB_STATUS_TRACE_LOG记录作业状态变更痕迹表。可通过每次作业运行的task_id查询作业状态变化的生命周期和运行轨迹。
+| 字段名称           | 字段类型      | 是否必填 | 描述                                                                                                                       |
+| ----------------- |:-------------|:--------|:--------------------------------------------------------------------------------------------------------------------------|
+|id                 |VARCHAR(40)   |是       | 主键                                                                                                                       |
+|job_name           |VARCHAR(100)  |是       | 作业名称                                                                                                                    |
+|original_task_id   |VARCHAR(1000) |是       | 原任务名称                                                                                                                  |
+|task_id            |VARCHAR(1000) |是       | 任务名称                                                                                                                    |
+|slave_id           |VARCHAR(1000) |是       | 执行作业服务器的名称,Lite版本为服务器的IP地址,Cloud版本为Mesos执行机主键                                                         |
+|source             |VARCHAR(50)   |是       | 任务执行源,可选值为CLOUD_SCHEDULER, CLOUD_EXECUTOR, LITE_EXECUTOR                                                            |
+|execution_type     |VARCHAR(20)   |是       | 任务执行类型,可选值为NORMAL_TRIGGER, MISFIRE, FAILOVER                                                                       |
+|sharding_item      |VARCHAR(255)  |是       | 分片项集合,多个分片项以逗号分隔                                                                                                |
+|state              |VARCHAR(20)   |是       | 任务执行状态,可选值为TASK_STAGING, TASK_RUNNING, TASK_FINISHED, TASK_KILLED, TASK_LOST, TASK_FAILED, TASK_ERROR              |
+|message            |VARCHAR(2000) |是       | 相关信息                                                                                                                    |
+|creation_time      |TIMESTAMP     |是       | 记录创建时间                                                                                                                 |
+
+JOB_STATUS_TRACE_LOG 记录作业状态变更痕迹表。可通过每次作业运行的 task_id 查询作业状态变化的生命周期和运行轨迹。
diff --git a/docs/content/user-manual/event-trace.en.md b/docs/content/user-manual/event-trace.en.md
index bb4a2cc..604358a 100644
--- a/docs/content/user-manual/event-trace.en.md
+++ b/docs/content/user-manual/event-trace.en.md
@@ -5,67 +5,4 @@ weight = 6
 chapter = true
 +++
 
-Elastic-Job提供了事件追踪功能,可通过事件订阅的方式处理调度过程的重要事件,用于查询、统计和监控。Elastic-Job目前提供了基于关系型数据库两种事件订阅方式记录事件。
-
-## 通过代码配置开启事件追踪
-
-Elastic-Job-Lite 在配置中提供了 TracingConfiguration,目前支持数据库方式配置。
-
-```java
-    // 初始化数据源
-    DataSource dataSource = ...;
-    // 定义日志数据库事件溯源配置
-    TracingConfiguration tracingConfig = new TracingConfiguration<>("RDB", dataSource);
-    // 初始化注册中心
-    CoordinatorRegistryCenter regCenter = ...;
-    // 初始化作业配置
-    JobConfiguration jobConfig = ...;
-    new JobScheduler(regCenter, jobConfig, tracingConfig).init(); 
-```
-
-具体配置方式请参见[开发指南](/01-start/dev-guide/).
-
-事件追踪的event_trace_rdb_url属性对应库自动创建JOB_EXECUTION_LOG和JOB_STATUS_TRACE_LOG两张表以及若干索引。
-
-JOB_EXECUTION_LOG字段含义
-
-| 字段名称           | 字段类型     | 是否必填 | 描述                                                                                             |
-| ----------------- |:------------|:--------|:------------------------------------------------------------------------------------------------|
-|id                 |VARCHAR(40)  |是       | 主键                                                                                             |
-|job_name           |VARCHAR(100) |是       | 作业名称                                                                                          |
-|task_id            |VARCHAR(1000)|是       | 任务名称,每次作业运行生成新任务                                                                      |
-|hostname           |VARCHAR(255) |是       | 主机名称                                                                                          |
-|ip                 |VARCHAR(50)  |是       | 主机IP                                                                                            |
-|sharding_item      |INT          |是       | 分片项                                                                                            |
-|execution_source   |VARCHAR(20)  |是       | 作业执行来源。可选值为NORMAL_TRIGGER, MISFIRE, FAILOVER                                             |
-|failure_cause      |VARCHAR(2000)|否       | 执行失败原因                                                                                       |
-|is_success         |BIT          |是       | 是否执行成功                                                                                       |
-|start_time         |TIMESTAMP    |是       | 作业开始执行时间                                                                                   |
-|complete_time      |TIMESTAMP    |否       | 作业结束执行时间                                                                                   |
-
-
-JOB_EXECUTION_LOG记录每次作业的执行历史。分为两个步骤:
-
-1. 作业开始执行时向数据库插入数据,除failure_cause和complete_time外的其他字段均不为空。
-
-2. 作业完成执行时向数据库更新数据,更新is_success, complete_time和failure_cause(如果作业执行失败)。
-
-***
-
-JOB_STATUS_TRACE_LOG字段含义
-
-| 字段名称           | 字段类型     | 是否必填 | 描述                                                                                                                       |
-| ----------------- |:------------|:--------|:--------------------------------------------------------------------------------------------------------------------------|
-|id                 |VARCHAR(40)  |是       | 主键                                                                                                                       |
-|job_name           |VARCHAR(100) |是       | 作业名称                                                                                                                    |
-|original_task_id   |VARCHAR(1000)|是       | 原任务名称                                                                                                                  |
-|task_id            |VARCHAR(1000)|是       | 任务名称                                                                                                                    |
-|slave_id           |VARCHAR(1000)|是       | 执行作业服务器的名称,Lite版本为服务器的IP地址,Cloud版本为Mesos执行机主键                                                         |
-|source             |VARCHAR(50)  |是       | 任务执行源,可选值为CLOUD_SCHEDULER, CLOUD_EXECUTOR, LITE_EXECUTOR                                                            |
-|execution_type     |VARCHAR(20)  |是       | 任务执行类型,可选值为NORMAL_TRIGGER, MISFIRE, FAILOVER                                                                       |
-|sharding_item      |VARCHAR(255) |是       | 分片项集合,多个分片项以逗号分隔                                                                                                |
-|state              |VARCHAR(20)  |是       | 任务执行状态,可选值为TASK_STAGING, TASK_RUNNING, TASK_FINISHED, TASK_KILLED, TASK_LOST, TASK_FAILED, TASK_ERROR              |
-|message            |VARCHAR(2000)|是       | 相关信息                                                                                                                    |
-|creation_time      |TIMESTAMP    |是       | 记录创建时间                                                                                                                 |
-
-JOB_STATUS_TRACE_LOG记录作业状态变更痕迹表。可通过每次作业运行的task_id查询作业状态变化的生命周期和运行轨迹。
+TODO
diff --git a/docs/content/user-manual/execution-monitor.cn.md b/docs/content/user-manual/execution-monitor.cn.md
index 156f10a..74f6e0a 100644
--- a/docs/content/user-manual/execution-monitor.cn.md
+++ b/docs/content/user-manual/execution-monitor.cn.md
@@ -5,8 +5,8 @@ weight = 9
 chapter = true
 +++
 
-通过监听Elastic-Job-Lite的zookeeper注册中心的几个关键节点即可完成作业运行状态监控功能。
+通过监听 ElasticJob Lite 的 ZooKeeper 注册中心的几个关键节点即可完成作业运行状态监控功能。
 
 ## 监听作业服务器存活
 
-监听job_name\instances\job_instance_id节点是否存在。该节点为临时节点,如果作业服务器下线,该节点将删除。
+监听 job_name\instances\job_instance_id 节点是否存在。该节点为临时节点,如果作业服务器下线,该节点将删除。
diff --git a/docs/content/user-manual/execution-monitor.en.md b/docs/content/user-manual/execution-monitor.en.md
index 1d0eaba..cf93406 100644
--- a/docs/content/user-manual/execution-monitor.en.md
+++ b/docs/content/user-manual/execution-monitor.en.md
@@ -5,8 +5,4 @@ weight = 9
 chapter = true
 +++
 
-通过监听Elastic-Job-Lite的zookeeper注册中心的几个关键节点即可完成作业运行状态监控功能。
-
-## 监听作业服务器存活
-
-监听job_name\instances\job_instance_id节点是否存在。该节点为临时节点,如果作业服务器下线,该节点将删除。
+TODO
diff --git a/docs/content/user-manual/job-api.en.md b/docs/content/user-manual/job-api.en.md
index 5d43b22..abbc72b 100644
--- a/docs/content/user-manual/job-api.en.md
+++ b/docs/content/user-manual/job-api.en.md
@@ -5,215 +5,4 @@ weight = 1
 chapter = true
 +++
 
-## 0. 环境要求
-
-### a. Java
-
-请使用JDK1.7及其以上版本。[详情参见](http://www.oracle.com/technetwork/java/javase/downloads/index.html)
-
-### b. Zookeeper
-
-请使用Zookeeper 3.4.6及其以上版本。[详情参见](https://zookeeper.apache.org/doc/trunk/zookeeperStarted.html)
-
-### c. Maven
-
-请使用Maven 3.0.4及其以上版本。[详情参见](http://maven.apache.org/install.html)
-
-## 1. 作业开发
-
-Elastic-Job-Lite和Elastic-Job-Cloud提供统一作业接口,开发者仅需对业务作业进行一次开发,之后可根据不同的配置以及部署至不同的Lite或Cloud环境。
-
-Elastic-Job提供Simple、Dataflow和Script 3种作业类型。
-方法参数shardingContext包含作业配置、片和运行时信息。可通过getShardingTotalCount(), getShardingItem()等方法分别获取分片总数,运行在本作业服务器的分片序列号等。
-
-### a. Simple类型作业
-
-意为简单实现,未经任何封装的类型。需实现SimpleJob接口。该接口仅提供单一方法用于覆盖,此方法将定时执行。与Quartz原生接口相似,但提供了弹性扩缩容和分片等功能。
-
-```java
-public class MyElasticJob implements SimpleJob {
-    
-    @Override
-    public void execute(ShardingContext context) {
-        switch (context.getShardingItem()) {
-            case 0: 
-                // do something by sharding item 0
-                break;
-            case 1: 
-                // do something by sharding item 1
-                break;
-            case 2: 
-                // do something by sharding item 2
-                break;
-            // case n: ...
-        }
-    }
-}
-```
-
-### b. Dataflow类型作业
-
-Dataflow类型用于处理数据流,需实现DataflowJob接口。该接口提供2个方法可供覆盖,分别用于抓取(fetchData)和处理(processData)数据。
-
-```java
-public class MyElasticJob implements DataflowJob<Foo> {
-    
-    @Override
-    public List<Foo> fetchData(ShardingContext context) {
-        switch (context.getShardingItem()) {
-            case 0: 
-                List<Foo> data = // get data from database by sharding item 0
-                return data;
-            case 1: 
-                List<Foo> data = // get data from database by sharding item 1
-                return data;
-            case 2: 
-                List<Foo> data = // get data from database by sharding item 2
-                return data;
-            // case n: ...
-        }
-    }
-    
-    @Override
-    public void processData(ShardingContext shardingContext, List<Foo> data) {
-        // process data
-        // ...
-    }
-}
-```
-
-***
-
-**流式处理**
-
-可通过DataflowJobConfiguration配置是否流式处理。
-
-流式处理数据只有fetchData方法的返回值为null或集合长度为空时,作业才停止抓取,否则作业将一直运行下去;
-非流式处理数据则只会在每次作业执行过程中执行一次fetchData方法和processData方法,随即完成本次作业。
-
-如果采用流式作业处理方式,建议processData处理数据后更新其状态,避免fetchData再次抓取到,从而使得作业永不停止。
-流式数据处理参照TbSchedule设计,适用于不间歇的数据处理。
-
-### c. Script类型作业
-
-Script类型作业意为脚本类型作业,支持shell,python,perl等所有类型脚本。只需通过控制台或代码配置scriptCommandLine即可,无需编码。执行脚本路径可包含参数,参数传递完毕后,作业框架会自动追加最后一个参数为作业运行时信息。
-
-```
-#!/bin/bash
-echo sharding execution context is $*
-```
-
-作业运行时输出
-
-sharding execution context is {"jobName":"scriptElasticDemoJob","shardingTotalCount":10,"jobParameter":"","shardingItem":0,"shardingParameter":"A"}
-
-## 2. 作业配置
-
-ElasticJob 配置分为3个层级,分别是Core, Type和Root。每个层级使用相似于装饰者模式的方式装配。
-
-Core 对应 JobCoreConfiguration,用于提供作业核心配置信息,如:作业名称、分片总数、CRON表达式等。
-
-Type 对应 JobTypeConfiguration,有3个子类分别对应SIMPLE, DATAFLOW和SCRIPT类型作业,提供3种作业需要的不同配置,如:DATAFLOW类型是否流式处理或SCRIPT类型的命令行等。
-
-Root 对应 JobConfiguration,有2个子类分别对应Lite和Cloud部署类型,提供不同部署类型所需的配置,如:Lite类型的是否需要覆盖本地配置或Cloud占用CPU或Memory数量等。
-
-### a. 使用Java代码配置
-
-**通用作业配置**
-
-```java
-    // 定义作业核心配置
-    JobCoreConfiguration simpleCoreConfig = JobCoreConfiguration.newBuilder("demoSimpleJob", "0/15 * * * * ?", 10).build();
-    // 定义 SIMPLE 类型配置
-    SimpleJobConfiguration simpleJobConfig = new SimpleJobConfiguration(simpleCoreConfig, SimpleDemoJob.class.getCanonicalName());
-    // 定义作业根配置
-    JobConfiguration simpleJJobRootConfig = JobConfiguration.newBuilder(simpleJobConfig).build();
-    
-    // 定义作业核心配置
-    JobCoreConfiguration dataflowCoreConfig = JobCoreConfiguration.newBuilder("demoDataflowJob", "0/30 * * * * ?", 10).build();
-    // 定义 DATAFLOW 类型配置
-    DataflowJobConfiguration dataflowJobConfig = new DataflowJobConfiguration(dataflowCoreConfig, DataflowDemoJob.class.getCanonicalName(), true);
-    // 定义Lite作业根配置
-    JobConfiguration dataflowJobRootConfig = JobConfiguration.newBuilder(dataflowJobConfig).build();
-    
-    // 定义作业核心配置配置
-    JobCoreConfiguration scriptCoreConfig = JobCoreConfiguration.newBuilder("demoScriptJob", "0/45 * * * * ?", 10).build();
-    // 定义 SCRIPT 类型配置
-    ScriptJobConfiguration scriptJobConfig = new ScriptJobConfiguration(scriptCoreConfig, "test.sh");
-    // 定义作业根配置
-    JobConfiguration scriptJobRootConfig = JobConfiguration.newBuilder(scriptCoreConfig).build();
-```
-
-### b. Spring命名空间配置
-
-与Spring容器配合使用作业,可将作业Bean配置为Spring Bean,并在作业中通过依赖注入使用Spring容器管理的数据源等对象。可用placeholder占位符从属性文件中取值。Lite可考虑使用Spring命名空间方式简化配置。
-
-```xml
-<?xml version="1.0" encoding="UTF-8"?>
-<beans xmlns="http://www.springframework.org/schema/beans"
-    xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
-    xmlns:elasticjob="http://elasticjob.shardingsphere.apache.org/schema/elasticjob"
-    xsi:schemaLocation="http://www.springframework.org/schema/beans 
-                        http://www.springframework.org/schema/beans/spring-beans.xsd 
-                        http://elasticjob.shardingsphere.apache.org/schema/elasticjob
-                        http://elasticjob.shardingsphere.apache.org/schema/elasticjob/elasticjob.xsd
-                        ">
-    <!--配置作业注册中心 -->
-    <elasticjob:zookeeper id="regCenter" server-lists="yourhost:2181" namespace="dd-job" base-sleep-time-milliseconds="1000" max-sleep-time-milliseconds="3000" max-retries="3" />
-    
-    <!-- 配置简单作业-->
-    <elasticjob:job id="simpleElasticJob" class="xxx.MySimpleElasticJob" registry-center-ref="regCenter" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-    
-    <bean id="yourRefJobBeanId" class="xxx.MySimpleRefElasticJob">
-        <property name="fooService" ref="xxx.FooService"/>
-    </bean>
-    
-    <!-- 配置关联Bean作业-->
-    <elasticjob:job id="simpleRefElasticJob" job-ref="yourRefJobBeanId" registry-center-ref="regCenter" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-    
-    <!-- 配置数据流作业-->
-    <elasticjob:job id="throughputDataflow" class="xxx.MyThroughputDataflowElasticJob" registry-center-ref="regCenter" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-    
-    <!-- 配置脚本作业-->
-    <elasticjob:job id="scriptElasticJob" registry-center-ref="regCenter" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" script-command-line="/your/file/path/demo.sh" />
-    
-    <!-- 配置带监听的简单作业-->
-    <elasticjob:job id="listenerElasticJob" class="xxx.MySimpleListenerElasticJob" registry-center-ref="regCenter" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C">
-        <elasticjob:listener class="xx.MySimpleJobListener"/>
-        <elasticjob:distributed-listener class="xx.MyOnceSimpleJobListener" started-timeout-milliseconds="1000" completed-timeout-milliseconds="2000" />
-    </elasticjob:job>
-    
-    <!-- 配置带作业数据库事件追踪的简单作业-->
-    <elasticjob:job id="eventTraceElasticJob" class="xxx.MySimpleListenerElasticJob" registry-center-ref="regCenter" tracing-ref="yourDataSource" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-</beans>
-```
-
-配置项详细说明请参见[配置手册](/02-guide/config-manual)
-
-## 3. 作业启动
-
-### a. Java 启动方式
-
-```java
-public class JobDemo {
-    
-    public static void main(String[] args) {
-        new JobScheduler(createRegistryCenter(), createJobConfiguration()).init();
-    }
-    
-    private static CoordinatorRegistryCenter createRegistryCenter() {
-        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("zk_host:2181", "elastic-job-demo"));
-        regCenter.init();
-        return regCenter;
-    }
-    
-    private static JobConfiguration createJobConfiguration() {
-        // 创建作业配置
-        ...
-    }
-}
-```
-
-### b. Spring 启动方式
-
-将配置 Spring 命名空间的 xml 通过 Spring 启动,作业将自动加载。
+TODO
diff --git a/docs/content/user-manual/job-config.en.md b/docs/content/user-manual/job-config.en.md
index 83f4270..7b1a895 100644
--- a/docs/content/user-manual/job-config.en.md
+++ b/docs/content/user-manual/job-config.en.md
@@ -5,135 +5,4 @@ weight = 2
 chapter = true
 +++
 
-## 1. Java Code 配置
-
-### a. 注册中心配置
-
-用于注册和协调作业分布式行为的组件,目前仅支持Zookeeper。
-
-#### ZookeeperConfiguration 属性详细说明
-
-| 属性名                         | 类型    | 构造器注入 | 缺省值 | 描述 |
-| ------------------------------|:--------|:---------|:-------|:----|
-| serverLists                   | String  | 是       |        | 连接Zookeeper服务器的列表<br />包括IP地址和端口号<br />多个地址用逗号分隔<br />如: host1:2181,host2:2181 |
-| namespace                     | String  | 是       |        | Zookeeper的命名空间 |
-| baseSleepTimeMilliseconds     | int     | 否       | 1000   | 等待重试的间隔时间的初始值<br />单位:毫秒 |
-| maxSleepTimeMilliseconds      | String  | 否       | 3000   | 等待重试的间隔时间的最大值<br />单位:毫秒 |
-| maxRetries                    | String  | 否       | 3      | 最大重试次数 |
-| sessionTimeoutMilliseconds    | boolean | 否       | 60000  | 会话超时时间<br />单位:毫秒 |
-| connectionTimeoutMilliseconds | boolean | 否       | 15000  | 连接超时时间<br />单位:毫秒 |
-| digest                        | String  | 否       |        | 连接Zookeeper的权限令牌<br />缺省为不需要权限验证 |
-
-### b. 作业配置
-
-#### JobConfiguration 属性详细说明
-
-| 属性名                         | 类型    | 构造器注入 | 缺省值 | 描述     |
-| ------------------------------|:--------|:---------|:-------|:--------|
-| jobName                       | String  | 是       |        | 作业名称 |
-| cron                          | String  | 是       |        | cron表达式,用于控制作业触发时间 |
-| shardingTotalCount            | int     | 是       |        | 作业分片总数 |
-| shardingItemParameters        | String  | 否       |        | 分片序列号和参数用等号分隔,多个键值对用逗号分隔<br />分片序列号从0开始,不可大于或等于作业分片总数<br />如:<br/>0=a,1=b,2=c |
-| jobParameter                  | String  | 否       |        | 作业自定义参数<br />作业自定义参数,可通过传递该参数为作业调度的业务方法传参,用于实现带参数的作业<br />例:每次获取的数据量、作业实例从数据库读取的主键等 |
-| monitorExecution              | boolean            | 否     |true             | 监控作业运行时状态<br />每次作业执行时间和间隔时间均非常短的情况,建议不监控作业运行时状态以提升效率。因为是瞬时状态,所以无必要监控。请用户自行增加数据堆积监控。并且不能保证数据重复选取,应在作业中实现幂等性。<br />每次作业执行时间和间隔时间均较长的情况,建议监控作业运行时状态,可保证数据不会重复选取。 |
-| failover                      | boolean | 否       | false  | 是否开启任务执行失效转移,开启表示如果作业在一次任务执行中途宕机,允许将该次未完成的任务在另一作业节点上补偿执行 |
-| misfire                       | boolean | 否       | true   | 是否开启错过任务重新执行 |
-| maxTimeDiffSeconds            | int                | 否     |-1               | 最大允许的本机与注册中心的时间误差秒数<br />如果时间误差超过配置秒数则作业启动时将抛异常<br />配置为-1表示不校验时间误差 |
-| reconcileIntervalMinutes      | int                | 否     |10               | 修复作业服务器不一致状态服务调度间隔时间,配置为小于1的任意值表示不执行修复<br />单位:分钟 |
-| jobShardingStrategyType       | String             | 否     |-1               | 作业分片策略实现类全路径<br />默认使用平均分配策略<br />详情参见:[作业分片策略](/02-guide/job-sharding-strategy) |
-| jobExecutorServiceHandlerType | String  | 否       |        | 配置作业线程池处理策略   |
-| jobErrorHandlerType           | String  | 否       |        | 配置作业异常处理策略     |
-| description                   | String  | 否       |        | 作业描述信息 |
-| props                         | Properties  | 否   |                 | 作业属性配置信息,对于Dataflow类型任务,配置streaming.process=true开启流式处理任务。 对于Script类型任务,配置script.command.line,指定运行脚本|
-| disabled                      | boolean | 否       | false           | 作业是否禁止启动<br />可用于部署作业时,先禁止启动,部署结束后统一启动              |
-| overwrite                     | boolean | 否       | false           | 本地配置是否可覆盖注册中心配置<br />如果可覆盖,每次启动作业都以本地配置为准         |
-
-
-## 2. Spring 命名空间配置
-
-Spring 命名空间与 Java Code 方式配置类似,大部分属性只是将命名方式由驼峰式改为以减号间隔。使用 Spring 命名空间需在 pom.xml 文件中添加 elastic-job-lite-spring 模块的依赖。
-
-```xml
-<dependency>
-    <groupId>org.apache.shardingsphere.elasticjob</groupId>
-    <artifactId>elastic-job-lite-spring</artifactId>
-    <version>${latest.release.version}</version>
-</dependency>
-```
-
-### a. 注册中心配置
-
-#### elasticjob:zookeeper命名空间属性详细说明
-
-| 属性名                           | 类型   | 是否必填 | 缺省值 | 描述                                                                                              |
-| ------------------------------- |:-------|:-------|:------|:--------------------------------------------------------------------------------------------------|
-| id                              | String | 是     |       | 注册中心在Spring容器中的主键                                                                         |
-| server-lists                    | String | 是     |       | 连接Zookeeper服务器的列表<br />包括IP地址和端口号<br />多个地址用逗号分隔<br />如: host1:2181,host2:2181 |
-| namespace                       | String | 是     |       | Zookeeper的命名空间                                                                                 |
-| base-sleep-time-milliseconds    | int    | 否     | 1000  | 等待重试的间隔时间的初始值<br />单位:毫秒                                                             |
-| max-sleep-time-milliseconds     | int    | 否     | 3000  | 等待重试的间隔时间的最大值<br />单位:毫秒                                                             |
-| max-retries                     | int    | 否     | 3     | 最大重试次数                                                                                        |
-| session-timeout-milliseconds    | int    | 否     | 60000 | 会话超时时间<br />单位:毫秒                                                                         |
-| connection-timeout-milliseconds | int    | 否     | 15000 | 连接超时时间<br />单位:毫秒                                                                         |
-| digest                          | String | 否     |       | 连接Zookeeper的权限令牌<br />缺省为不需要权限验证                                                      |
-
-
-### b. 作业配置
-
-#### elasticjob:job命名空间属性详细说明
-
-| 属性名                             | 类型    | 是否必填 | 缺省值           | 描述                                                                       |
-| ----------------------------------|:--------|:--------|:----------------|:---------------------------------------------------------------------------|
-| id                                | String  | 是      |                 | 作业名称                                                                    |
-| class                             | String  | 否      |                 | 作业实现类,需实现ElasticJob接口                                              |
-| job-ref                           | String  | 否      |                 | 作业关联的beanId,该配置优先级大于class属性配置                                 |
-| registry-center-ref               | String  | 是      |                 | 注册中心Bean的引用,需引用reg:zookeeper的声明                                  |
-| tracing-ref                       | String  | 否      |                 | 作业事件追踪的数据源Bean引用                                                   |
-| cron                              | String  | 是      |                 | cron表达式,用于控制作业触发时间                                               |
-| sharding-total-count              | int     | 是      |                 | 作业分片总数                                                                 |
-| sharding-item-parameters          | String  | 否      |                 | 分片序列号和参数用等号分隔,多个键值对用逗号分隔<br />分片序列号从0开始,不可大于或等于作业分片总数<br />如:<br/>0=a,1=b,2=c|
-| job-parameter                     | String  | 否      |                 | 作业自定义参数<br />作业自定义参数,可通过传递该参数为作业调度的业务方法传参,用于实现带参数的作业<br />例:每次获取的数据量、作业实例从数据库读取的主键等 |
-| monitor-execution                 | boolean | 否      | true            | 监控作业运行时状态<br />每次作业执行时间和间隔时间均非常短的情况,建议不监控作业运行时状态以提升效率。因为是瞬时状态,所以无必要监控。请用户自行增加数据堆积监控。并且不能保证数据重复选取,应在作业中实现幂等性。<br />每次作业执行时间和间隔时间均较长的情况,建议监控作业运行时状态,可保证数据不会重复选取。|
-| failover                          | boolean | 否      | false           | 是否开启失效转移                                                              |
-| misfire                           | boolean | 否      | true            | 是否开启错过任务重新执行                                                       |
-| max-time-diff-seconds             | int     | 否      | -1              | 最大允许的本机与注册中心的时间误差秒数<br />如果时间误差超过配置秒数则作业启动时将抛异常<br />配置为-1表示不校验时间误差|
-| reconcile-interval-minutes        | int     | 否      | 10              | 修复作业服务器不一致状态服务调度间隔时间,配置为小于1的任意值表示不执行修复<br />单位:分钟 |
-| job-sharding-strategy-type        | String  | 否      |                 | 作业分片策略实现类全路径<br />默认使用平均分配策略<br />详情参见:[作业分片策略](/02-guide/job-sharding-strategy)|
-| job-executor-service-handler-type | String  | 否      |                 | 扩展作业处理线程池类                                                          |
-| job-error-handler-type            | String  | 否      |                 | 扩展异常处理类                                                               |
-| description                       | String  | 否      |                 | 作业描述信息                                                                 |
-| props                             | Properties  | 否  |                 | 作业属性配置信息,对于Dataflow类型任务,配置streaming.process=true开启流式处理任务。对于Script类型任务,配置script.command.line,指定运行脚本|
-| disabled                          | boolean | 否      | false           | 作业是否禁止启动<br />可用于部署作业时,先禁止启动,部署结束后统一启动              |
-| overwrite                         | boolean | 否      | false           | 本地配置是否可覆盖注册中心配置<br />如果可覆盖,每次启动作业都以本地配置为准         |
-
-### c. 任务快照配置
-
-#### elasticjob:snapshot 命名空间属性详细说明
-
-| 属性名                           | 类型   | 是否必填 | 缺省值 | 描述                                                                                              |
-| ------------------------------- |:-------|:-------|:------|:--------------------------------------------------------------------------------------------------|
-| id                              | String | 是     |       | 监控服务在Spring容器中的主键                                                                          |
-| registry-center-ref             | String | 是     |       | 注册中心Bean的引用,需引用reg:zookeeper的声明                                                          |
-| dump-port                       | int    | 否     | -1    | dump数据端口<br />建议配置作业dump端口, 方便开发者dump作业信息。<br />使用方法: echo "dump@jobName" \| nc 127.0.0.1 9888|
-
-
-### d. 作业监听配置
-
-#### elasticjob:listener命名空间属性详细说明
-
-elasticjob:listener必须配置为elasticjob:job的子元素,并且在子元素中只允许出现一次
-
-| 属性名                          | 类型   | 是否必填 | 缺省值        | 描述                                              |
-| ------------------------------ |:-------|:-------|:--------------|:--------------------------------------------------|
-| class                          | String |是      |               | 前置后置任务监听实现类,需实现ElasticJobListener接口 |
-
-
-#### elasticjob:distributed-listener命名空间属性详细说明
-
-elasticjob:distributed-listener必须配置为elasticjob:job的子元素,并且在子元素中只允许出现一次
-
-| 属性名                          | 类型   | 是否必填 | 缺省值         | 描述                                                                       |
-| ------------------------------ |:-------|:-------|:---------------|:--------------------------------------------------------------------------|
-| class                          | String | 是     |                | 前置后置任务分布式监听实现类,需继承AbstractDistributeOnceElasticJobListener类 |
-| started-timeout-milliseconds   | long   | 否     | Long.MAX_VALUE | 最后一个作业执行前的执行方法的超时时间<br />单位:毫秒                           |
-| completed-timeout-milliseconds | long   | 否     | Long.MAX_VALUE | 最后一个作业执行后的执行方法的超时时间<br />单位:毫秒                           |
+TODO
diff --git a/docs/content/user-manual/job-listener.en.md b/docs/content/user-manual/job-listener.en.md
index 6483ebf..5f2c167 100644
--- a/docs/content/user-manual/job-listener.en.md
+++ b/docs/content/user-manual/job-listener.en.md
@@ -5,100 +5,4 @@ weight = 4
 chapter = true
 +++
 
-可通过配置多个任务监听器,在任务执行前和执行后执行监听的方法。监听器分为每台作业节点均执行和分布式场景中仅单一节点执行2种。
-
-## 1. 每台作业节点均执行的监听
-若作业处理作业服务器的文件,处理完成后删除文件,可考虑使用每个节点均执行清理任务。此类型任务实现简单,且无需考虑全局分布式任务是否完成,请尽量使用此类型监听器。
-
-步骤:
-
-* 定义监听器
-
-```java
-
-public class MyElasticJobListener implements ElasticJobListener {
-    
-    @Override
-    public void beforeJobExecuted(ShardingContexts shardingContexts) {
-        // do something ...
-    }
-    
-    @Override
-    public void afterJobExecuted(ShardingContexts shardingContexts) {
-        // do something ...
-    }
-}
-```
-
-* 将监听器作为参数传入JobScheduler
-
-```java
-public class JobMain {
-    
-    public static void main(String[] args) {
-        new JobScheduler(createRegistryCenter(), createJobConfiguration(), new MyElasticJobListener()).init();
-    }
-    
-    private static CoordinatorRegistryCenter createRegistryCenter() {
-        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("zk_host:2181", "elastic-job-demo"));
-        regCenter.init();
-        return regCenter;
-    }
-    
-    private static JobConfiguration createJobConfiguration() {
-        // 创建作业配置
-        ...
-    }
-}
-```
-
-## 2. 分布式场景中仅单一节点执行的监听
-若作业处理数据库数据,处理完成后只需一个节点完成数据清理任务即可。此类型任务处理复杂,需同步分布式环境下作业的状态同步,提供了超时设置来避免作业不同步导致的死锁,请谨慎使用。
-
-步骤:
-
-* 定义监听器
-
-```java
-
-public class TestDistributeOnceElasticJobListener extends AbstractDistributeOnceElasticJobListener {
-    
-    public TestDistributeOnceElasticJobListener(long startTimeoutMills, long completeTimeoutMills) {
-        super(startTimeoutMills, completeTimeoutMills);
-    }
-    
-    @Override
-    public void doBeforeJobExecutedAtLastStarted(ShardingContexts shardingContexts) {
-        // do something ...
-    }
-    
-    @Override
-    public void doAfterJobExecutedAtLastCompleted(ShardingContexts shardingContexts) {
-        // do something ...
-    }
-}
-```
-
-* 将监听器作为参数传入JobScheduler
-
-```java
-public class JobMain {
-    
-    public static void main(String[] args) {
-        long startTimeoutMills = 5000L;
-        long completeTimeoutMills = 10000L;
-        new JobScheduler(createRegistryCenter(), createJobConfiguration(), new MyDistributeOnceElasticJobListener(startTimeoutMills, completeTimeoutMills)).init();
-    }
-    
-    private static CoordinatorRegistryCenter createRegistryCenter() {
-        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("zk_host:2181", "elastic-job-demo"));
-        regCenter.init();
-        return regCenter;
-    }
-    
-    private static JobConfiguration createJobConfiguration() {
-        // 创建作业配置
-        ...
-    }
-}
-```
+TODO
diff --git a/docs/content/user-manual/job-reconcile.en.md b/docs/content/user-manual/job-reconcile.en.md
index dceb642..05e1a87 100644
--- a/docs/content/user-manual/job-reconcile.en.md
+++ b/docs/content/user-manual/job-reconcile.en.md
@@ -5,43 +5,4 @@ weight = 5
 chapter = true
 +++
 
-在分布式的场景下由于网络、时钟等原因,可能导致Zookeeper的数据与真实运行的作业产生不一致,这种不一致通过正向的校验无法完全避免。需要另外启动一个线程定时校验注册中心数据与真实作业状态的一致性,即维持Elastic-Job的最终一致性。
-
-在2.0.6之前的版本中,网络不稳定的环境下Elastic-Job有可能有的作业分片并未执行,重启一下就能修复。在2.0.6,版本中Elastic-Job在提供reconcileIntervalMinutes设置修复状态服务执行间隔分钟数,用于修复作业服务器不一致状态,默认每10分钟检测并修复一次。
-
-支持两种配置方式
-
-* Spring方式
-
-```xml
-<?xml version="1.0" encoding="UTF-8"?>
-<beans xmlns="http://www.springframework.org/schema/beans"
-       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
-       xmlns:elasticjob="http://elasticjob.shardingsphere.apache.org/schema/elasticjob"
-       xsi:schemaLocation="http://www.springframework.org/schema/beans
-                           http://www.springframework.org/schema/beans/spring-beans.xsd
-                           http://elasticjob.shardingsphere.apache.org/schema/elasticjob
-                           http://elasticjob.shardingsphere.apache.org/schema/elasticjob/elasticjob.xsd
-                          ">
-    <!--配置作业注册中心 -->
-    <elasticjob:zookeeper id="regCenter" server-lists="yourhost:2181" namespace="elastic-job" base-sleep-time-milliseconds="1000" max-sleep-time-milliseconds="3000" max-retries="3" />
-    
-    <!--配置作业类 -->
-    <bean id="simpleJob" class="xxx.MyElasticJob" />
-    
-    <!--配置作业 -->
-    <elasticjob:simple id="oneOffElasticJob" job-ref="simpleJob" registry-center-ref="regCenter" reconcile-interval-minutes="10" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />
-</beans>
-```
-
-* Java方式
-
-```java
-public class JobMain {
-    public static void main(final String[] args) {
-        // ...
-        JobConfiguration.newBuilder(simpleJobConfig).reconcileIntervalMinutes(10).build();
-        // ...
-    }
-}
-```
\ No newline at end of file
+TODO
diff --git a/docs/content/user-manual/job-sharding-strategy.cn.md b/docs/content/user-manual/job-sharding-strategy.cn.md
index d852ea9..4d811b0 100644
--- a/docs/content/user-manual/job-sharding-strategy.cn.md
+++ b/docs/content/user-manual/job-sharding-strategy.cn.md
@@ -67,4 +67,3 @@ org.apache.shardingsphere.elasticjob.lite.handler.sharding.impl.RotateServerByNa
 ## 配置分片策略
 
 与配置通常的作业属性相同,在spring命名空间或者JobConfiguration中配置jobShardingStrategyType属性,属性值是作业分片策略类的全路径。
-
diff --git a/docs/content/user-manual/job-sharding-strategy.en.md b/docs/content/user-manual/job-sharding-strategy.en.md
index e6e3f7d..20f9b8d 100644
--- a/docs/content/user-manual/job-sharding-strategy.en.md
+++ b/docs/content/user-manual/job-sharding-strategy.en.md
@@ -5,66 +5,4 @@ weight = 3
 chapter = true
 +++
 
-## 框架提供的分片策略
-
-### AverageAllocationJobShardingStrategy
-
-**全路径:**
-
-org.apache.shardingsphere.elasticjob.lite.handler.sharding.impl.AverageAllocationJobShardingStrategy
-
-**策略说明:**
-
-基于平均分配算法的分片策略,也是默认的分片策略。
-
-如果分片不能整除,则不能整除的多余分片将依次追加到序号小的服务器。如:
-
-如果有3台服务器,分成9片,则每台服务器分到的分片是:1=[0,1,2], 2=[3,4,5], 3=[6,7,8]
-
-如果有3台服务器,分成8片,则每台服务器分到的分片是:1=[0,1,6], 2=[2,3,7], 3=[4,5]
-
-如果有3台服务器,分成10片,则每台服务器分到的分片是:1=[0,1,2,9], 2=[3,4,5], 3=[6,7,8]
-
-### OdevitySortByNameJobShardingStrategy
-
-
-**全路径:**
-
-org.apache.shardingsphere.elasticjob.lite.handler.sharding.impl.OdevitySortByNameJobShardingStrategy
-
-**策略说明:**
-
-根据作业名的哈希值奇偶数决定IP升降序算法的分片策略。
-
-作业名的哈希值为奇数则IP升序。
-
-作业名的哈希值为偶数则IP降序。
-
-用于不同的作业平均分配负载至不同的服务器。
-
-AverageAllocationJobShardingStrategy的缺点是,一旦分片数小于作业服务器数,作业将永远分配至IP地址靠前的服务器,导致IP地址靠后的服务器空闲。而OdevitySortByNameJobShardingStrategy则可以根据作业名称重新分配服务器负载。如:
-
-如果有3台服务器,分成2片,作业名称的哈希值为奇数,则每台服务器分到的分片是:1=[0], 2=[1], 3=[]
-
-如果有3台服务器,分成2片,作业名称的哈希值为偶数,则每台服务器分到的分片是:3=[0], 2=[1], 1=[]
-
-### RotateServerByNameJobShardingStrategy
-
-**全路径:**
-
-org.apache.shardingsphere.elasticjob.lite.handler.sharding.impl.RotateServerByNameJobShardingStrategy
-
-**策略说明:**
-
-根据作业名的哈希值对服务器列表进行轮转的分片策略。
-
-## 自定义分片策略
-
-实现JobShardingStrategy接口并实现sharding方法,接口方法参数为作业服务器IP列表和分片策略选项,分片策略选项包括作业名称,分片总数以及分片序列号和个性化参数对照表,可以根据需求定制化自己的分片策略。
-
-欢迎将分片策略以插件的形式贡献至org.apache.shardingsphere.elasticjob.lite.handler.sharding包。
-
-## 配置分片策略
-
-与配置通常的作业属性相同,在spring命名空间或者JobConfiguration中配置jobShardingStrategyType属性,属性值是作业分片策略类的全路径。
-
+TODO
diff --git a/docs/content/user-manual/operation-manual.en.md b/docs/content/user-manual/operation-manual.en.md
index 9272819..88c68e8 100644
--- a/docs/content/user-manual/operation-manual.en.md
+++ b/docs/content/user-manual/operation-manual.en.md
@@ -5,112 +5,4 @@ weight = 12
 chapter = true
 +++
 
-## Java API(孵化中)
-
-### 1. 配置类API
-
-#### `JobConfigurationAPI` 作业配置的API
-
-##### YamlJobConfiguration getJobConfiguration(String jobName) 获取作业设置.
-
-* **Parameters:** jobName — 作业名称
- 
-* **Returns:** 作业设置对象
-
-##### void updateJobConfiguration(YamlJobConfiguration yamlJobConfiguration) 更新作业设置.
-
-* **Parameters:** jobConfiguration — 作业设置对象
-
-##### void removeJobConfiguration(String jobName) 删除作业设置.
-
-* **Parameters:** jobName — 作业名称
-
-### 2. 操作类API
-
-#### 2.1 `JobOperateAPI` 操作作业的API
-
-##### void trigger(Optional<String> jobName, Optional<String> serverIp) 作业立刻执行.作业在不与上次运行中作业冲突的情况下才会启动, 并在启动后自动清理此标记.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * serverIp — 作业服务器IP地址
-
-##### void disable(Optional<String> jobName, Optional<String> serverIp) 作业禁用.会重新分片.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * serverIp — 作业服务器IP地址
-
-##### void enable(Optional<String> jobName, Optional<String> serverIp) 作业启用.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * serverIp — 作业服务器IP地址
-
-##### void shutdown(Optional<String> jobName, Optional<String> serverIp) 作业关闭.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * serverIp — 作业服务器IP地址
-
-##### void remove(Optional<String> jobName, Optional<String> serverIp) 作业删除.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * serverIp — 作业服务器IP地址
-
-#### 2.2 `ShardingOperateAPI` 操作分片的API
-
-##### void disable(String jobName, String item) 禁用作业分片.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * item — 作业分片项
-
-##### void enable(String jobName, String item) 启用作业分片.
-
-* **Parameters:**
-  * jobName — 作业名称
-  * item — 作业分片项
-
-### 3. 统计类API
-
-#### 3.1 `JobStatisticsAPI` 作业状态展示的API
-
-##### int getJobsTotalCount() 获取作业总数.
-
-* **Returns:** 作业总数
-
-##### JobBriefInfo getJobBriefInfo(String jobName) 获取作业简明信息.
-
-* **Parameters:** jobName — 作业名称
- 
-* **Returns:** 作业简明信息
-
-##### Collection<JobBriefInfo> getAllJobsBriefInfo() 获取所有作业简明信息.
-
-* **Returns:** 作业简明信息集合
-
-##### Collection<JobBriefInfo> getJobsBriefInfo(String ip) 获取该IP下所有作业简明信息.
-
-* **Parameters:** ip — 服务器IP
- 
-* **Returns:** 作业简明信息集合
-
-#### 3.2 `ServerStatisticsAPI` 作业服务器状态展示的API
-
-##### int getServersTotalCount() 获取作业服务器总数.
-
-* **Returns:** 作业服务器总数
-
-##### Collection<ServerBriefInfo> getAllServersBriefInfo() 获取所有作业服务器简明信息.
-
-* **Returns:** 作业服务器简明信息集合
-
-#### 3.3 `ShardingStatisticsAPI` 作业分片状态展示的API
-
-##### Collection<ShardingInfo> getShardingInfo(String jobName) 获取作业分片信息集合.
-
-* **Parameters:** jobName — 作业名称
- 
-* **Returns:** 作业分片信息集合
+TODO
diff --git a/docs/content/user-manual/web-console.en.md b/docs/content/user-manual/web-console.en.md
index 86be960..a30e174 100644
--- a/docs/content/user-manual/web-console.en.md
+++ b/docs/content/user-manual/web-console.en.md
@@ -5,35 +5,4 @@ weight = 11
 chapter = true
 +++
 
-解压缩`elastic-job-lite-console-${version}.tar.gz`并执行bin\start.sh。打开浏览器访问`http://localhost:8899/`即可访问控制台。8899为默认端口号,可通过启动脚本输入-p自定义端口号。
-
-`elastic-job-lite-console-${version}.tar.gz`可通过mvn install编译获取。
-
-## 登录
-
-提供两种账户,管理员及访客,管理员拥有全部操作权限,访客仅拥有察看权限。默认管理员用户名和密码是root/root,访客用户名和密码是guest/guest,可通过conf\auth.properties修改管理员及访客用户名及密码。
-
-## 功能列表
-
-* 登录安全控制
-
-* 注册中心、事件追踪数据源管理
-
-* 快捷修改作业设置
-
-* 作业和服务器维度状态查看
-
-* 操作作业禁用\启用、停止和删除等生命周期
-
-* 事件追踪查询
-
-## 设计理念
-
-运维平台和elastic-job-lite并无直接关系,是通过读取作业注册中心数据展现作业状态,或更新注册中心数据修改全局配置。
-
-控制台只能控制作业本身是否运行,但不能控制作业进程的启动,因为控制台和作业本身服务器是完全分离的,控制台并不能控制作业服务器。
-
-## 不支持项
-
-* 添加作业
-作业在首次运行时将自动添加。Elastic-Job-Lite以jar方式启动,并无作业分发功能。如需完全通过运维平台发布作业,请使用Elastic-Job-Cloud。
+TODO