You are viewing a plain text version of this content. The canonical link for it is here.
Posted to commits@dolphinscheduler.apache.org by jo...@apache.org on 2019/12/04 12:06:24 UTC

[incubator-dolphinscheduler-website] branch revert-49-master created (now a919c82)

This is an automated email from the ASF dual-hosted git repository.

journey pushed a change to branch revert-49-master
in repository https://gitbox.apache.org/repos/asf/incubator-dolphinscheduler-website.git.


      at a919c82  Revert "Modify quick start, user manual  "

This branch includes the following new commits:

     new a919c82  Revert "Modify quick start, user manual  "

The 1 revisions listed above as "new" are entirely new to this
repository and will be described in separate emails.  The revisions
listed as "add" were already present in the repository and have only
been added to this reference.



[incubator-dolphinscheduler-website] 01/01: Revert "Modify quick start, user manual  "

Posted by jo...@apache.org.
This is an automated email from the ASF dual-hosted git repository.

journey pushed a commit to branch revert-49-master
in repository https://gitbox.apache.org/repos/asf/incubator-dolphinscheduler-website.git

commit a919c8201e51d64755d07dc267f84ceba1b4b7bb
Author: qiaozhanwei <qi...@outlook.com>
AuthorDate: Wed Dec 4 20:06:18 2019 +0800

    Revert "Modify quick start, user manual  "
---
 docs/en-us/user_doc/quick-start.md       |  22 +-
 docs/en-us/user_doc/system-manual.md     | 210 ++++----
 docs/zh-cn/user_doc/quick-start.md       |  14 +-
 docs/zh-cn/user_doc/system-manual.md     | 789 ++++++++++++-------------------
 img/Statistics.png                       | Bin 69251 -> 0 bytes
 img/addtenant.png                        | Bin 85215 -> 15441 bytes
 img/alarm-group-en.png                   | Bin 85472 -> 22743 bytes
 img/arrow.png                            | Bin 3729 -> 0 bytes
 img/auth-project-en.png                  | Bin 97132 -> 38090 bytes
 img/auth_user.png                        | Bin 107501 -> 10254 bytes
 img/creat_token.png                      | Bin 84027 -> 0 bytes
 img/create-datasource-en.png             | Bin 137955 -> 63342 bytes
 img/create-file.png                      | Bin 197478 -> 257575 bytes
 img/create-queue-en.png                  | Bin 79506 -> 256748 bytes
 img/create-queue.png                     | Bin 78280 -> 254254 bytes
 img/create-tenant-en.png                 | Bin 91406 -> 23181 bytes
 img/create-user-en.png                   | Bin 111260 -> 29137 bytes
 img/create_group_en.png                  | Bin 0 -> 21948 bytes
 img/create_queue_en.png                  | Bin 0 -> 15455 bytes
 img/create_tenant_en.png                 | Bin 0 -> 23262 bytes
 img/create_user_en.png                   | Bin 0 -> 29065 bytes
 img/current-node-en.png                  | Bin 151620 -> 50278 bytes
 img/dag0.png                             | Bin 156182 -> 0 bytes
 img/dag4.png                             | Bin 96284 -> 24671 bytes
 img/delete.png                           | Bin 3996 -> 0 bytes
 img/dependent-nodes-en.png               | Bin 268570 -> 474946 bytes
 img/double-click-en.png                  | Bin 348709 -> 514531 bytes
 img/edit-datasource-en.png               | Bin 135608 -> 140793 bytes
 img/editDag.png                          | Bin 107545 -> 0 bytes
 img/file-upload-en.png                   | Bin 113567 -> 23380 bytes
 img/file-view-en.png                     | Bin 182123 -> 412574 bytes
 img/file_create.png                      | Bin 196033 -> 48006 bytes
 img/file_rename.png                      | Bin 87874 -> 9581 bytes
 img/file_upload.png                      | Bin 99982 -> 14500 bytes
 img/flink.png                            | Bin 35897 -> 0 bytes
 img/flink_edit.png                       | Bin 157665 -> 0 bytes
 img/global_param.png                     | Bin 11035 -> 0 bytes
 img/global_parameter.png                 | Bin 395176 -> 116141 bytes
 img/global_parameters_en.png             | Bin 92345 -> 297256 bytes
 img/hell_dag.png                         | Bin 195097 -> 0 bytes
 img/hive-en.png                          | Bin 136652 -> 63662 bytes
 img/hive_edit.png                        | Bin 146315 -> 46641 bytes
 img/hive_edit2.png                       | Bin 143592 -> 48423 bytes
 img/home.png                             | Bin 70928 -> 0 bytes
 img/home_en.png                          | Bin 80943 -> 0 bytes
 img/http.png                             | Bin 19862 -> 0 bytes
 img/http_edit.png                        | Bin 155809 -> 0 bytes
 img/incubator-dolphinscheduler-1.1.0.png | Bin 146531 -> 0 bytes
 img/instanceViewLog.png                  | Bin 122912 -> 0 bytes
 img/java-program-en.png                  | Bin 258687 -> 66504 bytes
 img/line.png                             | Bin 3720 -> 0 bytes
 img/local_parameter.png                  | Bin 146531 -> 25661 bytes
 img/login.jpg                            | Bin 0 -> 49053 bytes
 img/login.png                            | Bin 130863 -> 0 bytes
 img/login_en.png                         | Bin 155386 -> 62592 bytes
 img/mail_edit.png                        | Bin 81205 -> 14438 bytes
 img/mr_edit.png                          | Bin 236993 -> 136183 bytes
 img/mr_java.png                          | Bin 197796 -> 0 bytes
 img/mysql-en.png                         | Bin 141245 -> 63979 bytes
 img/mysql_edit.png                       | Bin 103910 -> 48390 bytes
 img/node-setting-en.png                  | Bin 179675 -> 60223 bytes
 img/online.png                           | Bin 9868 -> 0 bytes
 img/postgresql_edit.png                  | Bin 113864 -> 32368 bytes
 img/procedure_edit.png                   | Bin 169101 -> 89355 bytes
 img/project-home.png                     | Bin 85207 -> 0 bytes
 img/python-en.png                        | Bin 220242 -> 92943 bytes
 img/python-program-en.png                | Bin 264774 -> 67233 bytes
 img/python_edit.png                      | Bin 188037 -> 467741 bytes
 img/redirect.png                         | Bin 145894 -> 0 bytes
 img/run_params.png                       | Bin 138944 -> 0 bytes
 img/run_params_button.png                | Bin 18919 -> 0 bytes
 img/shell-en.png                         | Bin 228311 -> 90325 bytes
 img/shell.png                            | Bin 7798 -> 0 bytes
 img/shell_dag.png                        | Bin 195097 -> 0 bytes
 img/shell_edit.png                       | Bin 0 -> 157618 bytes
 img/spark-submit-en.png                  | Bin 310471 -> 218246 bytes
 img/spark_datesource.png                 | Bin 102067 -> 29955 bytes
 img/spark_edit.png                       | Bin 276893 -> 123946 bytes
 img/sql-node.png                         | Bin 277611 -> 477610 bytes
 img/sql-node2.png                        | Bin 322814 -> 505130 bytes
 img/start-process-en.png                 | Bin 89147 -> 348124 bytes
 img/statistics-en.png                    | Bin 71466 -> 0 bytes
 img/sub-process-en.png                   | Bin 91597 -> 43911 bytes
 img/subprocess_edit.png                  | Bin 109610 -> 76964 bytes
 img/task_history.png                     | Bin 192196 -> 109027 bytes
 img/time-schedule3.png                   | Bin 39720 -> 0 bytes
 img/timeManagement.png                   | Bin 27044 -> 0 bytes
 img/timer-en.png                         | Bin 132972 -> 44114 bytes
 img/timing-en.png                        | Bin 113125 -> 103700 bytes
 img/timing.png                           | Bin 27550 -> 0 bytes
 img/token-en.png                         | Bin 86232 -> 0 bytes
 img/tree.png                             | Bin 126010 -> 0 bytes
 img/udf-function.png                     | Bin 167569 -> 42571 bytes
 img/udf_edit.png                         | Bin 92950 -> 26472 bytes
 img/user-defined-en.png                  | Bin 152237 -> 84667 bytes
 img/user-defined1-en.png                 | Bin 376676 -> 105812 bytes
 img/useredit2.png                        | Bin 106651 -> 17285 bytes
 img/work_list.png                        | Bin 127465 -> 0 bytes
 img/worker-group-en.png                  | Bin 85539 -> 275270 bytes
 img/worker1.png                          | Bin 81758 -> 253566 bytes
 img/worker_group.png                     | Bin 85119 -> 0 bytes
 img/worker_group_en.png                  | Bin 88694 -> 0 bytes
 img/zookeeper-en.png                     | Bin 137255 -> 64497 bytes
 md_json/docs.json                        |   6 -
 site_config/docs.js                      |  95 ----
 105 files changed, 402 insertions(+), 734 deletions(-)

diff --git a/docs/en-us/user_doc/quick-start.md b/docs/en-us/user_doc/quick-start.md
index 9f96e97..591fead 100755
--- a/docs/en-us/user_doc/quick-start.md
+++ b/docs/en-us/user_doc/quick-start.md
@@ -11,39 +11,25 @@
 * Create queue
 
 <p align="center">
-   <img src="/img/create-queue-en.png" width="60%" />
+   <img src="/img/create_queue_en.png" width="60%" />
  </p>
 
   * Create tenant
       <p align="center">
-    <img src="/img/create-tenant-en.png" width="60%" />
+    <img src="/img/create_tenant_en.png" width="60%" />
   </p>
 
   * Creating Ordinary Users
 <p align="center">
-      <img src="/img/create-user-en.png" width="60%" />
+      <img src="/img/create_user_en.png" width="60%" />
  </p>
 
   * Create an alarm group
 
  <p align="center">
-    <img src="/img/alarm-group-en.png" width="60%" />
+    <img src="/img/create_group_en.png" width="60%" />
   </p>
 
-  
-  * Create an worker group
-  
-   <p align="center">
-      <img src="/img/worker-group-en.png" width="60%" />
-    </p>
-    
- * Create an token
-  
-   <p align="center">
-      <img src="/img/token-en.png" width="60%" />
-    </p>
-     
-  
   * Log in with regular users
   > Click on the user name in the upper right corner to "exit" and re-use the normal user login.
 
diff --git a/docs/en-us/user_doc/system-manual.md b/docs/en-us/user_doc/system-manual.md
index f019d1d..e0ff0cd 100755
--- a/docs/en-us/user_doc/system-manual.md
+++ b/docs/en-us/user_doc/system-manual.md
@@ -2,22 +2,15 @@
 
 ## Operational Guidelines
 
-### Home page
-The homepage contains task status statistics, process status statistics, and workflow definition statistics for all user projects.
-
-<p align="center">
-      <img src="/img/home_en.png" width="80%" />
- </p>
-
 ### Create a project
 
   - Click "Project - > Create Project", enter project name,  description, and click "Submit" to create a new project.
   - Click on the project name to enter the project home page.
 <p align="center">
-      <img src="/img/project_home_en.png" width="80%" />
+      <img src="/img/project_home_en.png" width="60%" />
  </p>
 
-> The project home page contains task status statistics, process status statistics, and workflow definition statistics for the project.
+> Project Home Page contains task status statistics, process status statistics.
 
  - Task State Statistics: It refers to the statistics of the number of tasks to be run, failed, running, completed and succeeded in a given time frame.
  - Process State Statistics: It refers to the statistics of the number of waiting, failing, running, completing and succeeding process instances in a specified time range.
@@ -33,23 +26,23 @@ The homepage contains task status statistics, process status statistics, and wor
   - Timeout alarm. Fill in "Overtime Time". When the task execution time exceeds the overtime, it can alarm and fail over time.
   - Fill in "Custom Parameters" and refer to [Custom Parameters](#Custom Parameters)
     <p align="center">
-    <img src="/img/process_definitions_en.png" width="80%" />
+    <img src="/img/process_definitions_en.png" width="60%" />
       </p>
   - Increase the order of execution between nodes: click "line connection". As shown, task 2 and task 3 are executed in parallel. When task 1 is executed, task 2 and task 3 are executed simultaneously.
 
 <p align="center">
-   <img src="/img/task_en.png" width="80%" />
+   <img src="/img/task_en.png" width="60%" />
  </p>
 
   - Delete dependencies: Click on the arrow icon to "drag nodes and select items", select the connection line, click on the delete icon to delete dependencies between nodes.
 <p align="center">
-      <img src="/img/delete_dependencies_en.png" width="80%" />
+      <img src="/img/delete_dependencies_en.png" width="60%" />
  </p>
 
   - Click "Save", enter the name of the process definition, the description of the process definition, and set the global parameters.
 
 <p align="center">
-   <img src="/img/global_parameters_en.png" width="80%" />
+   <img src="/img/global_parameters_en.png" width="60%" />
  </p>
 
   - For other types of nodes, refer to [task node types and parameter settings](#task node types and parameter settings)
@@ -70,13 +63,13 @@ The homepage contains task status statistics, process status statistics, and wor
     * Cc: Enter the mailbox and press Enter key to save. When the process is over and fault-tolerant occurs, alarm messages are copied to the copier list.
     
 <p align="center">
-   <img src="/img/start-process-en.png" width="80%" />
+   <img src="/img/start-process-en.png" width="60%" />
  </p>
 
   * Complement: To implement the workflow definition of a specified date, you can select the time range of the complement (currently only support for continuous days), such as the data from May 1 to May 10, as shown in the figure:
   
 <p align="center">
-   <img src="/img/complement-en.png" width="80%" />
+   <img src="/img/complement-en.png" width="60%" />
  </p>
 
 > Complement execution mode includes serial execution and parallel execution. In serial mode, the complement will be executed sequentially from May 1 to May 10. In parallel mode, the tasks from May 1 to May 10 will be executed simultaneously.
@@ -86,12 +79,12 @@ The homepage contains task status statistics, process status statistics, and wor
   - Choose start-stop time, in the start-stop time range, regular normal work, beyond the scope, will not continue to produce timed workflow instances.
   
 <p align="center">
-   <img src="/img/timing-en.png" width="80%" />
+   <img src="/img/timing-en.png" width="60%" />
  </p>
 
   - Add a timer to be executed once a day at 5:00 a.m. as shown below:
 <p align="center">
-      <img src="/img/timer-en.png" width="80%" />
+      <img src="/img/timer-en.png" width="60%" />
  </p>
 
   - Timely online,**the newly created timer is offline. You need to click "Timing Management - >online" to work properly.**
@@ -102,26 +95,26 @@ The homepage contains task status statistics, process status statistics, and wor
   > Click on the process name to see the status of task execution.
 
   <p align="center">
-   <img src="/img/process-instances-en.png" width="80%" />
+   <img src="/img/process-instances-en.png" width="60%" />
  </p>
 
   > Click on the task node, click "View Log" to view the task execution log.
 
   <p align="center">
-   <img src="/img/view-log-en.png" width="80%" />
+   <img src="/img/view-log-en.png" width="60%" />
  </p>
 
  > Click on the task instance node, click **View History** to view the list of task instances that the process instance runs.
 
  <p align="center">
-    <img src="/img/instance-runs-en.png" width="80%" />
+    <img src="/img/instance-runs-en.png" width="60%" />
   </p>
 
 
   > Operations on workflow instances:
 
 <p align="center">
-   <img src="/img/workflow-instances-en.png" width="80%" />
+   <img src="/img/workflow-instances-en.png" width="60%" />
 </p>
 
   * Editor: You can edit the terminated process. When you save it after editing, you can choose whether to update the process definition or not.
@@ -133,7 +126,7 @@ The homepage contains task status statistics, process status statistics, and wor
   * Delete: Delete process instances and task instances under process instances
   * Gantt diagram: The vertical axis of Gantt diagram is the topological ordering of task instances under a process instance, and the horizontal axis is the running time of task instances, as shown in the figure:
 <p align="center">
-      <img src="/img/gantt-en.png" width="80%" />
+      <img src="/img/gantt-en.png" width="60%" />
 </p>
 
 ### View task instances
@@ -142,13 +135,13 @@ The homepage contains task status statistics, process status statistics, and wor
   >
 
 <p align="center">
-   <img src="/img/task-instances-en.png" width="80%" />
+   <img src="/img/task-instances-en.png" width="60%" />
 </p>
 
   > Click "View Log" in the action column to view the log of task execution.
 
 <p align="center">
-   <img src="/img/task-execution-en.png" width="80%" />
+   <img src="/img/task-execution-en.png" width="60%" />
 </p>
 
 ### Create data source
@@ -168,7 +161,7 @@ The homepage contains task status statistics, process status statistics, and wor
 - Jdbc connection parameters: parameter settings for MySQL connections, filled in as JSON
 
 <p align="center">
-   <img src="/img/mysql-en.png" width="80%" />
+   <img src="/img/mysql-en.png" width="60%" />
  </p>
 
   > Click "Test Connect" to test whether the data source can be successfully connected.
@@ -188,7 +181,7 @@ The homepage contains task status statistics, process status statistics, and wor
 - Jdbc connection parameters: parameter settings for POSTGRESQL connections, filled in as JSON
 
 <p align="center">
-   <img src="/img/create-datasource-en.png" width="80%" />
+   <img src="/img/create-datasource-en.png" width="60%" />
  </p>
 
 #### Create and edit HIVE data source
@@ -196,7 +189,7 @@ The homepage contains task status statistics, process status statistics, and wor
 1.Connect with HiveServer 2
 
  <p align="center">
-    <img src="/img/hive-en.png" width="80%" />
+    <img src="/img/hive-en.png" width="60%" />
   </p>
 
   - Datasource: Select HIVE
@@ -212,22 +205,22 @@ The homepage contains task status statistics, process status statistics, and wor
 2.Connect using Hive Server 2 HA Zookeeper mode
 
  <p align="center">
-    <img src="/img/zookeeper-en.png" width="80%" />
+    <img src="/img/zookeeper-en.png" width="60%" />
   </p>
 
 
 Note: If **kerberos** is turned on, you need to fill in **Principal**
 <p align="center">
-    <img src="/img/principal-en.png" width="80%" />
+    <img src="/img/principal-en.png" width="60%" />
   </p>
 
 
 
 
-#### Create and Edit Spark Datasource
+#### Create and Edit Datasource
 
 <p align="center">
-   <img src="/img/edit-datasource-en.png" width="80%" />
+   <img src="/img/edit-datasource-en.png" width="60%" />
  </p>
 
 - Datasource: Select Spark
@@ -245,41 +238,20 @@ Note: If **kerberos** is turned on, you need to fill in **Principal**
 Note: If **kerberos** If Kerberos is turned on, you need to fill in  **Principal**
 
 <p align="center">
-    <img src="/img/kerberos-en.png" width="80%" />
+    <img src="/img/kerberos-en.png" width="60%" />
   </p>
 
 ### Upload Resources
   - Upload resource files and udf functions, all uploaded files and resources will be stored on hdfs, so the following configuration items are required:
 
 ```
-conf/common/common.properties  
-    # Users who have permission to create directories under the HDFS root path
-    hdfs.root.user=hdfs
-    # data base dir, resource file will store to this hadoop hdfs path, self configuration, please make sure the directory exists on hdfs and have read write permissions。"/escheduler" is recommended
-    data.store2hdfs.basepath=/dolphinscheduler
-    # resource upload startup type : HDFS,S3,NONE
-    res.upload.startup.type=HDFS
-    # whether kerberos starts
-    hadoop.security.authentication.startup.state=false
-    # java.security.krb5.conf path
-    java.security.krb5.conf.path=/opt/krb5.conf
-    # loginUserFromKeytab user
-    login.user.keytab.username=hdfs-mycluster@ESZ.COM
-    # loginUserFromKeytab path
-    login.user.keytab.path=/opt/hdfs.headless.keytab
-    
-conf/common/hadoop.properties      
-    # ha or single namenode,If namenode ha needs to copy core-site.xml and hdfs-site.xml
-    # to the conf directory,support s3,for example : s3a://dolphinscheduler
-    fs.defaultFS=hdfs://mycluster:8020    
-    #resourcemanager ha note this need ips , this empty if single
-    yarn.resourcemanager.ha.rm.ids=192.168.xx.xx,192.168.xx.xx    
-    # If it is a single resourcemanager, you only need to configure one host name. If it is resourcemanager HA, the default configuration is fine
-    yarn.application.status.address=http://xxxx:8088/ws/v1/cluster/apps/%s
-
+conf/common/common.properties
+    -- hdfs.startup.state=true
+conf/common/hadoop.properties  
+    -- fs.defaultFS=hdfs://xxxx:8020  
+    -- yarn.resourcemanager.ha.rm.ids=192.168.xx.xx,192.168.xx.xx
+    -- yarn.application.status.address=http://xxxx:8088/ws/v1/cluster/apps/%s
 ```
-- yarn.resourcemanager.ha.rm.ids and yarn.application.status.address only need to configure one address, and the other address is empty.
-- You need to copy core-site.xml and hdfs-site.xml from the conf directory of the Hadoop cluster to the conf directory of the dolphinscheduler project and restart the api-server service.
 
 #### File Manage
 
@@ -287,14 +259,14 @@ conf/common/hadoop.properties
   >
   >
   > <p align="center">
-  >  <img src="/img/file-manage-en.png" width="80%" />
+  >  <img src="/img/file-manage-en.png" width="60%" />
   > </p>
 
   * Create file
  > File formats support the following types:txt、log、sh、conf、cfg、py、java、sql、xml、hql
 
 <p align="center">
-   <img src="/img/create-file.png" width="80%" />
+   <img src="/img/create-file.png" width="60%" />
  </p>
 
   * Upload Files
@@ -302,7 +274,7 @@ conf/common/hadoop.properties
 > Upload Files: Click the Upload button to upload, drag the file to the upload area, and the file name will automatically complete the uploaded file name.
 
 <p align="center">
-   <img src="/img/file-upload-en.png" width="80%" />
+   <img src="/img/file-upload-en.png" width="60%" />
  </p>
 
 
@@ -311,7 +283,7 @@ conf/common/hadoop.properties
 > For viewable file types, click on the file name to view file details
 
 <p align="center">
-   <img src="/img/file-view-en.png" width="80%" />
+   <img src="/img/file-view-en.png" width="60%" />
  </p>
 
   * Download files
@@ -321,7 +293,7 @@ conf/common/hadoop.properties
   * File rename
 
 <p align="center">
-   <img src="/img/rename-en.png" width="80%" />
+   <img src="/img/rename-en.png" width="60%" />
  </p>
 
 #### Delete
@@ -353,13 +325,13 @@ conf/common/hadoop.properties
   > 
 
 <p align="center">
-   <img src="/img/udf-function.png" width="80%" />
+   <img src="/img/udf-function.png" width="60%" />
  </p>
 
 ## Security
 
   - The security has the functions of queue management, tenant management, user management, warning group management, worker group manager, token manage and other functions. It can also authorize resources, data sources, projects, etc.
-- Administrator login, default username password: admin/dolphinscheduler123
+- Administrator login, default username password: admin/dolphinscheduler 123
 
 
 
@@ -370,7 +342,7 @@ conf/common/hadoop.properties
   - Queues are used to execute spark, mapreduce and other programs, which require the use of "queue" parameters.
 - "Security" - > "Queue Manage" - > "Create Queue" 
      <p align="center">
-    <img src="/img/create-queue-en.png" width="80%" />
+    <img src="/img/create-queue-en.png" width="60%" />
   </p>
 
 
@@ -379,7 +351,7 @@ conf/common/hadoop.properties
   - Tenant Code:**the tenant code is the only account on Linux that can't be duplicated.**
 
  <p align="center">
-    <img src="/img/create-tenant-en.png" width="80%" />
+    <img src="/img/create-tenant-en.png" width="60%" />
   </p>
 
 ### Create Ordinary Users
@@ -388,14 +360,14 @@ conf/common/hadoop.properties
     * Ordinary users can **create projects and create, edit, and execute process definitions**.
     * Note: **If the user switches the tenant, all resources under the tenant will be copied to the switched new tenant.**
 <p align="center">
-      <img src="/img/create-user-en.png" width="80%" />
+      <img src="/img/create-user-en.png" width="60%" />
  </p>
 
 ### Create alarm group
   * The alarm group is a parameter set at start-up. After the process is finished, the status of the process and other information will be sent to the alarm group by mail.
   * New and Editorial Warning Group
     <p align="center">
-    <img src="/img/alarm-group-en.png" width="80%" />
+    <img src="/img/alarm-group-en.png" width="60%" />
     </p>
 
 ### Create Worker Group
@@ -403,14 +375,11 @@ conf/common/hadoop.properties
 - Multiple IP addresses within a worker group (**aliases can not be written**), separated by **commas in English**
 
   <p align="center">
-    <img src="/img/worker-group-en.png" width="80%" />
+    <img src="/img/worker-group-en.png" width="60%" />
   </p>
 
 ### Token manage
   - Because the back-end interface has login check and token management, it provides a way to operate the system by calling the interface.
-    <p align="center">
-      <img src="/img/token-en.png" width="80%" />
-    </p>
 - Call examples:
 
 ```令牌调用示例
@@ -456,13 +425,13 @@ conf/common/hadoop.properties
 
   - 1.Click on the authorization button of the designated person as follows:
     <p align="center">
-      <img src="/img/operation-en.png" width="80%" />
+      <img src="/img/operation-en.png" width="60%" />
  </p>
 
 - 2.Select the project button to authorize the project
 
 <p align="center">
-   <img src="/img/auth-project-en.png" width="80%" />
+   <img src="/img/auth-project-en.png" width="60%" />
  </p>
 
 ### Monitor center
@@ -471,39 +440,29 @@ conf/common/hadoop.properties
 #### Master monitor
   - Mainly related information about master.
 <p align="center">
-      <img src="/img/master-monitor-en.png" width="80%" />
+      <img src="/img/master-monitor-en.png" width="60%" />
  </p>
 
 #### Worker monitor
   - Mainly related information of worker.
 
 <p align="center">
-   <img src="/img/worker-monitor-en.png" width="80%" />
+   <img src="/img/worker-monitor-en.png" width="60%" />
  </p>
 
 #### Zookeeper monitor
   - Mainly the configuration information of each worker and master in zookpeeper.
 
 <p align="center">
-   <img src="/img/zookeeper-monitor-en.png" width="80%" />
+   <img src="/img/zookeeper-monitor-en.png" width="60%" />
  </p>
 
 #### DB monitor
-  - Mainly the health status of DB
+  - Mainly the health status of mysql
 
 <p align="center">
-   <img src="/img/db-monitor-en.png" width="80%" />
- </p>
- 
-#### statistics Manage
- <p align="center">
-   <img src="/img/statistics-en.png" width="80%" />
+   <img src="/img/db-monitor-en.png" width="60%" />
  </p>
-  
-  -  Commands to be executed: statistics on t_ds_command table
-  -  Number of commands that failed to execute: statistics on the t_ds_error_command table
-  -  Number of tasks to run: statistics of task_queue data in zookeeper
-  -  Number of tasks to be killed: statistics of task_kill in zookeeper
 
 ## Task Node Type and Parameter Setting
 
@@ -513,7 +472,7 @@ conf/common/hadoop.properties
 > Drag the ![PNG](https://analysys.github.io/easyscheduler_docs/images/toolbar_SHELL.png) task node in the toolbar onto the palette and double-click the task node as follows:
 
 <p align="center">
-   <img src="/img/shell-en.png" width="80%" />
+   <img src="/img/shell-en.png" width="60%" />
  </p>`
 
 - Node name: The node name in a process definition is unique
@@ -530,7 +489,7 @@ conf/common/hadoop.properties
 > Drag the ![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SUB_PROCESS.png) task node in the toolbar onto the palette and double-click the task node as follows:
 
 <p align="center">
-   <img src="/img/sub-process-en.png" width="80%" />
+   <img src="/img/sub-process-en.png" width="60%" />
  </p>
 
 - Node name: The node name in a process definition is unique
@@ -545,7 +504,7 @@ conf/common/hadoop.properties
 > Drag the ![PNG](https://analysys.github.io/easyscheduler_docs/images/toolbar_DEPENDENT.png) ask node in the toolbar onto the palette and double-click the task node as follows:
 
 <p align="center">
-   <img src="/img/current-node-en.png" width="80%" />
+   <img src="/img/current-node-en.png" width="60%" />
  </p>
 
   > Dependent nodes provide logical judgment functions, such as checking whether yesterday's B process was successful or whether the C process was successfully executed.
@@ -571,7 +530,7 @@ conf/common/hadoop.properties
 > Drag the ![PNG](https://analysys.github.io/easyscheduler_docs/images/toolbar_PROCEDURE.png) task node in the toolbar onto the palette and double-click the task node as follows:
 
 <p align="center">
-   <img src="/img/node-setting-en.png" width="80%" />
+   <img src="/img/node-setting-en.png" width="60%" />
  </p>
 
 - Datasource: The data source type of stored procedure supports MySQL and POSTGRESQL, and chooses the corresponding data source.
@@ -579,16 +538,16 @@ conf/common/hadoop.properties
 - Custom parameters: Custom parameter types of stored procedures support IN and OUT, and data types support nine data types: VARCHAR, INTEGER, LONG, FLOAT, DOUBLE, DATE, TIME, TIMESTAMP and BOOLEAN.
 
 ### SQL
-  - Drag the ![PNG](https://analysys.github.io/easyscheduler_docs/images/toolbar_SQL.png) task node in the toolbar onto the palette.
   - Execute non-query SQL functionality
     <p align="center">
-      <img src="/img/dependent-nodes-en.png" width="80%" />
+      <img src="/img/dependent-nodes-en.png" width="60%" />
  </p>
 
   - Executing the query SQL function, you can choose to send mail in the form of tables and attachments to the designated recipients.
+> Drag the ![PNG](https://analysys.github.io/easyscheduler_docs/images/toolbar_SQL.png) task node in the toolbar onto the palette and double-click the task node as follows:
 
 <p align="center">
-   <img src="/img/double-click-en.png" width="80%" />
+   <img src="/img/double-click-en.png" width="60%" />
  </p>
 
 - Datasource: Select the corresponding datasource
@@ -597,8 +556,6 @@ conf/common/hadoop.properties
 - sql statement: SQL statement
 - UDF function: For HIVE type data sources, you can refer to UDF functions created in the resource center, other types of data sources do not support UDF functions for the time being.
 - Custom parameters: SQL task type, and stored procedure is to customize the order of parameters to set values for methods. Custom parameter type and data type are the same as stored procedure task type. The difference is that the custom parameter of the SQL task type replaces the ${variable} in the SQL statement.
-- Pre Statement: Pre-sql is executed before the sql statement
-- Post Statement: Post-sql is executed after the sql statement
 
 
 
@@ -611,7 +568,7 @@ conf/common/hadoop.properties
 > 
 
 <p align="center">
-   <img src="/img/spark-submit-en.png" width="80%" />
+   <img src="/img/spark-submit-en.png" width="60%" />
  </p>
 
 - Program Type: Support JAVA, Scala and Python
@@ -636,7 +593,7 @@ Note: JAVA and Scala are just used for identification, no difference. If it's a
  1. JAVA program
 
  <p align="center">
-    <img src="/img/java-program-en.png" width="80%" />
+    <img src="/img/java-program-en.png" width="60%" />
   </p>
 
 - Class of the main function: The full path of the MR program's entry Main Class
@@ -650,7 +607,7 @@ Note: JAVA and Scala are just used for identification, no difference. If it's a
 2. Python program
 
 <p align="center">
-   <img src="/img/python-program-en.png" width="80%" />
+   <img src="/img/python-program-en.png" width="60%" />
  </p>
 
 - Program Type: Select Python Language
@@ -670,7 +627,7 @@ Note: JAVA and Scala are just used for identification, no difference. If it's a
 > Drag the ![PNG](https://analysys.github.io/easyscheduler_docs/images/toolbar_PYTHON.png) task node in the toolbar onto the palette and double-click the task node as follows:
 
 <p align="center">
-   <img src="/img/python-en.png" width="80%" />
+   <img src="/img/python-en.png" width="60%" />
  </p>
 
 - Script: User-developed Python program
@@ -698,44 +655,45 @@ Note: JAVA and Scala are just used for identification, no difference. If it's a
 
 ### Time Customization Parameters
 
- -  Support code to customize the variable name, declaration: ${variable name}. It can refer to "system parameters" or specify "constants".
+> Support code to customize the variable name, declaration: ${variable name}. It can refer to "system parameters" or specify "constants".
 
- -  When we define this benchmark variable as $[...], [yyyyMMddHHmmss] can be decomposed and combined arbitrarily, such as:$[yyyyMMdd], $[HHmmss], $[yyyy-MM-dd] ,etc.
+> When we define this benchmark variable as $[...], [yyyyMMddHHmmss] can be decomposed and combined arbitrarily, such as:$[yyyyMMdd], $[HHmmss], $[yyyy-MM-dd] ,etc.
 
- -  Can also do this:
- 
+> Can also do this:
+>
+> 
 
+- Later N years: $[add_months (yyyyyyMMdd, 12*N)]
+- The previous N years: $[add_months (yyyyyyMMdd, -12*N)]
+- Later N months: $[add_months (yyyyyMMdd, N)]
+- The first N months: $[add_months (yyyyyyMMdd, -N)]
+- Later N weeks: $[yyyyyyMMdd + 7*N]
+- The first N weeks: $[yyyyyMMdd-7*N]
+- The day after that: $[yyyyyyMMdd + N]
+- The day before yesterday: $[yyyyyMMdd-N]
+- Later N hours: $[HHmmss + N/24]
+- First N hours: $[HHmmss-N/24]
+- After N minutes: $[HHmmss + N/24/60]
+- First N minutes: $[HHmmss-N/24/60]
 
-    *  Later N years: $[add_months (yyyyyyMMdd, 12*N)]
-    *  The previous N years: $[add_months (yyyyyyMMdd, -12*N)]
-    *  Later N months: $[add_months (yyyyyMMdd, N)]
-    *  The first N months: $[add_months (yyyyyyMMdd, -N)]
-    *  Later N weeks: $[yyyyyyMMdd + 7*N]
-    *  The first N weeks: $[yyyyyMMdd-7*N]
-    *  The day after that: $[yyyyyyMMdd + N]
-    *  The day before yesterday: $[yyyyyMMdd-N]
-    *  Later N hours: $[HHmmss + N/24]
-    *  First N hours: $[HHmmss-N/24]
-    *  After N minutes: $[HHmmss + N/24/60]
-    *  First N minutes: $[HHmmss-N/24/60]
 
 
 ### User-defined parameters
 
- - User-defined parameters are divided into global parameters and local parameters. Global parameters are the global parameters passed when the process definition and process instance are saved. Global parameters can be referenced by local parameters of any task node in the whole process.
+> User-defined parameters are divided into global parameters and local parameters. Global parameters are the global parameters passed when the process definition and process instance are saved. Global parameters can be referenced by local parameters of any task node in the whole process.
 
-  For example:
+> For example:
 <p align="center">
-   <img src="/img/user-defined-en.png" width="80%" />
+   <img src="/img/user-defined-en.png" width="60%" />
  </p>
 
- - global_bizdate is a global parameter, referring to system parameters.
+> global_bizdate is a global parameter, referring to system parameters.
 
 <p align="center">
-   <img src="/img/user-defined1-en.png" width="80%" />
+   <img src="/img/user-defined1-en.png" width="60%" />
  </p>
 
- - In tasks, local_param_bizdate refers to global parameters by  \${global_bizdate} for scripts, the value of variable local_param_bizdate can be referenced by \${local_param_bizdate}, or the value of local_param_bizdate can be set directly by JDBC.
+> In tasks, local_param_bizdate refers to global parameters by  ${global_bizdate} for scripts, the value of variable local_param_bizdate can be referenced by${local_param_bizdate}, or the value of local_param_bizdate can be set directly by JDBC.
 
 
 
diff --git a/docs/zh-cn/user_doc/quick-start.md b/docs/zh-cn/user_doc/quick-start.md
index b57b21a..8e02bcd 100755
--- a/docs/zh-cn/user_doc/quick-start.md
+++ b/docs/zh-cn/user_doc/quick-start.md
@@ -4,10 +4,11 @@
   >地址:192.168.xx.xx:8888 用户名密码:admin/dolphinscheduler123
 
 <p align="center">
-   <img src="/img/login.png" width="60%" />
+   <img src="/img/login.jpg" width="60%" />
  </p>
 
 * 创建队列
+
 <p align="center">
    <img src="/img/create-queue.png" width="60%" />
  </p>
@@ -23,18 +24,9 @@
  </p>
 
   * 创建告警组
- <p align="center">
-    <img src="/img/mail_edit.png" width="60%" />
-  </p>
 
- * 创建Worker分组
  <p align="center">
-    <img src="/img/worker_group.png" width="60%" />
-  </p>
- 
- * 创建token令牌
- <p align="center">
-    <img src="/img/creat_token.png" width="60%" />
+    <img src="/img/mail_edit.png" width="60%" />
   </p>
 
   * 使用普通用户登录
diff --git a/docs/zh-cn/user_doc/system-manual.md b/docs/zh-cn/user_doc/system-manual.md
index ad465ec..bc7dc6c 100755
--- a/docs/zh-cn/user_doc/system-manual.md
+++ b/docs/zh-cn/user_doc/system-manual.md
@@ -7,312 +7,155 @@
 
 ## 操作指南
 
-### 1. 首页
-   首页包含用户所有项目的任务状态统计、流程状态统计、工作流定义统计。
-    <p align="center">
-     <img src="/img/home.png" width="80%" />
-    </p>
-
-### 2. 项目管理
-#### 2.1 创建项目
-  - 点击"项目管理"进入项目管理页面,点击“创建项目”按钮,输入项目名称,项目描述,点击“提交”,创建新的项目。
-  
-    <p align="center">
-        <img src="/img/project.png" width="80%" />
-    </p>
-
-#### 2.2 项目首页
-   - 在项目管理页面点击项目名称链接,进入项目首页,如下图所示,项目首页包含该项目的任务状态统计、流程状态统计、工作流定义统计。
-     <p align="center">
-        <img src="/img/project-home.png" width="80%" />
-     </p>
- 
- - 任务状态统计:在指定时间范围内,统计任务实例中状态为提交成功、正在运行、准备暂停、暂停、准备停止、停止、失败、成功、需要容错、kill、等待线程的个数
- - 流程状态统计:在指定时间范围内,统计工作流实例中状态为提交成功、正在运行、准备暂停、暂停、准备停止、停止、失败、成功、需要容错、kill、等待线程的个数
- - 工作流定义统计:统计用户创建的工作流定义及管理员授予该用户的工作流定义
-
-#### 2.3 工作流定义
-#### <span id=creatDag>2.3.1 创建工作流定义</span>
-  - 点击项目管理->工作流->工作流定义,进入工作流定义页面,点击“创建工作流”按钮,进入**工作流DAG编辑**页面,如下图所示:
-    <p align="center">
-        <img src="/img/dag0.png" width="80%" />
-    </p>  
-  - 工具栏中拖拽<img src="/img/shell.png" width="35"/>到画板中,新增一个Shell任务,如下图所示:
-    <p align="center">
-        <img src="/img/shell_dag.png" width="80%" />
-    </p>  
-  - **添加shell任务的参数设置:**
-  1. 填写“节点名称”,“描述”,“脚本”字段;
-  1. “运行标志”勾选“正常”,若勾选“禁止执行”,运行工作流不会执行该任务;
-  1. 选择“任务优先级”:当worker线程数不足时,级别高的任务在执行队列中会优先执行,相同优先级的任务按照先进先出的顺序执行;
-  1. 超时告警(非必选):勾选超时告警、超时失败,填写“超时时长”,当任务执行时间超过**超时时长**,会发送告警邮件并且任务超时失败;
-  1. 资源(非必选)。资源文件是资源中心->文件管理页面创建或上传的文件,如文件名为`test.sh`,脚本中调用资源命令为`sh test.sh`;
-  1. 自定义参数(非必填),参考[自定义参数](#UserDefinedParameters);
-  1. 点击"确认添加"按钮,保存任务设置。
-  
-  - **增加任务执行的先后顺序:** 点击右上角图标<img src="/img/line.png" width="35"/>连接任务;如下图所示,任务2和任务3并行执行,当任务1执行完,任务2、3会同时执行。
-
-    <p align="center">
-       <img src="/img/dag2.png" width="80%" />
-    </p>
-
-  - **删除依赖关系:** 点击右上角"箭头"图标<img src="/img/arrow.png" width="35"/>,选中连接线,点击右上角"删除"图标<img src="/img/delete.png" width="35"/>,删除任务间的依赖关系。
-    <p align="center">
-       <img src="/img/dag3.png" width="80%" />
-    </p>
-
-  - **保存工作流定义:** 点击”保存“按钮,弹出"设置DAG图名称"弹框,如下图所示,输入工作流定义名称,工作流定义描述,设置全局参数(选填,参考[自定义参数](#UserDefinedParameters)),点击"添加"按钮,工作流定义创建成功。
-    <p align="center">
-       <img src="/img/dag4.png" width="80%" />
-     </p>
-  > 其他类型任务,请参考 [任务节点类型和参数设置](#TaskParamers)。
-#### 2.3.2  工作流定义操作功能
-  点击项目管理->工作流->工作流定义,进入工作流定义页面,如下图所示:
-      <p align="center">
-          <img src="/img/work_list.png" width="80%" />
-      </p>
-  工作流定义列表的操作功能如下:
-  - **编辑:** 只能编辑"下线"的工作流定义。工作流DAG编辑同[创建工作流定义](#creatDag)。
-  - **上线:** 工作流状态为"下线"时,上线工作流,只有"上线"状态的工作流能运行,但不能编辑。
-  - **下线:** 工作流状态为"上线"时,下线工作流,下线状态的工作流可以编辑,但不能运行。
-  - **运行:** 只有上线的工作流能运行。运行操作步骤见[2.3.3 运行工作流](#runWorkflow)
-  - **定时:** 只有上线的工作流能设置定时,系统自动定时调度工作流运行。创建定时后的状态为"下线",需在定时管理页面上线定时才生效。定时操作步骤见[2.3.4 工作流定时](#creatTiming)。
-  - **定时管理:** 定时管理页面可编辑、上线/下线、删除定时。
-  - **删除:** 删除工作流定义。
-  - **下载:** 下载工作流定义到本地。
-  - **树形图:** 以树形结构展示任务节点的类型及任务状态,如下图所示:
-    <p align="center">
-        <img src="/img/tree.png" width="80%" />
-    </p>  
-
-#### <span id=runWorkflow>2.3.3 运行工作流</span>
-  - 点击项目管理->工作流->工作流定义,进入工作流定义页面,如下图所示,点击"上线"按钮<img src="/img/online.png" width="35"/>,上线工作流。
-    <p align="center">
-        <img src="/img/work_list.png" width="80%" />
-    </p>
-
-  - 点击”运行“按钮,弹出启动参数设置弹框,如下图所示,设置启动参数,点击弹框中的"运行"按钮,工作流开始运行,工作流实例页面生成一条工作流实例。
-     <p align="center">
-       <img src="/img/run-work.png" width="80%" />
-     </p>  
-  <span id=runParamers>工作流运行参数说明:</span> 
-       
-    * 失败策略:当某一个任务节点执行失败时,其他并行的任务节点需要执行的策略。”继续“表示:某一任务失败后,其他任务节点正常执行;”结束“表示:终止所有正在执行的任务,并终止整个流程。
-    * 通知策略:当流程结束,根据流程状态发送流程执行信息通知邮件,包含任何状态都不发,成功发,失败发,成功或失败都发。
-    * 流程优先级:流程运行的优先级,分五个等级:最高(HIGHEST),高(HIGH),中(MEDIUM),低(LOW),最低(LOWEST)。当master线程数不足时,级别高的流程在执行队列中会优先执行,相同优先级的流程按照先进先出的顺序执行。
-    * worker分组:该流程只能在指定的worker机器组里执行。默认是Default,可以在任一worker上执行。
-    * 通知组:选择通知策略||超时报警||发生容错时,会发送流程信息或邮件到通知组里的所有成员。
-    * 收件人:选择通知策略||超时报警||发生容错时,会发送流程信息或告警邮件到收件人列表。
-    * 抄送人:选择通知策略||超时报警||发生容错时,会抄送流程信息或告警邮件到抄送人列表。
-    * 补数:包括串行补数、并行补数2种模式。串行补数:指定时间范围内,从开始日期至结束日期依次执行补数,只生成一条流程实例;并行补数:指定时间范围内,多天同时进行补数,生成N条流程实例。 
-  * 补数: 执行指定日期的工作流定义,可以选择补数时间范围(目前只支持针对连续的天进行补数),比如需要补5月1号到5月10号的数据,如下图所示: 
-    <p align="center">
-        <img src="/img/complement.png" width="80%" />
-    </p>
-
-    >串行模式:补数从5月1号到5月10号依次执行,流程实例页面生成一条流程实例;
-    
-    >并行模式:同时执行5月1号到5月10号的任务,流程实例页面生成十条流程实例。
-
-#### <span id=creatTiming>2.3.4 工作流定时</span>
-  - 创建定时:点击项目管理->工作流->工作流定义,进入工作流定义页面,上线工作流,点击"定时"按钮<img src="/img/timing.png" width="35"/>,弹出定时参数设置弹框,如下图所示:
-    <p align="center">
-        <img src="/img/time-schedule.png" width="80%" />
-    </p>
-  - 选择起止时间。在起止时间范围内,定时运行工作流;不在起止时间范围内,不再产生定时工作流实例。
-  - 添加一个每天凌晨5点执行一次的定时,如下图所示:
-    <p align="center">
-        <img src="/img/time-schedule2.png" width="80%" />
-    </p>
-  - 失败策略、通知策略、流程优先级、Worker分组、通知组、收件人、抄送人同[工作流运行参数](#runParamers)。
-  - 点击"创建"按钮,创建定时成功,此时定时状态为"**下线**",定时需**上线**才生效。
-  - 定时上线:点击"定时管理"按钮<img src="/img/timeManagement.png" width="35"/>,进入定时管理页面,点击"上线"按钮,定时状态变为"上线",如下图所示,工作流定时生效。
-    <p align="center">
-        <img src="/img/time-schedule3.png" width="80%" />
-    </p>
-#### 2.3.5 导入工作流
-  点击项目管理->工作流->工作流定义,进入工作流定义页面,点击"导入工作流"按钮,导入本地工作流文件,工作流定义列表显示导入的工作流,状态为下线。
-
-#### 2.4 工作流实例
-#### 2.4.1 查看工作流实例
-   - 点击项目管理->工作流->工作流实例,进入工作流实例页面,如下图所示:
-        <p align="center">
-           <img src="/img/instance-list.png" width="80%" />
-        </p>           
-   -  点击工作流名称,进入DAG查看页面,查看任务执行状态,如下图所示。
-      <p align="center">
-        <img src="/img/instance-detail.png" width="80%" />
-      </p>
-#### 2.4.2 查看任务日志
-   - 进入工作流实例页面,点击工作流名称,进入DAG查看页面,双击任务节点,如下图所示:
-      <p align="center">
-        <img src="/img/instanceViewLog.png" width="80%" />
-      </p>
-   - 点击"查看日志",弹出日志弹框,如下图所示,任务实例页面也可查看任务日志,参考[任务查看日志](#taskLog)。
-      <p align="center">
-        <img src="/img/task-log.png" width="80%" />
-      </p>
-#### 2.4.3 查看任务历史记录
-   - 点击项目管理->工作流->工作流实例,进入工作流实例页面,点击工作流名称,进入工作流DAG页面;
-   - 双击任务节点,如下图所示,点击"查看历史",跳转到任务实例页面,并展示该工作流实例运行的任务实例列表
-      <p align="center">
-        <img src="/img/task_history.png" width="80%" />
-      </p>
-      
-#### 2.4.4 查看运行参数
-   - 点击项目管理->工作流->工作流实例,进入工作流实例页面,点击工作流名称,进入工作流DAG页面; 
-   - 点击左上角图标<img src="/img/run_params_button.png" width="35"/>,查看工作流实例的启动参数;点击图标<img src="/img/global_param.png" width="35"/>,查看工作流实例的全局参数和局部参数,如下图所示:
-      <p align="center">
-        <img src="/img/run_params.png" width="80%" />
-      </p>      
- 
-#### 2.4.4 工作流实例操作功能
-   点击项目管理->工作流->工作流实例,进入工作流实例页面,如下图所示:          
-      <p align="center">
-        <img src="/img/instance-list.png" width="80%" />
-      </p>
-
-  - **编辑:** 只能编辑已终止的流程。点击"编辑"按钮或工作流实例名称进入DAG编辑页面,编辑后点击"保存"按钮,弹出保存DAG弹框,如下图所示,在弹框中勾选"是否更新到工作流定义",保存后则更新工作流定义;若不勾选,则不更新工作流定义。
-       <p align="center">
-         <img src="/img/editDag.png" width="80%" />
-       </p>
-  - **重跑:** 重新执行已经终止的流程。
-  - **恢复失败:** 针对失败的流程,可以执行恢复失败操作,从失败的节点开始执行。
-  - **停止:** 对正在运行的流程进行**停止**操作,后台会先`kill`worker进程,再执行`kill -9`操作
-  - **暂停:** 对正在运行的流程进行**暂停**操作,系统状态变为**等待执行**,会等待正在执行的任务结束,暂停下一个要执行的任务。
-  - **恢复暂停:** 对暂停的流程恢复,直接从**暂停的节点**开始运行
-  - **删除:** 删除工作流实例及工作流实例下的任务实例
-  - **甘特图:** Gantt图纵轴是某个工作流实例下的任务实例的拓扑排序,横轴是任务实例的运行时间,如图示:         
-       <p align="center">
-           <img src="/img/gant-pic.png" width="80%" />
-       </p>
-
-#### 2.5 任务实例
-  - 点击项目管理->工作流->任务实例,进入任务实例页面,如下图所示,点击工作流实例名称,可跳转到工作流实例DAG图查看任务状态。
-       <p align="center">
-          <img src="/img/task-list.png" width="80%" />
-       </p>
-
-  - <span id=taskLog>查看日志:</span>点击操作列中的“查看日志”按钮,可以查看任务执行的日志情况。
-       <p align="center">
-          <img src="/img/task-log2.png" width="80%" />
-       </p>
-
-### 3. 资源中心
-#### 3.1 hdfs资源配置
-  - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项:
-  
-```  
-conf/common/common.properties  
-    # Users who have permission to create directories under the HDFS root path
-    hdfs.root.user=hdfs
-    # data base dir, resource file will store to this hadoop hdfs path, self configuration, please make sure the directory exists on hdfs and have read write permissions。"/escheduler" is recommended
-    data.store2hdfs.basepath=/dolphinscheduler
-    # resource upload startup type : HDFS,S3,NONE
-    res.upload.startup.type=HDFS
-    # whether kerberos starts
-    hadoop.security.authentication.startup.state=false
-    # java.security.krb5.conf path
-    java.security.krb5.conf.path=/opt/krb5.conf
-    # loginUserFromKeytab user
-    login.user.keytab.username=hdfs-mycluster@ESZ.COM
-    # loginUserFromKeytab path
-    login.user.keytab.path=/opt/hdfs.headless.keytab
-    
-conf/common/hadoop.properties      
-    # ha or single namenode,If namenode ha needs to copy core-site.xml and hdfs-site.xml
-    # to the conf directory,support s3,for example : s3a://dolphinscheduler
-    fs.defaultFS=hdfs://mycluster:8020    
-    #resourcemanager ha note this need ips , this empty if single
-    yarn.resourcemanager.ha.rm.ids=192.168.xx.xx,192.168.xx.xx    
-    # If it is a single resourcemanager, you only need to configure one host name. If it is resourcemanager HA, the default configuration is fine
-    yarn.application.status.address=http://xxxx:8088/ws/v1/cluster/apps/%s
+### 创建项目
 
-```
-* yarn.resourcemanager.ha.rm.ids与yarn.application.status.address只需配置其中一个地址,另一个地址配置为空。
-* 需要从Hadoop集群的conf目录下复制core-site.xml、hdfs-site.xml到dolphinscheduler项目的conf目录下,重启api-server服务。
+  - 点击“项目管理->创建项目”,输入项目名称,项目描述,点击“提交”,创建新的项目。
+  - 点击项目名称,进入项目首页。
+<p align="center">
+   <img src="/img/project.png" width="60%" />
+ </p>
 
+> 项目首页其中包含任务状态统计,流程状态统计、工作流定义统计
 
-#### 3.2 文件管理
+ - 任务状态统计:是指在指定时间范围内,统计任务实例中的待运行、失败、运行中、完成、成功的个数
+ - 流程状态统计:是指在指定时间范围内,统计工作流实例中的待运行、失败、运行中、完成、成功的个数
+ - 工作流定义统计:是统计该用户创建的工作流定义及管理员授予该用户的工作流定义
 
-  > 是对各种资源文件的管理,包括创建基本的txt/log/sh/conf/py/java等文件、上传jar包等各种类型文件,可进行编辑、重命名、下载、删除等操作。
-  <p align="center">
-   <img src="/img/file-manage.png" width="80%" />
+
+### 创建工作流定义
+  - 进入项目首页,点击“工作流定义”,进入工作流定义列表页。
+  - 点击“创建工作流”,创建新的工作流定义。
+  - 拖拽“SHELL"节点到画布,新增一个Shell任务。
+  - 填写”节点名称“,”描述“,”脚本“字段。
+  - 选择“任务优先级”,级别高的任务在执行队列中会优先执行,相同优先级的任务按照先进先出的顺序执行。
+  - 超时告警, 填写”超时时长“,当任务执行时间超过**超时时长**可以告警并且超时失败。
+  - 填写"自定义参数",参考[自定义参数](#用户自定义参数)
+<p align="center">
+   <img src="/img/dag1.png" width="60%" />
  </p>
 
-  * 创建文件
- > 文件格式支持以下几种类型:txt、log、sh、conf、cfg、py、java、sql、xml、hql、properties
+  - 增加节点之间执行的先后顺序: 点击”线条连接“;如图示,任务2和任务3并行执行,当任务1执行完,任务2、3会同时执行。
 
 <p align="center">
-   <img src="/img/file_create.png" width="80%" />
+   <img src="/img/dag2.png" width="60%" />
  </p>
 
-  * 上传文件
+  - 删除依赖关系: 点击箭头图标”拖动节点和选中项“,选中连接线,点击删除图标,删除节点间依赖关系。
+<p align="center">
+   <img src="/img/dag3.png" width="60%" />
+ </p>
 
-> 上传文件:点击"上传文件"按钮进行上传,将文件拖拽到上传区域,文件名会自动以上传的文件名称补全
+  - 点击”保存“,输入工作流定义名称,工作流定义描述,设置全局参数,参考[自定义参数](#用户自定义参数)。
 
 <p align="center">
-   <img src="/img/file_upload.png" width="80%" />
+   <img src="/img/dag4.png" width="60%" />
  </p>
 
+  - 其他类型节点,请参考 [任务节点类型和参数设置](#任务节点类型和参数设置)
 
-  * 文件查看
+### 执行工作流定义
+  - **未上线状态的工作流定义可以编辑,但是不可以运行**,所以先上线工作流
+  > 点击工作流定义,返回工作流定义列表,点击”上线“图标,上线工作流定义。
 
-> 对可查看的文件类型,点击文件名称,可查看文件详情
+  > 下线工作流定义的时候,要先将定时管理中的定时任务下线,这样才能成功下线工作流定义  
 
-<p align="center">
-   <img src="/img/file_detail.png" width="80%" />
+  - 点击”运行“,执行工作流。运行参数说明:
+    * 失败策略:**当某一个任务节点执行失败时,其他并行的任务节点需要执行的策略**。”继续“表示:其他任务节点正常执行,”结束“表示:终止所有正在执行的任务,并终止整个流程。
+    * 通知策略:当流程结束,根据流程状态发送流程执行信息通知邮件。
+    * 流程优先级:流程运行的优先级,分五个等级:最高(HIGHEST),高(HIGH),中(MEDIUM),低(LOW),最低(LOWEST)。级别高的流程在执行队列中会优先执行,相同优先级的流程按照先进先出的顺序执行。
+    * worker分组: 这个流程只能在指定的机器组里执行。默认是Default,可以在任一worker上执行。
+    * 通知组: 当流程结束,或者发生容错时,会发送流程信息邮件到通知组里所有成员。
+    * 收件人:输入邮箱后按回车键保存。当流程结束、发生容错时,会发送告警邮件到收件人列表。
+    * 抄送人:输入邮箱后按回车键保存。当流程结束、发生容错时,会抄送告警邮件到抄送人列表。
+  <p align="center">
+   <img src="/img/run-work.png" width="60%" />
  </p>
 
-  * 下载文件
+  * 补数: 执行指定日期的工作流定义,可以选择补数时间范围(目前只支持针对连续的天进行补数),比如要补5月1号到5月10号的数据,如图示: 
+<p align="center">
+   <img src="/img/complement.png" width="60%" />
+ </p>
 
-> 点击文件列表的"下载"按钮下载文件或者在文件详情中点击右上角"下载"按钮下载文件
+> 补数执行模式有**串行执行、并行执行**,串行模式下,补数会从5月1号到5月10号依次执行;并行模式下,会同时执行5月1号到5月10号的任务。
 
-  * 文件重命名
+### 定时工作流定义
+  - 创建定时:"工作流定义->定时”
+  - 选择起止时间,在起止时间范围内,定时正常工作,超过范围,就不会再继续产生定时工作流实例了。
+<p align="center">
+   <img src="/img/time-schedule.png" width="60%" />
+ </p>
 
+  - 添加一个每天凌晨5点执行一次的定时,如图示:
 <p align="center">
-   <img src="/img/file_rename.png" width="80%" />
+   <img src="/img/time-schedule2.png" width="60%" />
  </p>
 
-  * 删除
->  文件列表->点击"删除"按钮,删除指定文件
+  - 定时上线,**新创建的定时是下线状态,需要点击“定时管理->上线”,定时才能正常工作**。
 
-#### 3.3 UDF管理
-#### 3.3.1 资源管理
-  > 资源管理和文件管理功能类似,不同之处是资源管理是上传的UDF函数,文件管理上传的是用户程序,脚本及配置文件
-  > 操作功能:重命名、下载、删除。
+### 查看工作流实例
+  > 点击“工作流实例”,查看工作流实例列表。
 
-  * 上传udf资源
-  > 和上传文件相同。
-  
+  > 点击工作流名称,查看任务执行状态。
 
-#### 3.3.2 函数管理
+  <p align="center">
+   <img src="/img/instance-detail.png" width="60%" />
+ </p>
 
-  * 创建udf函数
-  > 点击“创建UDF函数”,输入udf函数参数,选择udf资源,点击“提交”,创建udf函数。
+  > 点击任务节点,点击“查看日志”,查看任务执行日志。
 
- > 目前只支持HIVE的临时UDF函数
+  <p align="center">
+   <img src="/img/task-log.png" width="60%" />
+ </p>
 
-  - UDF函数名称:输入UDF函数时的名称
-  - 包名类名:输入UDF函数的全路径  
-  - UDF资源:设置创建的UDF对应的资源文件
+ > 点击任务实例节点,点击**查看历史**,可以查看该工作流实例运行的该任务实例列表
+
+ <p align="center">
+    <img src="/img/task_history.png" width="60%" />
+  </p>
+ 
+
+  > 对工作流实例的操作:
 
 <p align="center">
-   <img src="/img/udf_edit.png" width="80%" />
- </p>
+   <img src="/img/instance-list.png" width="60%" />
+</p>
+
+  * 编辑:可以对已经终止的流程进行编辑,编辑后保存的时候,可以选择是否更新到工作流定义。
+  * 重跑:可以对已经终止的流程进行重新执行。
+  * 恢复失败:针对失败的流程,可以执行恢复失败操作,从失败的节点开始执行。
+  * 停止:对正在运行的流程进行**停止**操作,后台会先对worker进程`kill`,再执行`kill -9`操作
+  * 暂停:可以对正在运行的流程进行**暂停**操作,系统状态变为**等待执行**,会等待正在执行的任务结束,暂停下一个要执行的任务。
+  * 恢复暂停:可以对暂停的流程恢复,直接从**暂停的节点**开始运行
+  * 删除:删除工作流实例及工作流实例下的任务实例
+  * 甘特图:Gantt图纵轴是某个工作流实例下的任务实例的拓扑排序,横轴是任务实例的运行时间,如图示:
+<p align="center">
+   <img src="/img/gant-pic.png" width="60%" />
+</p>
 
+### 查看任务实例
+  > 点击“任务实例”,进入任务列表页,查询任务执行情况
 
-### 4. 创建数据源
-  > 数据源中心支持MySQL、POSTGRESQL、HIVE/IMPALA、SPARK、CLICKHOUSE、ORACLE、SQLSERVER等数据源
+<p align="center">
+   <img src="/img/task-list.png" width="60%" />
+</p>
 
-#### 4.1 创建/编辑MySQL数据源
+  > 点击操作列中的“查看日志”,可以查看任务执行的日志情况。
+
+<p align="center">
+   <img src="/img/task-log2.png" width="60%" />
+</p>
+
+### 创建数据源
+  > 数据源中心支持MySQL、POSTGRESQL、HIVE及Spark等数据源
+
+#### 创建、编辑MySQL数据源
 
   - 点击“数据源中心->创建数据源”,根据需求创建不同类型的数据源。
 
   - 数据源:选择MYSQL
   - 数据源名称:输入数据源的名称
   - 描述:输入数据源的描述
-  - IP主机名:输入连接MySQL的IP
+  - IP/主机名:输入连接MySQL的IP
   - 端口:输入连接MySQL的端口
   - 用户名:设置连接MySQL的用户名
   - 密码:设置连接MySQL的密码
@@ -320,12 +163,12 @@ conf/common/hadoop.properties
   - Jdbc连接参数:用于MySQL连接的参数设置,以JSON形式填写
 
 <p align="center">
-   <img src="/img/mysql_edit.png" width="80%" />
+   <img src="/img/mysql_edit.png" width="60%" />
  </p>
 
   > 点击“测试连接”,测试数据源是否可以连接成功。
 
-#### 4.2 创建/编辑POSTGRESQL数据源
+#### 创建、编辑POSTGRESQL数据源
 
 - 数据源:选择POSTGRESQL
 - 数据源名称:输入数据源的名称
@@ -338,15 +181,15 @@ conf/common/hadoop.properties
 - Jdbc连接参数:用于POSTGRESQL连接的参数设置,以JSON形式填写
 
 <p align="center">
-   <img src="/img/postgresql_edit.png" width="80%" />
+   <img src="/img/postgresql_edit.png" width="60%" />
  </p>
 
-#### 4.3 创建/编辑HIVE数据源
+#### 创建、编辑HIVE数据源
 
 1.使用HiveServer2方式连接
 
  <p align="center">
-    <img src="/img/hive_edit.png" width="80%" />
+    <img src="/img/hive_edit.png" width="60%" />
   </p>
 
   - 数据源:选择HIVE
@@ -362,22 +205,22 @@ conf/common/hadoop.properties
 2.使用HiveServer2 HA Zookeeper方式连接
 
  <p align="center">
-    <img src="/img/hive_edit2.png" width="80%" />
+    <img src="/img/hive_edit2.png" width="60%" />
   </p>
 
 
 注意:如果开启了**kerberos**,则需要填写 **Principal**
 <p align="center">
-    <img src="/img/hive_kerberos.png" width="80%" />
+    <img src="/img/hive_kerberos.png" width="60%" />
   </p>
 
 
 
 
-#### 4.4 创建/编辑Spark数据源
+#### 创建、编辑Spark数据源
 
 <p align="center">
-   <img src="/img/spark_datesource.png" width="80%" />
+   <img src="/img/spark_datesource.png" width="60%" />
  </p>
 
 - 数据源:选择Spark
@@ -395,80 +238,138 @@ conf/common/hadoop.properties
 注意:如果开启了**kerberos**,则需要填写 **Principal**
 
 <p align="center">
-    <img src="/img/sparksql_kerberos.png" width="80%" />
+    <img src="/img/sparksql_kerberos.png" width="60%" />
   </p>
 
+### 上传资源
+  - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项:
+
+```
+conf/common/common.properties
+    -- hdfs.startup.state=true
+conf/common/hadoop.properties  
+    -- fs.defaultFS=hdfs://xxxx:8020  
+    -- yarn.resourcemanager.ha.rm.ids=192.168.xx.xx,192.168.xx.xx
+    -- yarn.application.status.address=http://xxxx:8088/ws/v1/cluster/apps/%s
+```
+
+#### 文件管理
+
+  > 是对各种资源文件的管理,包括创建基本的txt/log/sh/conf等文件、上传jar包等各种类型文件,以及编辑、下载、删除等操作。
+  <p align="center">
+   <img src="/img/file-manage.png" width="60%" />
+ </p>
+
+  * 创建文件
+ > 文件格式支持以下几种类型:txt、log、sh、conf、cfg、py、java、sql、xml、hql
+
+<p align="center">
+   <img src="/img/file_create.png" width="60%" />
+ </p>
+
+  * 上传文件
+
+> 上传文件:点击上传按钮进行上传,将文件拖拽到上传区域,文件名会自动以上传的文件名称补全
+
+<p align="center">
+   <img src="/img/file_upload.png" width="60%" />
+ </p>
+
+
+  * 文件查看
+
+> 对可查看的文件类型,点击 文件名称 可以查看文件详情
+
+<p align="center">
+   <img src="/img/file_detail.png" width="60%" />
+ </p>
+
+  * 下载文件
+
+> 可以在 文件详情 中点击右上角下载按钮下载文件,或者在文件列表后的下载按钮下载文件
+
+  * 文件重命名
+
+<p align="center">
+   <img src="/img/file_rename.png" width="60%" />
+ </p>
+
+#### 删除
+>  文件列表->点击"删除"按钮,删除指定文件
+
+#### 资源管理
+  > 资源管理和文件管理功能类似,不同之处是资源管理是上传的UDF函数,文件管理上传的是用户程序,脚本及配置文件
+
+  * 上传udf资源
+  > 和上传文件相同。
+
+#### 函数管理
+
+  * 创建udf函数
+  > 点击“创建UDF函数”,输入udf函数参数,选择udf资源,点击“提交”,创建udf函数。
+
+ > 目前只支持HIVE的临时UDF函数
+
+  - UDF函数名称:输入UDF函数时的名称
+  - 包名类名:输入UDF函数的全路径
+  - 参数:用来标注函数的输入参数
+  - 数据库名:预留字段,用于创建永久UDF函数
+  - UDF资源:设置创建的UDF对应的资源文件
 
+<p align="center">
+   <img src="/img/udf_edit.png" width="60%" />
+ </p>
 
-### 5. 安全中心(权限系统)
+## 安全中心(权限系统)
 
-     * 安全中心只有管理员账户才有权限操作,分别有队列管理、租户管理、用户管理、告警组管理、worker分组管理、令牌管理等功能,在用户管理模块可以对资源、数据源、项目等授权
-     * 管理员登录,默认用户名密码:admin/dolphinscheduler123
+  - 安全中心是只有管理员账户才有权限的功能,有队列管理、租户管理、用户管理、告警组管理、worker分组、令牌管理等功能,还可以对资源、数据源、项目等授权
+  - 管理员登录,默认用户名密码:admin/escheduler123
 
-#### 5.1 创建队列
+### 创建队列
   - 队列是在执行spark、mapreduce等程序,需要用到“队列”参数时使用的。
-  - 管理员进入安全中心->队列管理页面,点击“创建队列”按钮,创建队列。
+  - “安全中心”->“队列管理”->“创建队列”
  <p align="center">
-    <img src="/img/create-queue.png" width="80%" />
+    <img src="/img/create-queue.png" width="60%" />
   </p>
 
 
-#### 5.2 添加租户
+### 添加租户
   - 租户对应的是Linux的用户,用于worker提交作业所使用的用户。如果linux没有这个用户,worker会在执行脚本的时候创建这个用户。
   - 租户编码:**租户编码是Linux上的用户,唯一,不能重复**
-  - 管理员进入安全中心->租户管理页面,点击“创建租户”按钮,创建租户。
 
  <p align="center">
-    <img src="/img/addtenant.png" width="80%" />
+    <img src="/img/addtenant.png" width="60%" />
   </p>
 
-#### 5.3 创建普通用户
+### 创建普通用户
   -  用户分为**管理员用户**和**普通用户**
-  
-    * 管理员有授权和用户管理等权限,没有创建项目和工作流定义的操作的权限。
-    * 普通用户可以创建项目和对工作流定义的创建,编辑,执行等操作。
-    * 注意:如果该用户切换了租户,则该用户所在租户下所有资源将复制到切换的新租户下。
-  - 管理员进入安全中心->用户管理页面,点击“创建用户”按钮,创建用户。        
-<p align="center">
-   <img src="/img/useredit2.png" width="80%" />
- </p>
-  
-  > **编辑用户信息** 
-   - 管理员进入安全中心->用户管理页面,点击"编辑"按钮,编辑用户信息。
-   - 普通用户登录后,点击用户名下拉框中的用户信息,进入用户信息页面,点击"编辑"按钮,编辑用户信息。
-  
-  > **修改用户密码** 
-   - 管理员进入安全中心->用户管理页面,点击"编辑"按钮,编辑用户信息时,输入新密码修改用户密码。
-   - 普通用户登录后,点击用户名下拉框中的用户信息,进入修改密码页面,输入密码并确认密码后点击"编辑"按钮,则修改密码成功。
-   
-
-#### 5.4 创建告警组
+    * 管理员有**授权和用户管理**等权限,没有**创建项目和工作流定义**的操作的权限
+    * 普通用户可以**创建项目和对工作流定义的创建,编辑,执行**等操作。
+    * 注意:**如果该用户切换了租户,则该用户所在租户下所有资源将复制到切换的新租户下**
+<p align="center">
+   <img src="/img/useredit2.png" width="60%" />
+ </p>
+
+### 创建告警组
   * 告警组是在启动时设置的参数,在流程结束以后会将流程的状态和其他信息以邮件形式发送给告警组。
-  - 管理员进入安全中心->告警组管理页面,点击“创建告警组”按钮,创建告警组。
+  - 新建、编辑告警组
 
   <p align="center">
-    <img src="/img/mail_edit.png" width="80%" />
+    <img src="/img/mail_edit.png" width="60%" />
   </p>
 
-#### 5.5 创建worker分组
+### 创建worker分组
   - worker分组,提供了一种让任务在指定的worker上运行的机制。管理员创建worker分组,在任务节点和运行参数中设置中可以指定该任务运行的worker分组,如果指定的分组被删除或者没有指定分组,则该任务会在任一worker上运行。
-  - 管理员进入安全中心->Worker分组管理页面,点击“创建Worker分组”按钮,创建Worker分组。worker分组内有多个ip地址(**不能写别名**),以**英文逗号**分隔。
+  - worker分组内多个ip地址(**不能写别名**),以**英文逗号**分隔
+
   <p align="center">
-    <img src="/img/worker1.png" width="80%" />
+    <img src="/img/worker1.png" width="60%" />
   </p>
 
-#### 5.6 令牌管理
-  > 由于后端接口有登录检查,令牌管理提供了一种可以通过调用接口的方式对系统进行各种操作。
-  - 管理员进入安全中心->令牌管理页面,点击“创建令牌”按钮,选择失效时间与用户,点击"生成令牌"按钮,点击"提交"按钮,则选择用户的token创建成功。
-
-  <p align="center">
-      <img src="/img/creat_token.png" width="80%" />
-   </p>
-  
-  - 普通用户登录后,点击用户名下拉框中的用户信息,进入令牌管理页面,选择失效时间,点击"生成令牌"按钮,点击"提交"按钮,则该用户创建token成功。
-    
+### 令牌管理
+  - 由于后端接口有登录检查,令牌管理,提供了一种可以通过调用接口的方式对系统进行各种操作。
   - 调用示例:
-  
+
 ```令牌调用示例
     /**
      * test token
@@ -504,111 +405,95 @@ conf/common/hadoop.properties
     }
 ```
 
-#### 5.7 授予权限
+### 授予权限
+  - 授予权限包括项目权限,资源权限,数据源权限,UDF函数权限。
+> 管理员可以对普通用户进行非其创建的项目、资源、数据源和UDF函数进行授权。因为项目、资源、数据源和UDF函数授权方式都是一样的,所以以项目授权为例介绍。
 
-    * 授予权限包括项目权限,资源权限,数据源权限,UDF函数权限。
-    * 管理员可以对普通用户进行非其创建的项目、资源、数据源和UDF函数进行授权。因为项目、资源、数据源和UDF函数授权方式都是一样的,所以以项目授权为例介绍。
-    * 注意:对于用户自己创建的项目,该用户拥有所有的权限。则项目列表和已选项目列表中不会显示。
- 
-  - 管理员进入安全中心->用户管理页面,点击需授权用户的“授权”按钮,如下图所示:
+> 注意:**对于用户自己创建的项目,该用户拥有所有的权限。则项目列表和已选项目列表中不会体现**
+
+  - 1.点击指定人的授权按钮,如下图:
   <p align="center">
-   <img src="/img/auth_user.png" width="80%" />
+   <img src="/img/auth_user.png" width="60%" />
  </p>
 
-  - 选择项目,进行项目授权。
+- 2.选中项目按钮,进行项目授权
 
 <p align="center">
-   <img src="/img/auth_project.png" width="80%" />
+   <img src="/img/auth_project.png" width="60%" />
  </p>
-  
-  - 资源、数据源、UDF函数授权同项目授权。
 
-### 6. 监控中心
 
-#### 6.1 服务管理
+## 监控中心
+
+### 服务管理
   - 服务管理主要是对系统中的各个服务的健康状况和基本信息的监控和显示
 
-#### 6.1.1 master监控
+#### master监控
   - 主要是master的相关信息。
 <p align="center">
-   <img src="/img/master-jk.png" width="80%" />
+   <img src="/img/master-jk.png" width="60%" />
  </p>
 
-#### 6.1.2 worker监控
+#### worker监控
   - 主要是worker的相关信息。
 
 <p align="center">
-   <img src="/img/worker-jk.png" width="80%" />
+   <img src="/img/worker-jk.png" width="60%" />
  </p>
 
-#### 6.1.3 Zookeeper监控
+#### Zookeeper监控
   - 主要是zookpeeper中各个worker和master的相关配置信息。
 
 <p align="center">
-   <img src="/img/zk-jk.png" width="80%" />
+   <img src="/img/zk-jk.png" width="60%" />
  </p>
 
-#### 6.1.4 DB监控
+#### DB监控
   - 主要是DB的健康状况
 
 <p align="center">
-   <img src="/img/mysql-jk.png" width="80%" />
+   <img src="/img/mysql-jk.png" width="60%" />
  </p>
- 
-#### 6.2 统计管理
-<p align="center">
-   <img src="/img/Statistics.png" width="80%" />
- </p>
- 
-  - 待执行命令数:统计t_ds_command表的数据
-  - 执行失败的命令数:统计t_ds_error_command表的数据
-  - 待运行任务数:统计zookeeper中task_queue的数据
-  - 待杀死任务数:统计zookeeper中task_kill的数据
- 
-### 7. <span id=TaskParamers>任务节点类型和参数设置</span>
 
-#### 7.1 Shell节点
-  > shell节点,在worker执行的时候,会生成一个临时shell脚本,使用租户同名的linux用户执行这个脚本。
-  - 点击项目管理-项目名称-工作流定义,点击"创建工作流"按钮,进入DAG编辑页面。
-  - 工具栏中拖动<img src="/img/shell.png" width="35"/>到画板中,如下图所示:
+## 任务节点类型和参数设置
 
-    <p align="center">
-        <img src="/img/shell_dag.png" width="80%" />
-    </p> 
+### Shell节点
+  - shell节点,在worker执行的时候,会生成一个临时shell脚本,使用租户同名的linux用户执行这个脚本。
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SHELL.png)任务节点到画板中,双击任务节点,如下图:
 
-- 节点名称:一个工作流定义中的节点名称是唯一的。
+<p align="center">
+   <img src="/img/shell_edit.png" width="60%" />
+ </p>
+
+- 节点名称:一个工作流定义中的节点名称是唯一的
 - 运行标志:标识这个节点是否能正常调度,如果不需要执行,可以打开禁止执行开关。
-- 描述信息:描述该节点的功能。
-- 任务优先级:worker线程数不足时,根据优先级从高到低依次执行,优先级一样时根据先进先出原则执行。
-- Worker分组:任务分配给worker组的机器机执行,选择Default,会随机选择一台worker机执行。
-- 失败重试次数:任务失败重新提交的次数,支持下拉和手填。
-- 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填。
-- 超时告警:勾选超时告警、超时失败,当任务超过"超时时长"后,会发送告警邮件并且任务执行失败.
-- 脚本:用户开发的SHELL程序。
-- 资源:是指脚本中需要调用的资源文件列表,资源中心-文件管理上传或创建的文件。
-- 自定义参数:是SHELL局部的用户自定义参数,会替换脚本中以${变量}的内容。
-
-#### 7.2 子流程节点
+- 描述信息:描述该节点的功能
+- 失败重试次数:任务失败重新提交的次数,支持下拉和手填
+- 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填
+- 脚本:用户开发的SHELL程序
+- 资源:是指脚本中需要调用的资源文件列表
+- 自定义参数:是SHELL局部的用户自定义参数,会替换脚本中以${变量}的内容
+
+### 子流程节点
   - 子流程节点,就是把外部的某个工作流定义当做一个任务节点去执行。
-> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SUB_PROCESS.png)任务节点到画板中,如下图所示:
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SUB_PROCESS.png)任务节点到画板中,双击任务节点,如下图:
 
 <p align="center">
-   <img src="/img/subprocess_edit.png" width="80%" />
+   <img src="/img/subprocess_edit.png" width="60%" />
  </p>
 
 - 节点名称:一个工作流定义中的节点名称是唯一的
 - 运行标志:标识这个节点是否能正常调度
 - 描述信息:描述该节点的功能
-- 超时告警:勾选超时告警、超时失败,当任务超过"超时时长"后,会发送告警邮件并且任务执行失败.
 - 子节点:是选择子流程的工作流定义,右上角进入该子节点可以跳转到所选子流程的工作流定义
 
-#### 7.3 依赖(DEPENDENT)节点
+### 依赖(DEPENDENT)节点
   - 依赖节点,就是**依赖检查节点**。比如A流程依赖昨天的B流程执行成功,依赖节点会去检查B流程在昨天是否有执行成功的实例。
 
-> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_DEPENDENT.png)任务节点到画板中,如下图所示:
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_DEPENDENT.png)任务节点到画板中,双击任务节点,如下图:
 
 <p align="center">
-   <img src="/img/dependent_edit.png" width="80%" />
+   <img src="/img/dependent_edit.png" width="60%" />
  </p>
 
   > 依赖节点提供了逻辑判断功能,比如检查昨天的B流程是否成功,或者C流程是否执行成功。
@@ -629,54 +514,51 @@ conf/common/hadoop.properties
    <img src="/img/depend-node3.png" width="80%" />
  </p>
 
-#### 7.4 存储过程节点
+### 存储过程节点
   - 根据选择的数据源,执行存储过程。
-> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_PROCEDURE.png)任务节点到画板中,如下图所示:
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_PROCEDURE.png)任务节点到画板中,双击任务节点,如下图:
 
 <p align="center">
-   <img src="/img/procedure_edit.png" width="80%" />
+   <img src="/img/procedure_edit.png" width="60%" />
  </p>
 
 - 数据源:存储过程的数据源类型支持MySQL和POSTGRESQL两种,选择对应的数据源
 - 方法:是存储过程的方法名称
 - 自定义参数:存储过程的自定义参数类型支持IN、OUT两种,数据类型支持VARCHAR、INTEGER、LONG、FLOAT、DOUBLE、DATE、TIME、TIMESTAMP、BOOLEAN九种数据类型
 
-#### 7.5 SQL节点
-  - 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SQL.png)任务节点到画板中
-  - 非查询SQL功能:编辑非查询SQL任务信息,sql类型选择非查询,如下图所示:
+### SQL节点
+  - 执行非查询SQL功能
   <p align="center">
-   <img src="/img/sql-node.png" width="80%" />
+   <img src="/img/sql-node.png" width="60%" />
  </p>
 
-  - 查询SQL功能:编辑查询SQL任务信息,sql类型选择查询,选择表格或附件形式发送邮件到指定的收件人,如下图所示。
+  - 执行查询SQL功能,可以选择通过表格和附件形式发送邮件到指定的收件人。
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SQL.png)任务节点到画板中,双击任务节点,如下图:
 
 <p align="center">
-   <img src="/img/sql-node2.png" width="80%" />
+   <img src="/img/sql-node2.png" width="60%" />
  </p>
 
 - 数据源:选择对应的数据源
-- sql类型:支持查询和非查询两种,查询是select类型的查询,是有结果集返回的,可以指定邮件通知为表格、附件或表格附件三种模板。非查询是没有结果集返回的,是针对update、delete、insert三种类型的操作。
+- sql类型:支持查询和非查询两种,查询是select类型的查询,是有结果集返回的,可以指定邮件通知为表格、附件或表格附件三种模板。非查询是没有结果集返回的,是针对update、delete、insert三种类型的操作
 - sql参数:输入参数格式为key1=value1;key2=value2…
 - sql语句:SQL语句
-- UDF函数:对于HIVE类型的数据源,可以引用资源中心中创建的UDF函数,其他类型的数据源暂不支持UDF函数。
-- 自定义参数:SQL任务类型,而存储过程是自定义参数顺序的给方法设置值自定义参数类型和数据类型同存储过程任务类型一样。区别在于SQL任务类型自定义参数会替换sql语句中${变量}。
-- 前置sql:前置sql在sql语句之前执行。
-- 后置sql:后置sql在sql语句之后执行。
-
+- UDF函数:对于HIVE类型的数据源,可以引用资源中心中创建的UDF函数,其他类型的数据源暂不支持UDF函数
+- 自定义参数:SQL任务类型,而存储过程是自定义参数顺序的给方法设置值自定义参数类型和数据类型同存储过程任务类型一样。区别在于SQL任务类型自定义参数会替换sql语句中${变量}
 
-#### 7.6 SPARK节点
+### SPARK节点
   - 通过SPARK节点,可以直接直接执行SPARK程序,对于spark节点,worker会使用`spark-submit`方式提交任务
 
-> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SPARK.png)任务节点到画板中,如下图所示:
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_SPARK.png)任务节点到画板中,双击任务节点,如下图:
 
 <p align="center">
-   <img src="/img/spark_edit.png" width="80%" />
+   <img src="/img/spark_edit.png" width="60%" />
  </p>
 
 - 程序类型:支持JAVA、Scala和Python三种语言
 - 主函数的class:是Spark程序的入口Main Class的全路径
 - 主jar包:是Spark的jar包
-- 部署方式:支持yarn-cluster、yarn-client和local三种模式
+- 部署方式:支持yarn-cluster、yarn-client、和local三种模式
 - Driver内核数:可以设置Driver内核数及内存数
 - Executor数量:可以设置Executor数量、Executor内存数和Executor内核数
 - 命令行参数:是设置Spark程序的输入参数,支持自定义参数变量的替换。
@@ -686,18 +568,18 @@ conf/common/hadoop.properties
 
  注意:JAVA和Scala只是用来标识,没有区别,如果是Python开发的Spark则没有主函数的class,其他都是一样
 
-#### 7.7 MapReduce(MR)节点
+### MapReduce(MR)节点
   - 使用MR节点,可以直接执行MR程序。对于mr节点,worker会使用`hadoop jar`方式提交任务
 
 
-> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_MR.png)任务节点到画板中,如下图所示:
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_MR.png)任务节点到画板中,双击任务节点,如下图:
 
  1. JAVA程序
 
  <p align="center">
-   <img src="/img/mr_java.png" width="80%" />
- </p>
- 
+    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/mr_java.png" width="60%" />
+  </p>
+
 - 主函数的class:是MR程序的入口Main Class的全路径
 - 程序类型:选择JAVA语言 
 - 主jar包:是MR的jar包
@@ -709,7 +591,7 @@ conf/common/hadoop.properties
 2. Python程序
 
 <p align="center">
-   <img src="/img/mr_edit.png" width="80%" />
+   <img src="/img/mr_edit.png" width="60%" />
  </p>
 
 - 程序类型:选择Python语言 
@@ -720,70 +602,21 @@ conf/common/hadoop.properties
 - 资源: 如果其他参数中引用了资源文件,需要在资源中选择指定
 - 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容
 
-#### 7.8 Python节点
+### Python节点
   - 使用python节点,可以直接执行python脚本,对于python节点,worker会使用`python **`方式提交任务。
 
 
-> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_PYTHON.png)任务节点到画板中,如下图所示:
+> 拖动工具栏中的![PNG](https://analysys.github.io/easyscheduler_docs_cn/images/toolbar_PYTHON.png)任务节点到画板中,双击任务节点,如下图:
 
 <p align="center">
-   <img src="/img/python_edit.png" width="80%" />
+   <img src="/img/python_edit.png" width="60%" />
  </p>
 
 - 脚本:用户开发的Python程序
 - 资源:是指脚本中需要调用的资源文件列表
 - 自定义参数:是Python局部的用户自定义参数,会替换脚本中以${变量}的内容
 
-#### 7.9 Flink节点
-  - 拖动工具栏中的<img src="/img/flink.png" width="35"/>任务节点到画板中,如下图所示:
-
-<p align="center">
-  <img src="/img/flink_edit.png" width="80%" />
-</p>
-
-
-- 程序类型:支持JAVA、Scala和Python三种语言
-- 主函数的class:是Flink程序的入口Main Class的全路径
-- 主jar包:是Flink的jar包
-- 部署方式:支持cluster、local三种模式
-- slot数量:可以设置slot数
-- taskManage数量:可以设置taskManage数
-- jobManager内存数:可以设置jobManager内存数
-- taskManager内存数:可以设置taskManager内存数
-- 命令行参数:是设置Spark程序的输入参数,支持自定义参数变量的替换。
-- 其他参数:支持 --jars、--files、--archives、--conf格式
-- 资源:如果其他参数中引用了资源文件,需要在资源中选择指定
-- 自定义参数:是Flink局部的用户自定义参数,会替换脚本中以${变量}的内容
-
- 注意:JAVA和Scala只是用来标识,没有区别,如果是Python开发的Flink则没有主函数的class,其他都是一样
-
-#### 7.10 http节点  
-
-  - 拖动工具栏中的<img src="/img/http.png" width="35"/>任务节点到画板中,如下图所示:
-
-<p align="center">
-   <img src="/img/http_edit.png" width="80%" />
- </p>
-
-- 节点名称:一个工作流定义中的节点名称是唯一的。
-- 运行标志:标识这个节点是否能正常调度,如果不需要执行,可以打开禁止执行开关。
-- 描述信息:描述该节点的功能。
-- 任务优先级:worker线程数不足时,根据优先级从高到低依次执行,优先级一样时根据先进先出原则执行。
-- Worker分组:任务分配给worker组的机器机执行,选择Default,会随机选择一台worker机执行。
-- 失败重试次数:任务失败重新提交的次数,支持下拉和手填。
-- 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填。
-- 超时告警:勾选超时告警、超时失败,当任务超过"超时时长"后,会发送告警邮件并且任务执行失败.
-- 请求地址:http请求URL。
-- 请求类型:支持GET、POSt、HEAD、PUT、DELETE。
-- 请求参数:支持Parameter、Body、Headers。
-- 校验条件:支持默认响应码、自定义响应码、内容包含、内容不包含。
-- 校验内容:当校验条件选择自定义响应码、内容包含、内容不包含时,需填写校验内容。
-- 自定义参数:是http局部的用户自定义参数,会替换脚本中以${变量}的内容。
-
-
-
-#### 8. 参数
-#### 8.1 系统参数
+### 系统参数
 
 <table>
     <tr><th>变量</th><th>含义</th></tr>
@@ -802,41 +635,41 @@ conf/common/hadoop.properties
 </table>
 
 
-#### 8.2 时间自定义参数
+### 时间自定义参数
+
+> 支持代码中自定义变量名,声明方式:${变量名}。可以是引用 "系统参数" 或指定 "常量"。
 
-  - 支持代码中自定义变量名,声明方式:${变量名}。可以是引用 "系统参数" 或指定 "常量"。
+> 我们定义这种基准变量为 $[...] 格式的,$[yyyyMMddHHmmss] 是可以任意分解组合的,比如:$[yyyyMMdd], $[HHmmss], $[yyyy-MM-dd] 等
 
-  - 我们定义这种基准变量为 $[...] 格式的,$[yyyyMMddHHmmss] 是可以任意分解组合的,比如:$[yyyyMMdd], $[HHmmss], $[yyyy-MM-dd] 等
+> 也可以这样:
 
-  - 也可以使用以下格式:
-  
+- 后 N 年:$[add_months(yyyyMMdd,12*N)]
+- 前 N 年:$[add_months(yyyyMMdd,-12*N)]
+- 后 N 月:$[add_months(yyyyMMdd,N)]
+- 前 N 月:$[add_months(yyyyMMdd,-N)]
+- 后 N 周:$[yyyyMMdd+7*N]
+- 前 N 周:$[yyyyMMdd-7*N]
+- 后 N 天:$[yyyyMMdd+N]
+- 前 N 天:$[yyyyMMdd-N]
+- 后 N 小时:$[HHmmss+N/24]
+- 前 N 小时:$[HHmmss-N/24]
+- 后 N 分钟:$[HHmmss+N/24/60]
+- 前 N 分钟:$[HHmmss-N/24/60]
 
-        * 后 N 年:$[add_months(yyyyMMdd,12*N)]
-        * 前 N 年:$[add_months(yyyyMMdd,-12*N)]
-        * 后 N 月:$[add_months(yyyyMMdd,N)]
-        * 前 N 月:$[add_months(yyyyMMdd,-N)]
-        * 后 N 周:$[yyyyMMdd+7*N]
-        * 前 N 周:$[yyyyMMdd-7*N]
-        * 后 N 天:$[yyyyMMdd+N]
-        * 前 N 天:$[yyyyMMdd-N]
-        * 后 N 小时:$[HHmmss+N/24]
-        * 前 N 小时:$[HHmmss-N/24]
-        * 后 N 分钟:$[HHmmss+N/24/60]
-        * 前 N 分钟:$[HHmmss-N/24/60]
+### 用户自定义参数
 
-#### 8.3 <span id=UserDefinedParameters>用户自定义参数</span>
+> 用户自定义参数分为全局参数和局部参数。全局参数是保存工作流定义和工作流实例的时候传递的全局参数,全局参数可以在整个流程中的任何一个任务节点的局部参数引用。
 
-  - 用户自定义参数分为全局参数和局部参数。全局参数是保存工作流定义和工作流实例的时候传递的全局参数,全局参数可以在整个流程中的任何一个任务节点的局部参数引用。
-    例如:
+> 例如:
 
 <p align="center">
-   <img src="/img/local_parameter.png" width="80%" />
+   <img src="/img/local_parameter.png" width="60%" />
  </p>
 
-  - global_bizdate为全局参数,引用的是系统参数。
+> global_bizdate为全局参数,引用的是系统参数。
 
 <p align="center">
-   <img src="/img/global_parameter.png" width="80%" />
+   <img src="/img/global_parameter.png" width="60%" />
  </p>
 
- - 任务中local_param_bizdate通过\${global_bizdate}来引用全局参数,对于脚本可以通过\${local_param_bizdate}来引全局变量global_bizdate的值,或通过JDBC直接将local_param_bizdate的值set进去
+> 任务中local_param_bizdate通过${global_bizdate}来引用全局参数,对于脚本可以通过${local_param_bizdate}来引用变量local_param_bizdate的值,或通过JDBC直接将local_param_bizdate的值set进去
diff --git a/img/Statistics.png b/img/Statistics.png
deleted file mode 100644
index 245127f..0000000
Binary files a/img/Statistics.png and /dev/null differ
diff --git a/img/addtenant.png b/img/addtenant.png
index 78f2be0..c3909ec 100755
Binary files a/img/addtenant.png and b/img/addtenant.png differ
diff --git a/img/alarm-group-en.png b/img/alarm-group-en.png
index 529072a..948213f 100644
Binary files a/img/alarm-group-en.png and b/img/alarm-group-en.png differ
diff --git a/img/arrow.png b/img/arrow.png
deleted file mode 100644
index 7feb83c..0000000
Binary files a/img/arrow.png and /dev/null differ
diff --git a/img/auth-project-en.png b/img/auth-project-en.png
index 2d71448..40c6fec 100644
Binary files a/img/auth-project-en.png and b/img/auth-project-en.png differ
diff --git a/img/auth_user.png b/img/auth_user.png
index ebcbc24..e03f00c 100755
Binary files a/img/auth_user.png and b/img/auth_user.png differ
diff --git a/img/creat_token.png b/img/creat_token.png
deleted file mode 100644
index 9dcbe8a..0000000
Binary files a/img/creat_token.png and /dev/null differ
diff --git a/img/create-datasource-en.png b/img/create-datasource-en.png
index d1058ff..c9649a4 100644
Binary files a/img/create-datasource-en.png and b/img/create-datasource-en.png differ
diff --git a/img/create-file.png b/img/create-file.png
index 55dd23d..83bc395 100644
Binary files a/img/create-file.png and b/img/create-file.png differ
diff --git a/img/create-queue-en.png b/img/create-queue-en.png
index 6974e71..f95af54 100644
Binary files a/img/create-queue-en.png and b/img/create-queue-en.png differ
diff --git a/img/create-queue.png b/img/create-queue.png
index 265a39d..537df26 100644
Binary files a/img/create-queue.png and b/img/create-queue.png differ
diff --git a/img/create-tenant-en.png b/img/create-tenant-en.png
index bae5a11..9cdda93 100644
Binary files a/img/create-tenant-en.png and b/img/create-tenant-en.png differ
diff --git a/img/create-user-en.png b/img/create-user-en.png
index 35789aa..7303985 100644
Binary files a/img/create-user-en.png and b/img/create-user-en.png differ
diff --git a/img/create_group_en.png b/img/create_group_en.png
new file mode 100644
index 0000000..5a97cbf
Binary files /dev/null and b/img/create_group_en.png differ
diff --git a/img/create_queue_en.png b/img/create_queue_en.png
new file mode 100644
index 0000000..498b86e
Binary files /dev/null and b/img/create_queue_en.png differ
diff --git a/img/create_tenant_en.png b/img/create_tenant_en.png
new file mode 100644
index 0000000..079ee14
Binary files /dev/null and b/img/create_tenant_en.png differ
diff --git a/img/create_user_en.png b/img/create_user_en.png
new file mode 100644
index 0000000..028f347
Binary files /dev/null and b/img/create_user_en.png differ
diff --git a/img/current-node-en.png b/img/current-node-en.png
index 153ece3..be59f4a 100644
Binary files a/img/current-node-en.png and b/img/current-node-en.png differ
diff --git a/img/dag0.png b/img/dag0.png
deleted file mode 100644
index 58b6569..0000000
Binary files a/img/dag0.png and /dev/null differ
diff --git a/img/dag4.png b/img/dag4.png
index f315d44..b3ec5a8 100755
Binary files a/img/dag4.png and b/img/dag4.png differ
diff --git a/img/delete.png b/img/delete.png
deleted file mode 100644
index 7fe978f..0000000
Binary files a/img/delete.png and /dev/null differ
diff --git a/img/dependent-nodes-en.png b/img/dependent-nodes-en.png
index 97bbb08..e9b2f3e 100644
Binary files a/img/dependent-nodes-en.png and b/img/dependent-nodes-en.png differ
diff --git a/img/double-click-en.png b/img/double-click-en.png
index 886849b..2a02627 100644
Binary files a/img/double-click-en.png and b/img/double-click-en.png differ
diff --git a/img/edit-datasource-en.png b/img/edit-datasource-en.png
index 55d2cd9..b6935df 100644
Binary files a/img/edit-datasource-en.png and b/img/edit-datasource-en.png differ
diff --git a/img/editDag.png b/img/editDag.png
deleted file mode 100644
index caade91..0000000
Binary files a/img/editDag.png and /dev/null differ
diff --git a/img/file-upload-en.png b/img/file-upload-en.png
index 8604dd1..f10ecb7 100644
Binary files a/img/file-upload-en.png and b/img/file-upload-en.png differ
diff --git a/img/file-view-en.png b/img/file-view-en.png
index cbf7719..6f81aaa 100644
Binary files a/img/file-view-en.png and b/img/file-view-en.png differ
diff --git a/img/file_create.png b/img/file_create.png
index 55abdf8..464b179 100755
Binary files a/img/file_create.png and b/img/file_create.png differ
diff --git a/img/file_rename.png b/img/file_rename.png
index 63ad8a6..bcbc6da 100755
Binary files a/img/file_rename.png and b/img/file_rename.png differ
diff --git a/img/file_upload.png b/img/file_upload.png
index 1bb6dad..b2f36ea 100755
Binary files a/img/file_upload.png and b/img/file_upload.png differ
diff --git a/img/flink.png b/img/flink.png
deleted file mode 100644
index 7d5cdff..0000000
Binary files a/img/flink.png and /dev/null differ
diff --git a/img/flink_edit.png b/img/flink_edit.png
deleted file mode 100644
index afd1fa5..0000000
Binary files a/img/flink_edit.png and /dev/null differ
diff --git a/img/global_param.png b/img/global_param.png
deleted file mode 100644
index 379b8b7..0000000
Binary files a/img/global_param.png and /dev/null differ
diff --git a/img/global_parameter.png b/img/global_parameter.png
index 34572aa..9fb415c 100755
Binary files a/img/global_parameter.png and b/img/global_parameter.png differ
diff --git a/img/global_parameters_en.png b/img/global_parameters_en.png
index d2a84af..88d6ac2 100644
Binary files a/img/global_parameters_en.png and b/img/global_parameters_en.png differ
diff --git a/img/hell_dag.png b/img/hell_dag.png
deleted file mode 100644
index a0599b4..0000000
Binary files a/img/hell_dag.png and /dev/null differ
diff --git a/img/hive-en.png b/img/hive-en.png
index 01c54ee..f1bf032 100644
Binary files a/img/hive-en.png and b/img/hive-en.png differ
diff --git a/img/hive_edit.png b/img/hive_edit.png
index 2a419d0..50d0eed 100755
Binary files a/img/hive_edit.png and b/img/hive_edit.png differ
diff --git a/img/hive_edit2.png b/img/hive_edit2.png
index 8edf932..789d65f 100755
Binary files a/img/hive_edit2.png and b/img/hive_edit2.png differ
diff --git a/img/home.png b/img/home.png
deleted file mode 100644
index 5b5ce0a..0000000
Binary files a/img/home.png and /dev/null differ
diff --git a/img/home_en.png b/img/home_en.png
deleted file mode 100644
index efaf2b8..0000000
Binary files a/img/home_en.png and /dev/null differ
diff --git a/img/http.png b/img/http.png
deleted file mode 100644
index c96781c..0000000
Binary files a/img/http.png and /dev/null differ
diff --git a/img/http_edit.png b/img/http_edit.png
deleted file mode 100644
index f3d4aaa..0000000
Binary files a/img/http_edit.png and /dev/null differ
diff --git a/img/incubator-dolphinscheduler-1.1.0.png b/img/incubator-dolphinscheduler-1.1.0.png
deleted file mode 100644
index 63129a0..0000000
Binary files a/img/incubator-dolphinscheduler-1.1.0.png and /dev/null differ
diff --git a/img/instanceViewLog.png b/img/instanceViewLog.png
deleted file mode 100644
index dfc8a56..0000000
Binary files a/img/instanceViewLog.png and /dev/null differ
diff --git a/img/java-program-en.png b/img/java-program-en.png
index 30cde03..f28a141 100644
Binary files a/img/java-program-en.png and b/img/java-program-en.png differ
diff --git a/img/line.png b/img/line.png
deleted file mode 100644
index 50cae52..0000000
Binary files a/img/line.png and /dev/null differ
diff --git a/img/local_parameter.png b/img/local_parameter.png
index 63129a0..1eac919 100755
Binary files a/img/local_parameter.png and b/img/local_parameter.png differ
diff --git a/img/login.jpg b/img/login.jpg
new file mode 100755
index 0000000..b6574e1
Binary files /dev/null and b/img/login.jpg differ
diff --git a/img/login.png b/img/login.png
deleted file mode 100644
index d406085..0000000
Binary files a/img/login.png and /dev/null differ
diff --git a/img/login_en.png b/img/login_en.png
index a134738..4441500 100644
Binary files a/img/login_en.png and b/img/login_en.png differ
diff --git a/img/mail_edit.png b/img/mail_edit.png
index 13445fa..a7ca3f7 100755
Binary files a/img/mail_edit.png and b/img/mail_edit.png differ
diff --git a/img/mr_edit.png b/img/mr_edit.png
index 854dea7..1fa8549 100755
Binary files a/img/mr_edit.png and b/img/mr_edit.png differ
diff --git a/img/mr_java.png b/img/mr_java.png
deleted file mode 100644
index af21b3c..0000000
Binary files a/img/mr_java.png and /dev/null differ
diff --git a/img/mysql-en.png b/img/mysql-en.png
index 8754f56..5f8313d 100644
Binary files a/img/mysql-en.png and b/img/mysql-en.png differ
diff --git a/img/mysql_edit.png b/img/mysql_edit.png
index d5ffb58..1ae75cb 100755
Binary files a/img/mysql_edit.png and b/img/mysql_edit.png differ
diff --git a/img/node-setting-en.png b/img/node-setting-en.png
index 22b9b0c..7f2dfd3 100644
Binary files a/img/node-setting-en.png and b/img/node-setting-en.png differ
diff --git a/img/online.png b/img/online.png
deleted file mode 100644
index 2a723fc..0000000
Binary files a/img/online.png and /dev/null differ
diff --git a/img/postgresql_edit.png b/img/postgresql_edit.png
index 2b70d1d..79c1eec 100755
Binary files a/img/postgresql_edit.png and b/img/postgresql_edit.png differ
diff --git a/img/procedure_edit.png b/img/procedure_edit.png
index 470e8ca..e6d31ab 100755
Binary files a/img/procedure_edit.png and b/img/procedure_edit.png differ
diff --git a/img/project-home.png b/img/project-home.png
deleted file mode 100644
index 25c5c73..0000000
Binary files a/img/project-home.png and /dev/null differ
diff --git a/img/python-en.png b/img/python-en.png
index c0111e7..618072c 100644
Binary files a/img/python-en.png and b/img/python-en.png differ
diff --git a/img/python-program-en.png b/img/python-program-en.png
index 35b5dfb..9273290 100644
Binary files a/img/python-program-en.png and b/img/python-program-en.png differ
diff --git a/img/python_edit.png b/img/python_edit.png
index e24c81a..e2f6380 100755
Binary files a/img/python_edit.png and b/img/python_edit.png differ
diff --git a/img/redirect.png b/img/redirect.png
deleted file mode 100644
index 1eca997..0000000
Binary files a/img/redirect.png and /dev/null differ
diff --git a/img/run_params.png b/img/run_params.png
deleted file mode 100644
index d8fc4fd..0000000
Binary files a/img/run_params.png and /dev/null differ
diff --git a/img/run_params_button.png b/img/run_params_button.png
deleted file mode 100644
index b1b3a80..0000000
Binary files a/img/run_params_button.png and /dev/null differ
diff --git a/img/shell-en.png b/img/shell-en.png
index 4fc5034..7745176 100644
Binary files a/img/shell-en.png and b/img/shell-en.png differ
diff --git a/img/shell.png b/img/shell.png
deleted file mode 100644
index b7359f3..0000000
Binary files a/img/shell.png and /dev/null differ
diff --git a/img/shell_dag.png b/img/shell_dag.png
deleted file mode 100644
index a0599b4..0000000
Binary files a/img/shell_dag.png and /dev/null differ
diff --git a/img/shell_edit.png b/img/shell_edit.png
new file mode 100755
index 0000000..1fe8870
Binary files /dev/null and b/img/shell_edit.png differ
diff --git a/img/spark-submit-en.png b/img/spark-submit-en.png
index f7a4308..2372405 100644
Binary files a/img/spark-submit-en.png and b/img/spark-submit-en.png differ
diff --git a/img/spark_datesource.png b/img/spark_datesource.png
index 14f621d..ac30d9f 100755
Binary files a/img/spark_datesource.png and b/img/spark_datesource.png differ
diff --git a/img/spark_edit.png b/img/spark_edit.png
index c62c58b..b7c2321 100755
Binary files a/img/spark_edit.png and b/img/spark_edit.png differ
diff --git a/img/sql-node.png b/img/sql-node.png
index d179612..97260ef 100644
Binary files a/img/sql-node.png and b/img/sql-node.png differ
diff --git a/img/sql-node2.png b/img/sql-node2.png
index fe1896e..0163d5d 100644
Binary files a/img/sql-node2.png and b/img/sql-node2.png differ
diff --git a/img/start-process-en.png b/img/start-process-en.png
index 67bb390..e4cff8c 100644
Binary files a/img/start-process-en.png and b/img/start-process-en.png differ
diff --git a/img/statistics-en.png b/img/statistics-en.png
deleted file mode 100644
index a454343..0000000
Binary files a/img/statistics-en.png and /dev/null differ
diff --git a/img/sub-process-en.png b/img/sub-process-en.png
index a95c885..f8d8e50 100644
Binary files a/img/sub-process-en.png and b/img/sub-process-en.png differ
diff --git a/img/subprocess_edit.png b/img/subprocess_edit.png
index 67c921f..6a2152a 100755
Binary files a/img/subprocess_edit.png and b/img/subprocess_edit.png differ
diff --git a/img/task_history.png b/img/task_history.png
index 9ff35d1..07f8ad6 100755
Binary files a/img/task_history.png and b/img/task_history.png differ
diff --git a/img/time-schedule3.png b/img/time-schedule3.png
deleted file mode 100644
index dc032b9..0000000
Binary files a/img/time-schedule3.png and /dev/null differ
diff --git a/img/timeManagement.png b/img/timeManagement.png
deleted file mode 100644
index d9c3160..0000000
Binary files a/img/timeManagement.png and /dev/null differ
diff --git a/img/timer-en.png b/img/timer-en.png
index b815c32..72eab0a 100644
Binary files a/img/timer-en.png and b/img/timer-en.png differ
diff --git a/img/timing-en.png b/img/timing-en.png
index 6341d82..a1642b7 100644
Binary files a/img/timing-en.png and b/img/timing-en.png differ
diff --git a/img/timing.png b/img/timing.png
deleted file mode 100644
index f364cf0..0000000
Binary files a/img/timing.png and /dev/null differ
diff --git a/img/token-en.png b/img/token-en.png
deleted file mode 100644
index fea1b1f..0000000
Binary files a/img/token-en.png and /dev/null differ
diff --git a/img/tree.png b/img/tree.png
deleted file mode 100644
index d9446c3..0000000
Binary files a/img/tree.png and /dev/null differ
diff --git a/img/udf-function.png b/img/udf-function.png
index b06a1a0..4c81761 100644
Binary files a/img/udf-function.png and b/img/udf-function.png differ
diff --git a/img/udf_edit.png b/img/udf_edit.png
index e6fa212..eb5df04 100755
Binary files a/img/udf_edit.png and b/img/udf_edit.png differ
diff --git a/img/user-defined-en.png b/img/user-defined-en.png
index d9d9190..33454b6 100644
Binary files a/img/user-defined-en.png and b/img/user-defined-en.png differ
diff --git a/img/user-defined1-en.png b/img/user-defined1-en.png
index 89145ff..9f9e9f5 100644
Binary files a/img/user-defined1-en.png and b/img/user-defined1-en.png differ
diff --git a/img/useredit2.png b/img/useredit2.png
index dac4869..0e9f5d7 100755
Binary files a/img/useredit2.png and b/img/useredit2.png differ
diff --git a/img/work_list.png b/img/work_list.png
deleted file mode 100644
index 5cbf652..0000000
Binary files a/img/work_list.png and /dev/null differ
diff --git a/img/worker-group-en.png b/img/worker-group-en.png
index f31959b..48235bf 100644
Binary files a/img/worker-group-en.png and b/img/worker-group-en.png differ
diff --git a/img/worker1.png b/img/worker1.png
index acf491d..03d4e00 100644
Binary files a/img/worker1.png and b/img/worker1.png differ
diff --git a/img/worker_group.png b/img/worker_group.png
deleted file mode 100644
index 8c6a474..0000000
Binary files a/img/worker_group.png and /dev/null differ
diff --git a/img/worker_group_en.png b/img/worker_group_en.png
deleted file mode 100644
index 34cadeb..0000000
Binary files a/img/worker_group_en.png and /dev/null differ
diff --git a/img/zookeeper-en.png b/img/zookeeper-en.png
index b982fd3..f7d7f01 100644
Binary files a/img/zookeeper-en.png and b/img/zookeeper-en.png differ
diff --git a/md_json/docs.json b/md_json/docs.json
index dd42b8b..ae529a2 100755
--- a/md_json/docs.json
+++ b/md_json/docs.json
@@ -11,8 +11,6 @@
       "meta": {}
     },
     {
-<<<<<<< HEAD
-=======
       "filename": "architecture-design.md",
       "link": "/en-us/docs/development/architecture-design.html",
       "meta": {}
@@ -48,7 +46,6 @@
       "meta": {}
     },
     {
->>>>>>> website/master
       "filename": "upgrade.md",
       "link": "/en-us/docs/release/upgrade.html",
       "meta": {}
@@ -91,8 +88,6 @@
       "meta": {}
     },
     {
-<<<<<<< HEAD
-=======
       "filename": "architecture-design.md",
       "link": "/zh-cn/docs/development/architecture-design.html",
       "meta": {}
@@ -128,7 +123,6 @@
       "meta": {}
     },
     {
->>>>>>> website/master
       "filename": "upgrade.md",
       "link": "/zh-cn/docs/release/upgrade.html",
       "meta": {}
diff --git a/site_config/docs.js b/site_config/docs.js
index c8abcd0..6d656d8 100755
--- a/site_config/docs.js
+++ b/site_config/docs.js
@@ -65,100 +65,6 @@ export default {
                 ]
             }
         ],
-<<<<<<< HEAD
-      },
-      {
-        title: 'Release',
-        children: [
-          {
-            title: 'Upgrade',
-            link: '/en-us/docs/release/upgrade.html',
-          }
-        ],
-      },
-      {
-        title: 'FAQ',
-        children: [
-          {
-            title: 'FAQ',
-            link: '/en-us/docs/faq.html',
-          }
-        ]
-      }
-    ],
-    barText: 'Documentation',
-  },
-  'zh-cn': {
-    sidemenu: [
-      {
-        title: '用户文档',
-        children: [
-          {
-            title: '快速上手',
-            link: '/zh-cn/docs/user_doc/quick-start.html',
-          },
-          {
-            title: '后端部署',
-            link: '/zh-cn/docs/user_doc/backend-deployment.html',
-          },
-          {
-            title: '前端部署',
-            link: '/zh-cn/docs/user_doc/frontend-deployment.html',
-          },
-          {
-            title: '系统手册',
-            link: '/zh-cn/docs/user_doc/system-manual.html',
-          },
-        ],
-      },
-      {
-        title: '开发者指南',
-        children: [
-          {
-            title: '架构设计',
-            link: '/zh-cn/docs/developer_guide/architecture-design.html',
-          },
-          {
-            title: '后端开发',
-            link: '/zh-cn/docs/developer_guide/backend-development.html',
-          },
-          {
-            title: '插件开发',
-            link: '/zh-cn/docs/developer_guide/architecture-design.html',
-          },
-          {
-            title: '前端开发',
-            link: '/zh-cn/docs/developer_guide/frontend-development.html',
-          },
-          {
-            title: '接口文档',
-            target: '_blank',
-            link: 'http://106.75.43.194:8888/easyscheduler/doc.html?language=zh_CN&lang=zh'
-          },
-        ],
-      },
-      {
-        title: '版本发布',
-        children: [
-          {
-            title: '升级',
-            link: '/zh-cn/docs/release/upgrade.html',
-          }
-        ],
-      },
-      {
-        title: 'FAQ',
-        children: [
-          {
-            title: 'FAQ',
-            link: '/zh-cn/docs/faq.html',
-          }
-        ]
-      }
-    ],
-    barText: '文档'
-  }
-=======
         barText: 'Documentation',
     },
     'zh-cn': {
@@ -229,5 +135,4 @@ export default {
         ],
         barText: '文档'
     }
->>>>>>> website/master
 };