You are viewing a plain text version of this content. The canonical link for it is here.
Posted to commits@cassandra.apache.org by Apache Wiki <wi...@apache.org> on 2011/02/13 15:36:35 UTC

[Cassandra Wiki] Update of "Operations_JP" by MakiWatanabe

Dear Wiki user,

You have subscribed to a wiki page or wiki category on "Cassandra Wiki" for change notification.

The "Operations_JP" page has been changed by MakiWatanabe.
http://wiki.apache.org/cassandra/Operations_JP?action=diff&rev1=81&rev2=82

--------------------------------------------------

  ## page was copied from Operations
  <<TableOfContents()>>
  
- == Hardware ==
- See CassandraHardware
+ == ハードウェア ==
+ CassandraHardwareを参照して下さい。
  
- == Tuning ==
- See PerformanceTuning
+ == チューニング ==
+ PerformanceTuningを参照して下さい。
  
- == Schema management ==
- See LiveSchemaUpdates [refers to functionality in 0.7]
+ == スキーマ管理 ==
+ LiveSchemaUpdatesを参照して下さい。[0.7で導入された機能]
  
- == Ring management ==
- Each Cassandra server [node] is assigned a unique Token that determines what keys it is the first replica for.  If you sort all nodes' Tokens, the Range of keys each is responsible for is (!PreviousToken, !MyToken], that is, from the previous token (exclusive) to the node's token (inclusive).  The machine with the lowest Token gets both all keys less than that token, and all keys greater than the largest Token; this is called a "wrapping Range."
+ == リング管理 ==
+ それぞれのCassandraサーバ(ノード)には、そのホストを最初のレプリカ先として使用するキーを決定するためのトークンが割り当てられます。ノードのトークンでソートした場合、あるノードが担当するキー範囲は(前のノードのトークン、自ノードのトークン]です。即ち、「前の」トークン(その値は含まない)から自分のトークン(値を含む)までの間隔です。リングの中で最も小さいトークンを持つノードはそのトークン値以下のキーに加えて、最大のトークンよりも大きいすべてのキーを担当します。これは"範囲ラップ"と呼ばれています。
  
- (Note that there is nothing special about being the "primary" replica, in the sense of being a point of failure.)
+ (障害シナリオでは「プライマリレプリカ」は特別な意味を持たないことに注意して下さい。すべてのレプリカは同等です。)
  
- When the !RandomPartitioner is used, Tokens are integers from 0 to 2**127.  Keys are converted to this range by MD5 hashing for comparison with Tokens.  (Thus, keys are always convertible to Tokens, but the reverse is not always true.)
+ !RandomPartitionerが使用されている場合、トークンは0から2^127までの範囲の整数です。キーはMD5ハッシュによってこの範囲にマップされ、トークンと比較されます。(キー値からトークン空間へは可換ですが、その逆は真ではありません。)
  
- === Token selection ===
- Using a strong hash function means !RandomPartitioner keys will, on average, be evenly spread across the Token space, but you can still have imbalances if your Tokens do not divide up the range evenly, so you should specify !InitialToken to your first nodes as `i * (2**127 / N)` for i = 0 .. N-1. In Cassandra 0.7, you should specify `initial_token` in `cassandra.yaml`.
+ === トークン選択 ===
+ 強いハッシュ関数を使うことによって平均的には!RandomPartitionerのキーはキー空間に均一に分散されますが、もしトークンがキー範囲を均等に分割できていなければノード間のアンバランスが発生するかもしれません。このような場合は!InitialTokenを`i * (2**127 / N)` (i は 0 .. N-1)に設定する必要があるでしょう。Cassandra 0.7では`cassandra.yaml`で`initial_token`を指定できます。
  
- With order preserving partitioners, your key distribution will be application-dependent.  You should still take your best guess at specifying initial tokens (guided by sampling actual data, if possible), but you will be more dependent on active load balancing (see below) and/or adding new nodes to hot spots.
+ 順序保存パーティショナではキーの分散度合いはアプリケーション依存になります。あなたはできるだけ適切な初期トークンを設定すべきですが(可能なら実データをサンプリングして決定した方がいいでしょう)、下記の述べる能動的な負荷分散設定や、負荷集中箇所へのノード追加などに依存することも多いでしょう。 
  
- Once data is placed on the cluster, the partitioner may not be changed without wiping and starting over.
+ クラスタ上で一度データが配置されたら、データの削除・再起動なしにパーティショナを変更することはできません。
  
  === Replication ===
  A Cassandra cluster always divides up the key space into ranges delimited by Tokens as described above, but additional replica placement is customizable via IReplicaPlacementStrategy in the configuration file.  The standard strategies are