Asakusa on Sparkの最適化設定¶
この文書では、Asakusa on Sparkのバッチアプリケーション実行時の最適化設定について説明します。
設定方法¶
Asakusa on Sparkのバッチアプリケーション実行時の設定は、 設定ファイル を使う方法と 環境変数 を使う方法があります。
設定ファイル¶
Asakusa on Sparkに関するバッチアプリケーション実行時のパラメータは、 $ASAKUSA_HOME/spark/conf/spark.properties に記述します。
このファイルは、Asakusa on Spark Gradle Pluginを有効にしてデプロイメントアーカイブを作成した場合にのみ含まれています。
このファイルに設定した内容はSpark向けのバッチアプリケーションの設定として使用され、バッチアプリケーション実行時の動作に影響を与えます。
設定ファイルはJavaのプロパティファイルのフォーマットと同様です。以下は spark.properties の設定例です。
## the number of parallel tasks of each Asakusa stage
com.asakusafw.spark.parallelism=40
## the number of records of the in-memory buffer for each output fragment
com.asakusafw.spark.fragment.bufferSize=256
環境変数¶
Asakusa on Sparkに関するバッチアプリケーション実行時のパラメータは、環境変数 ASAKUSA_SPARK_ARGS に設定することもできます。
環境変数 ASAKUSA_SPARK_ARGS の値には --engine-conf <key>=<value> という形式でパラメータを設定します。
以下は環境変数の設定例です。
ASAKUSA_SPARK_ARGS='--engine-conf com.asakusafw.spark.parallelism=40 --engine-conf com.asakusafw.spark.fragment.bufferSize=256'
設定ファイルと環境変数で同じプロパティが設定されていた場合、環境変数の値が利用されます。
Hint
環境変数による設定は、バッチアプリケーションごとに設定を変更したい場合に便利です。
Attention
yaess-batch.sh などのYAESSコマンドを実行する環境と、Sparkを実行する環境が異なる場合(例えばYAESSのSSH機能を利用している場合)に、 YAESSコマンドを実行する環境の環境変数がSparkを実行する環境に受け渡されないことがある点に注意してください。
YAESSではYAESSコマンドを実行する環境の環境変数をYAESSのジョブ実行先に受け渡すための機能がいくつか用意されているので、それらの機能を利用することを推奨します。 詳しくは YAESSユーザーガイド などを参照してください。
設定項目¶
Asakusa on Sparkのバッチアプリケーション実行時の設定項目は以下の通りです。
- com.asakusafw.spark.parallelism
- バッチアプリケーション実行時に、ステージごとの標準的なタスク分割数を指定します。 - ステージの特性(推定データサイズや処理内容)によって、この分割数を元に実際のタスク分割数が決定されます。 - 標準的には、SparkのExecutorに割り当てた全コア数の1〜4倍程度を指定します。 - このプロパティが設定されていない場合、 - spark.default.parallelismの値を代わりに利用します。いずれのプロパティも設定されていない場合、下記の既定値を利用します。- 既定値: - 2
- com.asakusafw.spark.parallelism.scale.small
- コンパイラが「比較的小さなデータ」と判断したステージのタスク分割数を標準からの割合で指定します。 - 標準のタスク分割数については - com.asakusafw.spark.parallelismで設定できます。また、データサイズの閾値についてはコンパイラプロパティの- spark.parallelism.limit.smallで設定できます。- 既定値: - 0.5
- com.asakusafw.spark.parallelism.scale.large
- コンパイラが「比較的大きなデータ」と判断したステージのタスク分割数を標準からの割合で指定します。 - 標準のタスク分割数については - com.asakusafw.spark.parallelismで設定できます。また、データサイズの閾値についてはコンパイラプロパティの- spark.parallelism.limit.largeで設定できます。- 既定値: - 2.0
- com.asakusafw.spark.parallelism.scale.huge
- コンパイラが「巨大なデータ」と判断したステージのタスク分割数を標準からの割合で指定します。 - 標準のタスク分割数については - com.asakusafw.spark.parallelismで設定できます。また、データサイズの閾値についてはコンパイラプロパティの- spark.parallelism.limit.hugeで設定できます。- 既定値: - 4.0
See also
コンパイラプロパティについては、 Asakusa on Spark リファレンス を参照してください。
- com.asakusafw.spark.fragment.bufferSize
- バッチアプリケーション実行時に、各演算子の出力となるデータモデルオブジェクトをメモリ上に保持する個数を指定します。 グループ単位で実行される演算子に対しては、グループ単位での保持数になります。 - 演算子の処理中に出力されるデータモデルオブジェクトの個数がこのプロパティに設定した値を超えた時点で、メモリ上に保持していたデータモデルオブジェクトの内容をファイル上のバッファに退避します。 - このプロパティを設定しない、または負の値を指定した場合、演算子の処理が終了するまで出力対象となるすべてのデータモデルオブジェクトはメモリ上に保持されます。 - 既定値: - -1
Hint
ある演算子の出力サイズが大きくメモリ不足エラーが発生するような場合に、このプロパティを設定することで問題を回避できる可能性があります。
Attention
ファイル上のバッファは利用するJVMのシステムプロパティ java.io.tmpdir で設定されているディレクトリ配下に作成されます。
大量のバッファが出力されるような処理を実行する場合には、出力先に十分な空き領域を確保する必要があることに注意してください。
- spark.hadoop.com.asakusafw.bridge.directio.input.combine
- Direct I/O によるファイルの読み込み時に、ここで指定した数値を上限として、Direct I/Oの入力ごとに入力スプリットを結合します。 - Asakusa on Sparkでは入力ファイルの数に応じてSparkタスクを生成して実行しますが、 入力ファイル数が膨大であるような場合、非常に多くのSparkタスクが生成されることで パフォーマンスが劣化したり、実行環境が不安定になる現象が確認されています。 そのような場合、このオプションを設定することで上記の問題を回避できる可能性があります。 - このオプションはコンパイラプロパティ - spark.input.directに- trueを指定してコンパイルされたバッチアプリケーションにのみ有効です。- 既定値: - -1(無効)
