ポスト・プロセッサー#
ポスト・プロセッサーは、モデル推論の後、メトリック計算の前に、予測データやアノテーション・データを処理するクラスです。アダプターとは異なり、ポスト・プロセッサーは生のモデル出力では動作せず、特定の表現形式で動作します。(例: クリップボックスのポスト・プロセッサーは、処理のため検出アノテーションと検出予測を期待します)。
表現コンテナの表現を複雑に使用する場合、設定ファイルにオプション annotation_source と prediction_source を追加できます。特定の表現のみを処理したい場合は、別の方法でポスト・プロセッサーがすべての表現に適切に使用されます。annotation_source および prediction_source には、それぞれアノテーション識別子と出力レイヤー名のカンマ区切りのリストが含まれている必要があります。
すべてのポスト・プロセッサーには、構成に使用できるパラメーターがあります。ポスト・プロセッサーとパラメーターは、構成ファイルを通じて設定されます。ポスト・プロセッサーは、特定のポスト・プロセッサーを使用するため構成ファイルの datasets セクションで提供されます。
サポートされるポスト・プロセッサー#
精度チェッカーは、次の一連のポスト・プロセッサーをサポートしています:
cast_to_int- キャスト検出境界ボックスの座標を浮動小数点形式で整数に指定します。サポートされる表現:DetectionAnotation、DetectionPrediction、TextDetectionAnnotation、TextDetectionPrediction。round_policy- 丸めの方法:nearest、greater、lower、nearest_to_zero。
clip_boxes- クリッピング検出境界ボックスのサイズ。サポートされる表現:DetectionAnotation、DetectionPrediction。dst_widthおよびdst_height- それぞれボックス・クリッピングのデスティネーションの幅と高さ。ティネーションのサイズが等しい場合は、代わりにsizeを使用することもできます。指定しない場合は、画像サイズが使用されます。apply_to- 処理のターゲットボックスを決定するオプション (グラウンド・トゥルース・ボックスのannotationと検出結果のprediction、allは両方)。bboxes_normalizedは、ターゲット境界ボックスが正規化された形式であることを示すフラグです。
normalize_boxes- グラウンドトゥルース検出境界ボックスの正規化 (範囲 [0, 1] にキャスト)。サポートされる表現:DetectionAnotation、DetectionPrediction、ActionDetectionAnotation、ActionDetectionPredictioncorrect_yolo_v2_boxes- Yolo v2 に固有のアプローチを使用した検出予測 bbox 座標のサイズ変更。サポートされる表現:DetectionAnotation、DetectionPrediction。dst_widthおよびdst_height- それぞれデスティネーションの幅と高さ。ティネーションのサイズが等しい場合は、代わりにsizeを使用することもできます。
resize_prediction_boxes- 画像サイズに応じて正規化された検出予測ボックスのサイズを変更します。サポートされる表現:DetectionAnotation、DetectionPrediction。rescaleこのオプションが有効な場合、元の入力サイズを乗算する前に、入力サイズのボックスの再スケーリングが行われます。(オプションであり、デフォルトはFalse)。unpaddingこのオプションが有効な場合、元の入力サイズを乗算する前に、追加のパディングを削除するためボックス正規化座標の再計算が行われます。(オプションであり、デフォルトはFalse)。uncropこのオプションが有効な場合、正規化された座標を元の画像サイズに変換する際に、max_squareトリミング効果が削除されます。(オプションであり、デフォルトはFalse)。
faster_rcnn_postprocessing_resize- 前処理ステップの前に、元の画像サイズに従って正規化された検出予測ボックスのサイズを変更します。サポートされる表現:DetectionAnotation、DetectionPrediction。現時点では、次の場合にのみ機能します:前処理ステップには、入力画像サイズを変更する操作が 1 つだけ含まれており、その操作は
resizeです前処理ステップには、入力画像サイズを変更する操作が 2 つだけ含まれており、その操作は
resizeとpaddingです。
rescaleこのオプションが有効な場合、後処理を適用する前に入力サイズのボックスの再スケーリングが実行されます (オプションで、デフォルトはFalseです)。
nms- 非最大抑制サポートされる表現:DetectionAnotation、DetectionPrediction、ActionDetectionAnnotation、ActionDetectionPrediction。overlap- マージ検出の重複しきい値。use_min_area- オーバーラップを計算するベース領域として 2 つの境界ボックスの最小領域を使用するかを決定するブール値。
class_aware_nms- クラス認識の非最大抑制。nms として表され、特定のクラスに属するボックスに個別に適用されます。サポートされる表現とパラメーターはnmsの場合と同一です。diou_nms- 距離 IoU の非最大値の抑制。サポートされる表現:DetectionAnotation、DetectionPrediction、ActionDetectionAnnotation、ActionDetectionPrediction。overlap- マージ検出の重複しきい値。
soft_nms- ソフトな非最大抑制。サポートされる表現:DetectionAnotation、DetectionPrediction、ActionDetectionAnnotation、ActionDetectionPrediction。keep_top_k- 保持する必要がある検出の最大数。sigma- 更新された検出スコア計算のシグマ値。min_score- ブレークポイント。
weighted_nms- 重み付けされた非最大抑制。サポートされる表現:DetectionAnotation、DetectionPrediction。overlap- マージ検出の重複しきい値。
filter- さまざまなパラメーターを使用してデータをフィルタリングします。サポートされる表現:DetectionAnotation、DetectionPrediction。apply_to- 処理のターゲットボックスを決定します (グラウンド・トゥルース・ボックスのannotationと検出結果のprediction、allは両方)。remove_filtered- フィルタリングされたデータを削除します。アノテーションによって、デフォルトとしてフィルタリングされたデータを削除せずに無視できます。それ以外では、フィルタリングされたデータは自動的に削除されます。フィルタリングでサポートされているパラメーター:
labels、min_confidence、height_range、width_range、is_empty、min_visibility、aspect_ratio、area_ratio、area_range。height_range、width_rangeによるフィルタリングは、TextDetectionAnnotation、TextDetectionPrediction、area_range(PoseEstimationAnnotation、PoseEstimationPredictionおよびTextDetectionAnnotation、TextDetectionPrediction) でも使用できます。
normalize_landmarks_points- グラウンド・トゥルース・ランドマーク・ポイントの正規化。サポートされる表現:FacialLandmarksAnnotation、FacialLandmarksPrediction。use_annotation_rect- ソース画像サイズの代わりに、ポイント・スケーリングにアノテーションのメタデータに保存されている四角形サイズを使用できるようにします。
encode_segmentation_mask- セグメント化ラベルイメージをセグメント化マスクとしてエンコードします。サポートされる表現:SegmentationAnotation、SegmentationPrediction。apply_to- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。注: この後処理には、特定のデータセット・メタ (アノテーションの場合はsegmentation_colors、予測の場合はprediction_to_gt_labels) が必要です。
resize_segmentation_mask- セグメント化マスクのサイズを変更します。サポートされる表現:SegmentationAnotation、SegmentationPrediction、BackgroundMattingAnnotation、BackgroundMattingPrediction、SalientRegionAnnotation、SalientRegionPrediction、AnomalySegmentationAnnotation、AnomalySegmentationPrediction。dst_widthとdst_heightはそれぞれ、サイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsizeを使用することもできます。最終入力サイズにパディングなしでサイズ変更するには、to_dst_image_sizeフラグにTrueで使用します。これらのパラメーターが指定されていない場合、元の画像サイズがデフォルトになります。apply_to- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。
extend_segmentation_mask- アノテーション・セグメント化マスクを予測されたマスクサイズに拡張して、境界を特定の値で埋めます。サポートされる表現:SegmentationAnotation、SegmentationPrediction。filling_label- 境界線を埋める値 (デフォルトは 255)。pad_type- パディングスペースの位置。サポートされる位置:center、left_top、right_bottom(デフォルトはcenter)。
zoom_segmentation_mask- ズームのセグメント化マスク。サポートされる表現:SegmentationAnotation、SegmentationPrediction。zoom- ズーム操作時のサイズ。
crop_segmentation_mask- 2-D、3-D アノテーション・マスクのトリミング。サポートされる表現:BrainTumorSegmentationAnnotation、BrainTumorSegmentationPrediction、SegmentationAnnotation、SegmentationPrediction。dst_width、dst_heightとdst_volumeはそれぞれ、トリミングされた 3D 画像の出力先の幅、高さ、ボリュームです。ティネーションのサイズが 3 つの次元すべてで等しい場合は、sizeを使用することもできます。
crop_or_pad-segmentation_mask- 元の画像のマスクサイズがデスティネーションのサイズより大きい場合は中央のトリミングを行い、ソースのサイズがデスティネーションより小さい場合はパディングを行います。パディング値は 0、現実化は右下です。dst_widthとdst_heightはそれぞれ、キーポイントのサイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsizeを使用することもできます。サポートされる表現:SegmentationAnotation、SegmentationPrediction。
crop_padded_prediction- 元の画像がパディングされている場合は、パディングサイズに合わせてトリミングを行います。サポートされる表現:SegmentationAnotation、SegmentationPrediction。heatmap2keypoints- ヒートマップからランドマークのキーポイントを抽出します。サポートされる表現:FacialLandmarksHeatMapAnnotation、FacialLandmarksHeatMapPrediction。clip_segmentation_mask- セグメント化マスク値をクリッピングします。サポートされる表現:BrainTumorSegmentationAnnotation、BrainTumorSegmentationPrediction。min_value- 範囲の下限。max_value- 範囲の上限。
segmentation_prediction_resample- 出力予測を 2 つのステップでリサンプリングします。1) 境界ボックスのサイズに合わせてサイズを変更します。2) アノテーション・サイズまで拡張します。サポートされる表現:BrainTumorSegmentationAnnotation、BrainTumorSegmentationPrediction。正しい境界ボックスのサイズを設定するには、brats_numpyコンバーターまたはcrop_bratsプリプロセッサーのboxes_fileタグを使用する必要があります。make_argmax- リサンプリング後に argmax 操作を予測マスクに適用します (デフォルトではFalse)。オプションmake_argmaxを 1 つだけ指定します。
transform_brats_prediction- 予測をWT-TC-ET形式からNCR/NET-ED-ETにトランスフォームします。各予測チャネルからのしきい値 (しきい値は0.5) を超える要素の値を、指定された順序で 1 つのチャネルマスクに順次埋め込みます。order- チャネルの入力順序を指定しますvalues- 新しい順序に従って各チャネルの値を指定します
remove_brats_prediction_padding- 出力予測を 2 つのステップで処理します。1) パディングを削除。2) 注釈サイズまで拡張。サポートされる表現:BrainTumorSegmentationAnnotation、BrainTumorSegmentationPrediction。make_argmax- argmax 操作を予測マスクに適用します (デフォルトはFalse)。
extract_answers_tokens- アノテーション・テキストから予測されたトークンのシーケンスを抽出します。サポートされる表現:QuestionAnsweringAnnotation、QuestionAnsweringPrediction。max_answer- 回答の最大長 (オプション、デフォルト値は 30)。n_best_size- 回答に対する n ベスト予測サイズの合計数 (オプション、デフォルト値は 20)。v2_with_no_answers- ブール値。true の場合、SQuADv2 データセットが使用されていることを示しますが、いくつかの質問には回答できません。no_answer_score_threshold- このしきい値を下回ると、SQuADv2 予測は無視されます (回答のない予測)。
bidaf_extract_answers_tokens- アノテーション・テキストから予測されたトークンのシーケンスを抽出します。サポートされる表現:QuestionAnsweringBiDAFAnnotation、QuestionAnsweringPrediction。translate_3d_poses- 3D ポーズを変換します。サポートされる表現:PoseEstimation3dAnnotation、PoseEstimation3dPrediction。予測された各ポーズの 3D 座標を、対応する移動ベクトル上でシフトします。resize_super_resolution- 超解像予測画像のリサイズ。サポートされる表現:SuperResolutionAnotation、SuperResolutionPrediction。dst_widthとdst_heightはそれぞれ、サイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsizeを使用することもできます。これらのパラメーターのいずれも指定されていない場合は、高解像度の画像サイズがデフォルトとして使用されます。target- サイズ変更のターゲット画像を選択 (予測またはアノテーション)
resize_style_transfer- スタイル転送予測画像のサイズ変更。サポートされる表現:StyleTransferAnotation、StyleTransferPrediction。dst_widthとdst_heightはそれぞれ、サイズ変更のデスティネーションの幅と高さです。
crop_image- 画像のトリミング。サポートされる表現:ImageInpaintingAnnotation、ImageInpaintingPrediction、ImageProcessingAnnotation、ImageProcessingPrediction。- 画像の隅をトリミングします。サポートされる表現:
ImageInpaintingAnnotation、ImageInpaintingPrediction、ImageProcessingAnnotation、ImageProcessingPrediction。dst_widthとdst_heightはデスティネーションの幅と高さです。corner_typeはクロップのタイプです。設定可能なオプションは次のとおりです。top-lefttop-rightbottom-leftbottom-rightデフォルトはtop-leftです
resize- 画像またはセグメント化マスクのサイズを変更します。サポートされる表現:SegmentationAnotation、SegmentationPrediction、StyleTransferAnotation、StyleTransferPrediction、SuperResolutionAnotation、SuperResolutionPrediction、ImageProcessingAnnotation、ImageProcessingPrediction、SalientRegionAnnotation、SalientRegionPrediction、BackgroundMattingAnnotation、BackgroundMattingPrediction、AnomalySegmentationAnnotation、AnomalySegmentationPrediction。dst_widthとdst_heightはそれぞれ、サイズ変更のデスティネーションの幅と高さです。ティネーションのサイズが等しい場合は、代わりにsizeを使用することもできます。これらのパラメーターが指定されていない場合、画像サイズはデフォルトになります。apply_to- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。resize_realization- パラメーターは、サイズ変更に使用するライブラリーの機能を指定します:opencvまたはpillow(デフォルトはpillowです)。opencvライブラリーは次の表現でサポートされています:StyleTransferAnnotation、StyleTransferPrediction,SuperResolutionAnnotation、SuperResolutionPrediction、ImageProcessingAnnotation、ImageProcessingPrediction、ImageInpaintingAnnotation、ImageInpaintingPrediction。
rgb_to_gray- RGB 形式で保存された参照データをグレースケールに変換します。サポートされる表現:SuperResolutionAnnotation、SuperResolutionPrediction、ImageProcessingAnnotation、ImageProcessingPrediction、StyleTransferAnnotation、StyleTransferPrediction。bgr_to_gray- BGR 形式で保存された参照データをグレースケールに変換します。サポートされる表現:SuperResolutionAnnotation、SuperResolutionPrediction、ImageProcessingAnnotation、ImageProcessingPrediction、StyleTransferAnnotation、StyleTransferPrediction。remove_repeats- 繰り返される予測トークンを削除します。サポートされる表現:MachineTranslationPrediction、MachineTranslationAnnotation。to_lower_case- トークンを小文字に変換します。サポートされる表現:MachineTranslationPrediction、MachineTranslationAnnotation。sr_image_recovery- 入力を YCrCb 形式に復元し、予測グレーチャネルと入力 Cr および Cb チャネルを使用して、予測を BRG または RGB 形式に変換します。サポートされる表現:SuperResolutionPrediction。target_color- 超解像度画像のターゲット色空間 -bgrおよびrgbがサポートされています。(オプションであり、デフォルトはrgb)。size- YCrCb 画像を復元するモデル入力のサイズ。dst_widthとdst_height- YCrCb 画像を復元するモデル入力の幅と高さ。
colorization_recovery- LAB 色空間で AB チャネルとして表現されるカラー化モデルの結果から BGR 画像を復元します。サポートされる表現:ImageProcessingAnnotation、ImageProcessingPrediction。argmax_segmentation_mask- カテゴリー・アノテーションのセグメント化マスクを数値に変換します。サポートされる表現:SegmentationAnnotation、SegmentationPrediction。shift_labels- 予測された検出ラベルをシフトします。サポートされる表現:DetectionPrediction。offset- シフトの値。
normalize_salience_map- 参照顕著性マップを [0, 255] の範囲から [0, 1] の範囲に変換します。サポートされる表現:SalientRegionAnnotation、SalientRegionPrediction。min_max_normalization- 指定された最小値と最大値から回帰データを [0, 1] に正規化します。サポートされる表現:FeatureRegressionAnnotation、RegressionAnnotation、RegressionPredictionmin- 範囲内の最小値、オプション、デフォルトは 0。max- 範囲内の最大値。apply_to- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。
pad_signal- 入力データが左パディングされた場合は、基準信号に左パディングを追加します。サポートされる表現:NoiseSuppressionAnnotation、NoiseSuppressionPrediction。time_series_denormalize- 予測曲線とグラウンドトゥルース曲線に非正規化を適用します。サポートされる表現:TimeSeriesForecastingAnnotation、TimeSeriesForecastingQuantilesPrediction。interpolation- 値をターゲット範囲に補間します。サポートされる表現:ImageProcessingPrediction、ImageProcessingAnnotation。mode- 補間モード。現在は、linearモードのみが利用できます。(オプション、デフォルトはlinearです)target_min- ターゲット範囲の最小値。(オプション、デフォルト値は 0)target_max- ターゲット範囲の最大値。(オプション、デフォルト値は 255)as_log- ソース値の対数スケールで動作します。(オプション、デフォルト値は False)
invert_mask- セグメント化または背景マットマスクを反転します。サポートされる表現:SegmentationAnnotation、SegmentationPrediction、BackgroundMattingAnnotation、BackgroundMattingPrediction。apply_to- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。
指定された
min値とmax値を持つようにマスクデータ範囲を再スケールします。サポートされる表現:BackgroundMattingAnnotation、BackgroundMattingPrediction。apply_to- 処理のターゲットマスクを決定します (グラウンドトゥルースのアノテーションと検出結果の予測、または両方)。min- 範囲内の最小値、オプション、デフォルトは 0。max- 範囲内の最大値。
sentence_similarity_pooling- 文の類似性タスクの単語の埋め込みをプールします。サポートされる表現:SentenceSimilarityAnnotation、ReidentificationPrediction。pooling type- 埋め込みのプーリングタイプ - 平均プーリングの場合はmean、最大プーリングの場合はmax(オプション、デフォルトはmean)。remove_padding- 単語埋め込みから文字列の末尾のパディングを削除します (オプション、デフォルトはTrue)。
hand_landmarks- 手のランドマーク座標をソース画像の座標空間に変換します。サポートされる表現:HandLandmarksPrediction。