正式なドキュメントは英語版であり、この日本語訳はAI支援翻訳により作成された参考用のものです。日本語訳の一部の内容は人間によるレビューがまだ行われていないため、翻訳のタイミングにより英語版との間に差異が生じることがあります。最新かつ正確な情報については、英語版をご参照ください。

機械学習モデル検証

  • プラン: Free、Premium、Ultimate
  • 提供形態: GitLab.com、GitLab Self-Managed、GitLab Dedicated

機械学習モデルを作成する際に、モデルのパフォーマンスを向上させるために、さまざまなパラメータ、設定、および特徴量エンジニアリングを試す可能性があります。後で実験をレプリケートするには、メタデータとアーティファクトを効果的に追跡する必要があります。GitLabのモデル検証を使用して、パラメータ、メトリクス、およびアーティファクトをGitLabに直接追跡およびログ記録します。

実験とは何ですか?

プロジェクトでは、実験は、比較可能なモデル実行のコレクションです。実験は、長期にわたる場合(たとえば、ユースケースを表す場合)や、短期的な場合(マージリクエストによってトリガーされるハイパーパラメータ調整の結果)がありますが、通常は、同じメトリクスによって測定される同様のパラメータセットを持つモデル実行を保持します。

モデルとその実行回数、作成者、最終アクティビティーを示すモデル検証。

モデル実行

モデル実行とは、機械学習モデルのトレーニングのバリエーションであり、最終的にはモデルのバージョンにプロモートできます。

ジョブID、作成タイムスタンプ、作成者名、ステータスを含む実験リストチャート。

データサイエンティストの目標は、特定のメトリクスによって示されるように、パラメータ値が最高のモデルパフォーマンスにつながるモデル実行を見つけることです。

MLflow実行ID、ソース情報、およびパラメータを示す実験およびメタデータページ。

いくつかのパラメータの例:

  • アルゴリズム(線形回帰や決定木など)。
  • アルゴリズムのハイパーパラメータ(学習率、ツリーの深さ、エポック数)。
  • 含まれるフィーチャ。

新しい実験と実行を追跡する

実験とトライアルは、MLflowクライアントの互換性を通じてのみ追跡できます。GitLabをMLflowクライアントのバックエンドとして使用する方法の詳細については、MLflowクライアントの互換性を参照してください。

モデル実行を調査する

現在アクティブな実験を一覧表示するには、https/-/ml/experimentsに移動するか、次の手順に従います:

  1. 左側のサイドバーで、検索または移動先を選択して、プロジェクトを見つけます。
  2. 分析 > モデル検証を選択します。
  3. ログに記録されたすべての実行を、そのメトリクス、パラメータ、およびメタデータとともに表示するには、実験を選択します。
  4. 実行の詳細を表示するには、詳細を選択します。

ログアーティファクトを表示する

トライアルアーティファクトはパッケージとして保存されます。実行用にアーティファクトがログに記録された後、実行用にログに記録されたすべてのアーティファクトはパッケージレジストリにリストされます。実行のパッケージ名はml_experiment_<experiment_id>です。ここで、バージョンは実行IIDです。アーティファクトへのリンクは、Experiment RunsリストまたはRun detailからもアクセスできます。

CI情報を表示する

実行をそれらを作成したCIジョブに関連付けることができ、マージリクエスト、パイプライン、およびパイプラインをトリガーしたユーザーへのクイックリンクを許可します:

関連付けられたCIジョブ、パイプライン、およびユーザー情報を表示する実行詳細ページ。

ログに記録されたメトリクスを表示する

実験を実行すると、GitLabは、そのメトリクス、パラメータ、およびメタデータを含む、特定の関連データを記録します。分析のためにチャートでメトリクスを表示できます。

ログに記録されたメトリクスを表示するには:

  1. 左側のサイドバーで、検索または移動先を選択して、プロジェクトを見つけます。
  2. 分析 > モデル検証を選択します。
  3. 表示する実験を選択します。
  4. パフォーマンスタブを選択します。

実験のパフォーマンスのグラフ