機械学習モデル検証
- プラン: Free、Premium、Ultimate
- 提供形態: GitLab.com、GitLab Self-Managed、GitLab Dedicated
機械学習モデルを作成する際に、モデルのパフォーマンスを向上させるために、さまざまなパラメータ、設定、および特徴量エンジニアリングを試す可能性があります。後で実験をレプリケートするには、メタデータとアーティファクトを効果的に追跡する必要があります。GitLabのモデル検証を使用して、パラメータ、メトリクス、およびアーティファクトをGitLabに直接追跡およびログ記録します。
実験とは何ですか?
プロジェクトでは、実験は、比較可能なモデル実行のコレクションです。実験は、長期にわたる場合(たとえば、ユースケースを表す場合)や、短期的な場合(マージリクエストによってトリガーされるハイパーパラメータ調整の結果)がありますが、通常は、同じメトリクスによって測定される同様のパラメータセットを持つモデル実行を保持します。
モデル実行
モデル実行とは、機械学習モデルのトレーニングのバリエーションであり、最終的にはモデルのバージョンにプロモートできます。
データサイエンティストの目標は、特定のメトリクスによって示されるように、パラメータ値が最高のモデルパフォーマンスにつながるモデル実行を見つけることです。
いくつかのパラメータの例:
- アルゴリズム(線形回帰や決定木など)。
- アルゴリズムのハイパーパラメータ(学習率、ツリーの深さ、エポック数)。
- 含まれるフィーチャ。
新しい実験と実行を追跡する
実験とトライアルは、MLflowクライアントの互換性を通じてのみ追跡できます。GitLabをMLflowクライアントのバックエンドとして使用する方法の詳細については、MLflowクライアントの互換性を参照してください。
モデル実行を調査する
現在アクティブな実験を一覧表示するには、https/-/ml/experimentsに移動するか、次の手順に従います:
- 左側のサイドバーで、検索または移動先を選択して、プロジェクトを見つけます。
- 分析 > モデル検証を選択します。
- ログに記録されたすべての実行を、そのメトリクス、パラメータ、およびメタデータとともに表示するには、実験を選択します。
- 実行の詳細を表示するには、詳細を選択します。
ログアーティファクトを表示する
トライアルアーティファクトはパッケージとして保存されます。実行用にアーティファクトがログに記録された後、実行用にログに記録されたすべてのアーティファクトはパッケージレジストリにリストされます。実行のパッケージ名はml_experiment_<experiment_id>です。ここで、バージョンは実行IIDです。アーティファクトへのリンクは、Experiment RunsリストまたはRun detailからもアクセスできます。
CI情報を表示する
実行をそれらを作成したCIジョブに関連付けることができ、マージリクエスト、パイプライン、およびパイプラインをトリガーしたユーザーへのクイックリンクを許可します:
ログに記録されたメトリクスを表示する
実験を実行すると、GitLabは、そのメトリクス、パラメータ、およびメタデータを含む、特定の関連データを記録します。分析のためにチャートでメトリクスを表示できます。
ログに記録されたメトリクスを表示するには:
- 左側のサイドバーで、検索または移動先を選択して、プロジェクトを見つけます。
- 分析 > モデル検証を選択します。
- 表示する実験を選択します。
- パフォーマンスタブを選択します。