GPU対応のホストされるRunner
- プラン: Premium、Ultimate
- 提供形態: GitLab.com
GitLabは、ModelOpsまたはHPC(ModelOpsワークロードの一部としてのLarge Language Models(LLM)のトレーニングやデプロイなど)のために、高コンピューティングのワークロードを高速化するGPU対応のホストされたRunnerを提供します。
GitLabは、GPU対応のRunnerをLinux上でのみ提供します。これらのRunnerの動作方法の詳細については、Hosted runners on Linuxを参照してください
GPU対応Runnerで利用可能なマシンタイプ
以下のマシンタイプは、Linux x86-64上のGPU対応Runnerで利用可能です。
| Runnerタグ | vCPU | メモリ | ストレージ | GPU | GPUメモリ |
|---|---|---|---|---|---|
saas-linux-medium-amd64-gpu-standard | 4 | 15 GB | 50 GB | 1 Nvidia Tesla T4(または類似) | 16 GB |
GPUドライバー搭載のコンテナイメージ
Linux上のGitLabホストされたRunnerと同様に、ジョブは、独自のイメージを持ち込むポリシーを持つ、分離された仮想マシン(VM)で実行されます。GitLabは、ホストVMからGPUを分離された環境にマウントします。GPUを使用するには、GPUドライバーがインストールされたDockerイメージを使用する必要があります。Nvidia GPUの場合、CUDA Toolkitを使用できます。
.gitlab-ci.ymlファイルの例
以下の.gitlab-ci.ymlファイルの例では、Nvidia CUDAベースのUbuntuイメージが使用されています。script:セクションでは、Pythonをインストールします。
gpu-job:
stage: build
tags:
- saas-linux-medium-amd64-gpu-standard
image: nvcr.io/nvidia/cuda:12.1.1-base-ubuntu22.04
script:
- apt-get update
- apt-get install -y python3.10
- python3.10 --versionジョブを実行するたびにTensorflowやXGBoostなどの大きなライブラリをインストールしたくない場合は、必要なすべてのコンポーネントがプリインストールされた独自のイメージを作成できます。GPU対応のホストされたRunnerを活用してXGBoostモデルをトレーニングする方法については、このデモをご覧ください:
GitLab GPU対応ホストRunnerのビデオデモ: Train XGboost models with GitLab。