正式なドキュメントは英語版であり、この日本語訳はAI支援翻訳により作成された参考用のものです。日本語訳の一部の内容は人間によるレビューがまだ行われていないため、翻訳のタイミングにより英語版との間に差異が生じることがあります。最新かつ正確な情報については、英語版をご参照ください。

GPU対応のホストされるRunner

  • プラン: Premium、Ultimate
  • 提供形態: GitLab.com

GitLabは、ModelOpsまたはHPC(ModelOpsワークロードの一部としてのLarge Language Models(LLM)のトレーニングやデプロイなど)のために、高コンピューティングのワークロードを高速化するGPU対応のホストされたRunnerを提供します。

GitLabは、GPU対応のRunnerをLinux上でのみ提供します。これらのRunnerの動作方法の詳細については、Hosted runners on Linuxを参照してください

GPU対応Runnerで利用可能なマシンタイプ

以下のマシンタイプは、Linux x86-64上のGPU対応Runnerで利用可能です。

RunnerタグvCPUメモリストレージGPUGPUメモリ
saas-linux-medium-amd64-gpu-standard415 GB50 GB1 Nvidia Tesla T4(または類似)16 GB

GPUドライバー搭載のコンテナイメージ

Linux上のGitLabホストされたRunnerと同様に、ジョブは、独自のイメージを持ち込むポリシーを持つ、分離された仮想マシン(VM)で実行されます。GitLabは、ホストVMからGPUを分離された環境にマウントします。GPUを使用するには、GPUドライバーがインストールされたDockerイメージを使用する必要があります。Nvidia GPUの場合、CUDA Toolkitを使用できます。

.gitlab-ci.ymlファイルの例

以下の.gitlab-ci.ymlファイルの例では、Nvidia CUDAベースのUbuntuイメージが使用されています。script:セクションでは、Pythonをインストールします。

gpu-job:
  stage: build
  tags:
    - saas-linux-medium-amd64-gpu-standard
  image: nvcr.io/nvidia/cuda:12.1.1-base-ubuntu22.04
  script:
    - apt-get update
    - apt-get install -y python3.10
    - python3.10 --version

ジョブを実行するたびにTensorflowやXGBoostなどの大きなライブラリをインストールしたくない場合は、必要なすべてのコンポーネントがプリインストールされた独自のイメージを作成できます。GPU対応のホストされたRunnerを活用してXGBoostモデルをトレーニングする方法については、このデモをご覧ください:

GitLab GPU対応ホストRunnerのビデオデモ: Train XGboost models with GitLab