VS Code + Miniconda で Google Colab 風の Python 環境を作る方法

今回は「Google Colab」風の Python 環境を VS Code 上で実行する方法をご紹介します。

VS Code 上でノートブックと呼ばれる「Jupyter notebook」形式のファイルを実行するには、「Google Colab VS Code Extension」という拡張機能を使用すれば実現可能です。この拡張機能は、バックエンドに Google Colab のサーバーを使用してクライアントとして VS Code を使用します。

今回はこの拡張機能を使用せずに、「Miniconda」と呼ばれる Python の環境管理ツールを使用して、ローカル PC 上に Google Colab 風の Python 実行環境を構築します。

すべてローカル PC 上で動作するので、セッションの時間制限などを気にせずに使用可能です。また、VS Code 上で実行環境も含めて管理するので、セルと呼ばれるコードブロック内でブレークポイントを使用したデバッグなども可能です。

今回の実行環境は以下のようになっています。

  • VS Code (Windows 版)・・・バージョン 1.111.0
  • Miniconda (conda)・・・バージョン 26.1.1

今回の記事を作成するにあたり、以下の講座で勉強させていただきました。OpenAI の API を使用したチャットの仕組みやパラメータを使用して AI システムの動作を細かく制御する方法などを説明されています。また、API を使用して画像生成や音声認識、文字起こしなどを行う方法なども説明されています。

Udemy

はじめてのOpenAI API入門 - ChatGPTによるチャットボット開発や画像生成、音声認識を基礎から学ぶ

Miniconda のインストール

こちらのページから、Windows 版の Miniconda インストーラーをダウンロードします。

基本はデフォルト設定でインストールしますが、途中で下の画面になったら PATH 環境変数に実行ファイルのパスを追加するオプションを選択しておきます。

インストールが完了したら、Windows キーを押して上部の検索欄に「terminal」と入力します。表示された候補から「Anaconda PowerShell Prompt (miniconda3)」を選択します。

選択欄にない場合は、一旦ターミナルを起動してから上部のドロップダウンボタンから「Anaconda PowerShell Prompt (miniconda3)」を選択します。

Anaconda (miniconda3) のターミナルが起動したら以下のコマンドを入力します。

conda create -n ai python=3.11
conda activate ai
pip install ipykernel jupyterlab numpy pandas matplotlib

途中で以下のように聞かれたら「a」を入力します。

Do you accept the Terms of Service (ToS) for https://repo.anaconda.com/pkgs/main? [(a)ccept/(r)eject/(v)iew]: a
Do you accept the Terms of Service (ToS) for https://repo.anaconda.com/pkgs/r? [(a)ccept/(r)eject/(v)iew]: a
Do you accept the Terms of Service (ToS) for https://repo.anaconda.com/pkgs/msys2? [(a)ccept/(r)eject/(v)iew]: a

その後以下のように聞かれたら「y」を入力します。インストールが完了するまで少し時間がかかります。

Proceed ([y]/n)? y

以上で Python 環境の構築は終了です。ターミナル画面に「python -V」と入力して Python が実行できることを確認しておきます。

(ai) PS C:\Users\admin> python -V
Python 3.11.15
(ai) PS C:\Users\admin>
拡張機能のインストール

Jupyter notebook の実行に必要な拡張機能をインストールしていきます。VS Code を起動して左側の「拡張機能」ボタンをクリックします。マーケットプレースの検索欄に「python」と入力して表示された拡張機能から、Microsoft 社製の「Python」拡張機能をインストールします。

同様に検索欄に「jupyter」と入力して表示された拡張機能から、Microsoft 社製の「Jupyter」拡張機能をインストールします。

以上で設定は完了です。次のセクションではノートブックの実行とデバッグを行います。

Jupyter notebook の実行とデバッグ

任意のフォルダを作成して VS Code で開きます。拡張子が「.ipynb」という任意のファイルを作成してエディタで開きます。エディタ画面の右上に表示されている「カーネルの選択」をクリックして、上部に表示されるリストから「Python 環境...」を選択します。

さらに表示されたリストから、先ほど Miniconda で作成した 「ai」という Python 環境を選択します。

コードを追加するには、エディタ内に表示されている「+コード」というボタンを押します。セルと呼ばれるコードブロックが追加されますので、その内部にコードを記述します。

追加されたセルに「print("Hello, World!")」などと入力して、左側にある実行ボタンを押すと入力した Python コードが実行されます。

デバッグを行うには、セル内のコードの左側の余白をクリックしてブレークポイントをセットします。「Ctrl + Shift + Alt + Enter」キーを押すか、実行ボタンの右側にある「V」マークをクリックして表示される「「デバッグ」セル」ボタンをクリックするとデバッグが開始され、セットしたブレークポイント位置で停止します。現在選択されているセルでデバッグが可能です。

OpenAI の API なども問題なく実行できるようです。

現在ご使用の PC に NVIDIA 製のグラフィックボード (GPU) が搭載されていれば、次のセクションでご紹介する「CUDA」と呼ばれるライブラリをインストールすることで、ご自身の PC でも AI 開発が可能になります。

CUDA のインストール方法

このセクションでは NVIDIA 製の GPU 用のデバイスドライバーと「CUDA」と呼ばれるライブラリをインストールする手順をご説明します。

・デバイスドライバーのインストール

まずはこちらのサイトから、ご使用の GPU に対応したデバイスドライバーをダウンロードします。GPU の種類はタスクマネージャーなどで確認できます。

ダウンロードしたデバイスドライバーをデフォルト設定でインストールします。インストールが完了したらターミナル画面などに「nvidia-smi」と入力すると現在の GPU の状態が表示されます。

PS C:\Users\admin> nvidia-smi
Sun Mar 15 17:08:15 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 595.79                 Driver Version: 595.79         CUDA Version: 13.2     |
+-----------------------------------------+------------------------+----------------------+
| GPU  Name                  Driver-Model | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce GTX 1650 Ti   WDDM  |   00000000:01:00.0 Off |                  N/A |
| N/A    0C    P0              6W /   50W |       0MiB /   4096MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+
PS C:\Users\admin>
・PyTorch (GPU 版) インストール

Miniconda のターミナル画面を開いて、以下のコマンドを実行します。torch 関連のパッケージは CUDA のライブラリを含んでいるので結構巨大です。(3GB 位あります。)

conda activate ai
pip install scikit-learn seaborn tqdm
python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
・GPU の動作確認を行います

VS Code で新しいノートブックを作成して、カーネル (ai) を選択してから以下のコードを追加します。

import torch

print("Torch:", torch.__version__)
print("CUDA:", torch.version.cuda)
print("GPU available:", torch.cuda.is_available())

以下のように表示されれば、正常に GPU が認識されています。

新しいセルを追加して以下のコードを記述して本当に計算できるか確認します。

import torch
import time

device="cuda"
a=torch.rand(5000,5000).to(device)
b=torch.rand(5000,5000).to(device)
torch.cuda.synchronize()
start=time.time()
c=a@b
torch.cuda.synchronize()
print(time.time()-start)

使用したのは少し古いタイプの GPU ですが、約 2500 億回の計算が 0.123 秒で終了しました。

ちなみに CPU だけで計算すると 0.686 秒となり 5 倍以上の時間がかかるようです。

今回は一般計算でしたが、AI 関連の計算では以下のような違いが出るようです。

用途CPU vs GPU
一般計算2 〜 5 倍
行列計算5 〜 20 倍
Deep Learning10 〜 100 倍

以上です。よろしかったらお試しください。