Windows 10 版本 2004 及更高版本(内部版本 19041 及更高版本)或 Windows 11
跳过
安装过程中需要访问国际网络,自行处理好。建议开启 tun 模式
在管理员模式下打开 PowerShell 或 Windows 命令提示符
wsl --install
安装完成,重启电脑
重启完成后,打开 powershell,输入
wsl
此时应该会提示为 Linux 发行版创建“用户名”和“密码”
如果这里提示没有安装 Linux 发行版,那么这里可以再次执行
wsl --install
,会自动安装 Ubuntu 22.04 LTS
sudo passwd
切换到 root 用户,执行下面命令换源
cat <<'EOF' > /etc/apt/sources.list
# 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释
deb https://mirror.nju.edu.cn/ubuntu/ jammy main restricted universe multiverse
# deb-src https://mirror.nju.edu.cn/ubuntu/ jammy main restricted universe multiverse
deb https://mirror.nju.edu.cn/ubuntu/ jammy-updates main restricted universe multiverse
# deb-src https://mirror.nju.edu.cn/ubuntu/ jammy-updates main restricted universe multiverse
deb https://mirror.nju.edu.cn/ubuntu/ jammy-backports main restricted universe multiverse
# deb-src https://mirror.nju.edu.cn/ubuntu/ jammy-backports main restricted universe multiverse
deb https://mirror.nju.edu.cn/ubuntu/ jammy-security main restricted universe multiverse
# deb-src https://mirror.nju.edu.cn/ubuntu/ jammy-security main restricted universe multiverse
# deb http://security.ubuntu.com/ubuntu/ jammy-security main restricted universe multiverse
# # deb-src http://security.ubuntu.com/ubuntu/ jammy-security main restricted universe multiverse
# 预发布软件源,不建议启用
# deb https://mirror.nju.edu.cn/ubuntu/ jammy-proposed main restricted universe multiverse
# # deb-src https://mirror.nju.edu.cn/ubuntu/ jammy-proposed main restricted universe multiverse
EOF
出处:南京大学镜像站 -> https://mirror.nju.edu.cn/mirrorz-help/ubuntu/?mirror=NJU
这里以迁移到 D:\hyper-v\ubu1\ubu1.vhdx
为例
把 你的用户名
替换成你设置的用户名,然后在 WSL 中执行
sudo echo "[user]\ndefault=你的用户名" >> /etc/wsl.conf
比如我的用户名是 linux
,那么我执行的命令就是 sudo echo "[user]\ndefault=linux" >> /etc/wsl.conf
在 Windows poweshell 中执行
wsl --export Ubuntu d:\hyper-v\ubu1\ubu1.vhdx --vhd
wsl --unregister Ubuntu
wsl --import-in-place ubu1 d:\hyper-v\ubu1\ubu1.vhdx
在 powershell 中输入 wsl
,进入 WSL 中,执行
首先安装依赖:
sudo apt-get update
sudo apt-get install ca-certificates curl gnupg
信任 Docker 的 GPG 公钥并添加仓库:
sudo install -m 0755 -d /etc/apt/keyrings
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
sudo chmod a+r /etc/apt/keyrings/docker.gpg
echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirror.nju.edu.cn/docker-ce/linux/ubuntu \
"$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
最后安装 Docker
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
sudo gpasswd -a $USER docker
newgrp docker
通过运行以下命令为 NVIDIA 容器工具包设置稳定存储库:
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-docker-keyring.gpg
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-docker-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
安装 NVIDIA 运行时包和依赖项
sudo apt-get update
sudo apt-get install -y nvidia-docker2
修改配置文件
sudo nano /etc/docker/daemon.json
,"registry-mirrors": ["https://docker.nju.edu.cn/"]
按下 ctrl+o
再按下 回车
保存文件
再按下 ctrl+x
退出编辑器
检查一下结果,cat /etc/docker/daemon.json
重启 Docker
sudo systemctl restart docker
这个全栈开发镜像是我自己构建的
Dockfile 在 GitHub 仓库这里 https://github.com/james-curtis/code-os-debian
包含了
- zsh
- ohmyzsh
- powerlevel10k
- 中文语言包,gui 下微软雅黑字体支持
- nodejs、nvm
- openssh
- c++
- wslg 透传到 Windows 母机支持
- Python、conda、pdm
temurin 8、11、17 jdk,jenv
docker cli
TensorFlow
pytorch
cuda 11.8、cudatoolkit
由于镜像较大,建议单独拉取
jamescurtisfoxmail/code-os:latest-gpu
jamescurtisfoxmail/code-os:latest
这里以 GPU 支持镜像为例
docker pull jamescurtisfoxmail/code-os:latest-gpu
下载 Docker compose 配置
git clone https://github.com/james-curtis/code-os-debian.git
启动 docker compose
cd code-os-debian/docker/wsl/
bash run-gpu.sh
先进入 Docker 容器
source .gpu-envrc
docker compose exec os zsh
如果字体乱码,应该是没有配置 powerlevel10k 的
MesloLGS NF
字体支持。我使用的终端是
tabby
全平台支持
xeyes
会显示一个跟随鼠标的小眼睛
nvidia-smi
我这里显示出了母机的 3060,说明 Docker 已经检测到这张显卡
python3 -c "import tensorflow as tf; print(tf.reduce_sum(tf.random.normal([1000, 1000])))"
打印出了张量
python3 -c "import tensorflow as tf; print(tf.config.list_physical_devices('GPU'))"
可以看到 TensorFlow 也检测到了显卡
pip install kaggle
登录 kaggle 下载登录凭据,下载到 ~/.kaggle/kaggle.json
官方教程 https://github.com/Kaggle/kaggle-api#api-credentials
设置权限
chmod 600 ~/.kaggle/kaggle.json
这里我们使用 kaggle cli 下载比赛中别人提交的代码进行测试,https://www.kaggle.com/code/hassanamin/tensorflow-mnist-gpu-tutorial
启动 openssh-server
sudo service ssh start
打开 vscode 进行远程连接
需要先下载远程开发插件 ms-vscode-remote.vscode-remote-extensionpack
点击左下角的蓝标,会弹出命令列表,选择 Connect to host
为什么可以直接通过
localhost
连接有两个原因
- 微软支持宿主机直接访问 WSL 的监听端口
- docker compose 中设置的
network
类型是host
,也就是和 WSL 公用一个网络
点击右侧的 Connect
完成之后即可进行远程开发
进入刚刚 kaggle 的项目
这里由于的刚刚我下载的目录是 /tmp/kaggle/tf
所以这里我需要打开这个目录
安装完成之后需要加载窗口
选择运行环境
选择 conda Python3.9 作为运行环境
逐个单元格运行试试效果
可以看到检测到 GPU 了
可以看到成功调用宿主机显卡
不过似乎没有使得显卡满载
在 WSL 中执行
python3 -c "import torch;print(torch.cuda.is_available());"
这里我还没有换 vscode 的终端字体,所以乱码了,忽略即可
对于 pytorch,这里使用 https://www.kaggle.com/code/lyhue1991/pytorch-gpu-examples,作为测试 demo
node -v
nvm list
java -version
javac -version
jenv versions
g++ -v
gcc -v
在 Dockerfile 中有写到
# =========== 配置 容器卷 =============
VOLUME [ "/mnt/workspace", "/mnt/data" ]
这两个目录都是持久化的,也就是 docker 容器销毁之后,只有这两个目录下的文件不会清理(重启不影响)
其中 /mnt/workspace
是映射到 WSL 中的,IO 性能比较差
/mnt/data
是没有映射的容器卷,IO 性能较好,建议项目都放到该目录下
至于 /home/linux
用户目录下的文件可以自己创建并映射容器卷