
搭建Win11环境下,基于Docker的深度学习环境,以方便使用GPU和加速模型训练,本文将详细介绍如何构建一个完整的GPU模型运行环境。
首先,参照苏洋的BLOG,根据其文章指导,在Win11上配置环境,搭建模型运行所需的基础。
采用基于Docker的深度学习环境,能够快速上手并运行Stability AI的SDXL 1.0正式版模型。考虑到Win11机器的便利性以及已有的WSL1环境,最终选择安装WSL2与Docker Desktop。
通过启用或关闭Windows功能,选择虚拟机平台,随后在Microsoft Store安装Ubuntu-20.04版本的系统,避免重复安装Linux的可能。
对比WSL1与WSL2,后者提供更干净的环境,合并宿主机信息,如hosts文件。
安装Docker Desktop并选择使用WSL2,确保Win11程序能够直接与Docker交互,查看docker信息。
配置镜像加速,确保在重启docker后,Registry Mirrors设置正确。
安装最新的官方Nvidia驱动,确保Win11机器支持GPU加速。通过nvidia-smi验证驱动安装情况。
基于Docker的深度学习环境允许在WSL2中直接使用Nvidia GPU,无需在WSL中安装任何Linux版Nvidia驱动。
通过检查基于Docker的深度学习环境的容器是否正常调用GPU,验证GPU加速效果。
安装CUDA Toolkit 12.1用于开发和运行深度学习模型,确保支持神经网络推理。
下载对应的cuDNN库,用于加速深度学习模型的计算过程。
安装conda,通过miniconda获取Pytorch-GPU版并配置环境,确保安装过程顺利。
添加源,确保安装过程中所需的依赖包能够正确获取。
测试GPU性能,通过Python运行示例代码,验证GPU是否正常工作。
下载AI模型,考虑到时间与空间效率,选择AI模型的下载方案,避免浪费资源。
利用modelscope平台下载AI模型,结合阿里云提供的免费环境,确保本地部署与在线测试的可行性。
安装太乙模型并运行测试,探索模型在Win11环境下的表现,注意性能与生成结果的优化。
部署模型时,验证汉化与优化过程,确保模型适应本地环境与用户需求。
通过太乙webui等资源,进一步了解模型安装与运行的关键步骤,提供完整的本地安装指南。