您好,欢迎来到爱go旅游网。
搜索
您的当前位置:首页跑跑模型-Win11-WSL2

跑跑模型-Win11-WSL2

来源:爱go旅游网

搭建Win11环境下,基于Docker的深度学习环境,以方便使用GPU和加速模型训练,本文将详细介绍如何构建一个完整的GPU模型运行环境。

首先,参照苏洋的BLOG,根据其文章指导,在Win11上配置环境,搭建模型运行所需的基础。

采用基于Docker的深度学习环境,能够快速上手并运行Stability AI的SDXL 1.0正式版模型。考虑到Win11机器的便利性以及已有的WSL1环境,最终选择安装WSL2与Docker Desktop。

通过启用或关闭Windows功能,选择虚拟机平台,随后在Microsoft Store安装Ubuntu-20.04版本的系统,避免重复安装Linux的可能。

对比WSL1与WSL2,后者提供更干净的环境,合并宿主机信息,如hosts文件。

安装Docker Desktop并选择使用WSL2,确保Win11程序能够直接与Docker交互,查看docker信息。

配置镜像加速,确保在重启docker后,Registry Mirrors设置正确。

安装最新的官方Nvidia驱动,确保Win11机器支持GPU加速。通过nvidia-smi验证驱动安装情况。

基于Docker的深度学习环境允许在WSL2中直接使用Nvidia GPU,无需在WSL中安装任何Linux版Nvidia驱动。

通过检查基于Docker的深度学习环境的容器是否正常调用GPU,验证GPU加速效果。

安装CUDA Toolkit 12.1用于开发和运行深度学习模型,确保支持神经网络推理。

下载对应的cuDNN库,用于加速深度学习模型的计算过程。

安装conda,通过miniconda获取Pytorch-GPU版并配置环境,确保安装过程顺利。

添加源,确保安装过程中所需的依赖包能够正确获取。

测试GPU性能,通过Python运行示例代码,验证GPU是否正常工作。

下载AI模型,考虑到时间与空间效率,选择AI模型的下载方案,避免浪费资源。

利用modelscope平台下载AI模型,结合阿里云提供的免费环境,确保本地部署与在线测试的可行性。

安装太乙模型并运行测试,探索模型在Win11环境下的表现,注意性能与生成结果的优化。

部署模型时,验证汉化与优化过程,确保模型适应本地环境与用户需求。

通过太乙webui等资源,进一步了解模型安装与运行的关键步骤,提供完整的本地安装指南。

Copyright © 2019- igat.cn 版权所有 赣ICP备2024042791号-1

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务