如何在CentOS上配置PyTorch的GPU支持

935
2025/3/9 21:31:31
栏目: 智能运维
开发者测试专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

在CentOS上配置PyTorch的GPU支持需要以下几个步骤:

1. 安装NVIDIA驱动

首先,确保你的系统已经安装了NVIDIA显卡驱动。你可以通过以下命令检查是否已经安装了驱动:

nvidia-smi

如果没有安装,可以参考NVIDIA官方文档进行安装。

2. 安装CUDA Toolkit

PyTorch需要CUDA Toolkit来支持GPU。你可以从NVIDIA官网下载适合你显卡的CUDA Toolkit版本。以下是安装CUDA Toolkit的步骤:

下载CUDA Toolkit

访问NVIDIA CUDA Toolkit下载页面,选择适合你系统的版本并下载。

安装CUDA Toolkit

假设你下载的是.run文件,可以使用以下命令进行安装:

sudo sh cuda_<version>_linux.run

在安装过程中,按照提示进行操作,通常需要接受许可协议并选择安装路径。

配置环境变量

安装完成后,需要配置环境变量。编辑~/.bashrc文件,添加以下内容:

export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH

然后使配置生效:

source ~/.bashrc

3. 安装cuDNN

cuDNN是用于深度神经网络的GPU加速库。你需要从NVIDIA官网下载适合你CUDA版本的cuDNN库。

下载cuDNN

访问NVIDIA cuDNN下载页面,选择适合你CUDA版本的cuDNN库并下载。

安装cuDNN

假设你下载的是.tgz文件,可以使用以下命令进行安装:

tar -xzvf cudnn-<version>-linux-x64-v<version>.tgz
sudo cp cuda/include/cudnn*.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*

4. 安装PyTorch

你可以使用pip来安装PyTorch。首先,确保你已经安装了pip:

sudo yum install python-pip

然后,安装PyTorch。你可以参考PyTorch官网上的安装指南来选择适合你系统的安装命令。以下是一个示例命令:

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113

请根据你的CUDA版本选择合适的URL。例如,如果你的CUDA版本是11.3,就使用cu113

5. 验证安装

最后,你可以通过以下命令验证PyTorch是否能够检测到GPU:

import torch
print(torch.cuda.is_available())
print(torch.cuda.current_device())
print(torch.cuda.get_device_name(torch.cuda.current_device()))

如果输出显示GPU可用并且设备名称正确,说明配置成功。

通过以上步骤,你应该能够在CentOS上成功配置PyTorch的GPU支持。

辰迅云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

推荐阅读: CentOS下怎么查看进程信息