본문 바로가기

Python and Data

(ML/DL-2) Tensorflow와 Pytorch GPU 설정-2(SW 설정, 아나콘다 설정과 패키지 설)

블로그 쓰기 귀찮다...

 

이제 적당한 SW들을 깔았으니 경로를 설정하고 파일위치를 잡아주면 된다.

 

앞으로 할건 <cudNN의 위치 잡기, 아나콘다 프롬프트에 가상환경 설치, torch나 tensorflow의 설치> 이다.

 

 

1. 속성 환경변수에 다운로드 받은 CUDA Toolkit의 위치를 저장해준다. 새로만들기에 CUDA_PATH에 toolkit의 위치를 넣어주고 저장하면 된다.

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\{Cuda version 위치}  (이건 내 위치)

CUDA의 환경변수 설정

2. cudNN의 파일들을 각자의 위치에 맞게 CUDA toolkit의 위치에 넣어준다.

cudNN 압축 파일의 압축을 해제하면 include, lib, bin 총 3개의 파일이 있는데 이를 Toolkit의 각각의 파일에 넣어주면 된다.

Cuda toolkit 속 파일

이쯤 했으면 CUDA와 GPU관련 SW들은 정리가 끝났다. 여기까지 잘 했다면 뭘 계속 깔았다 지웠다 할 필요는 없다.

왜냐면 이제부터는 아나콘다에서 가상환경을 만들어서 할거라서 버전이 안맞거나 뭐가 안되면 그냥 가상환경 하나 날리고

다시 만들어서 쓰면 그만이다 ^^


여기서부터는 아나콘다 가상환경 세팅이다. 기본적으로 아나콘다 프롬프트와 네비게이터는 깔려있다고 생각하겠다.

 

4. conda create --name {가상환경 이름} python={파이썬 버전}

가상환경 생성

5. conda activate {가상환경 이름} 

가상환경 활성화

 

//여기까지 하면 아나콘다 네비게이터에서 만들어진 가상환경과 깔려있는 패키지를 확인 할 수 있다.

 

* torch와 Tensorflow, numpy, pandas 기타등등 데이터 처리와 학습을 위한 버전은 각 GPU와 NVIDIA, CUDA 버전에 따라 다르므로 참고할만한 사이트를 추천한다.

 

torch version - https://pytorch.kr/get-started/previous-versions/

 

파이토치 한국 사용자 모임 (PyTorch Korea User Group)

파이토치 한국 사용자 모임에 오신 것을 환영합니다. 딥러닝 프레임워크인 파이토치(PyTorch)를 사용하는 한국어 사용자들을 위해 문서를 번역하고 정보를 공유하고 있습니다.

pytorch.kr

Tensorflow - https://www.tensorflow.org/install/gpu?hl=ko 

 

GPU 지원  |  TensorFlow

GPU 지원 컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요. 참고: GPU 지원은 CUDA® 지원 카드가 있는 Ubuntu 및 Windows에 제공됩니다.TensorFlow GPU 지원에는 다양한 드

www.tensorflow.org


다음은 torch와 Tensorflow GPU 가용 가능성과 기타 유용한 코드들이다

 

torch available

import torch
torch.cuda.is_available()

 ==> Gpu가 활성화 가능하다면 True가 반환된다

 

Tensorflow available

 

import tensorflow as tf 

from tensorflow.python.client import device_lib
print(device_lib.list_local_devices() )

 ==> Gpu가 활성화 가능하다면 

사용가능한 상태의 GPU는 device:GPU:0, 혹은 그 이상이 뜬다(여러개인 경우)

 

 


GPU에 연산 혹은 메모리 강제 할당 하는코드
 
1번 강제할당 코드 추가
 
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
---(gpu에 할당하고 싶은 연산 혹은 변수이름).to(device)