본문 바로가기
프로젝트 기록/딥러닝 모델 개발_공학설계캡스톤디자인(스마트카ICT)

[Python] 노트북으로 GPU 사용하기

by 소요이 2023. 3. 18.
728x90

 

간단한 설명

  • 딥러닝 알고리즘은 본질적으로, 많은 양의 단순 사칙연산(행렬 곱셈 등)을 수행한다.
  • GPU 는 이러한 단순 사칙연산(행렬 곱셈 등)에 특화되어 있다.
    • 단순 사칙연산은 병렬화가 아주 쉽기 때문에, GPU 를 통해 한꺼번에 여러 코어에서 계산이 가능하다.
    • 하지만, GPU 는 복잡한 연산은 거의 못하며, 복잡한 연산은 CPU 가 유리하다.
  • 따라서, 딥러닝 시 GPU 를 사용하면 보다 효율적으로 최적화 할 수 있다.
  • GPU를 사용법은 그래픽카드가 있는 경우 tensorflow를 설치하여 사용하지만, 노트북의 경우 해당 방법을 사용할 수 없다.
  • 따라서 구글이 제공하는 colaboratory를 이용해 GPU 가속을 이용해 파이썬을 돌릴 수 있다.
  • GPU 가속을 사용하지 않고 2분이 걸릴 때, 가속을 한다면 1분정도 만에 돌릴 수 있다.

 

 

자세한 설명

CPU, GPU의 구조

  • 산술논리연산장치(ALU)는 산술연산을 진행하는 장치이다.
  • CPU 에는 제어장치(CU)가 존재하는 대신, 산술논리연산장치(ALU)가 1 개 뿐이다.
  • 반면에, GPU 는 산술논리연산장치(ALU)가 여러 개이다.
  • 따라서, 많은 양의 단순 사칙 연산을 수행하는 딥러닝에서는, GPU 가 CPU 보다 성능이 좋다.
    • "GPU 에는 제어장치가 없는데, 어떻게 연산이 가능하냐"는 질문을 할 수 있는데,
    • GPU 에게 명령을 내리는 것은 CPU 이다.
  • 하지만, GPU 는 CPU 와 달리 복잡한 연산은 진행하지 못한다.

 

https://wooono.tistory.com/325