Kubernetes 에서 GPU 사용을 위한 OpenShift

전자 상거래, 생명 과학, 금융 서비스 및 마케팅과 같은 산업에서는 막대한 양의 데이터를 신속하게 습득하는 것이 중요합니다.

Machine Learning ( ML: 기계 학습)과 Artificial Intelligence (AI:인공지능) 은 대부분의 차세대 애플리케이션 특징이 되었습니다.

ML / AI 그리고 GPU의 비약적인 성능 향상으로 OpenShift가 GPU 하드웨어를 사용할 수 있도록 “Source To Image”워크 플로우를 결합하면 GPU 하드웨어를 빠르고 안전하게 액세스 할 수 있습니다 .

OpenShift 3.10에서 DevicePlugin과 함께 GPU를 사용하는 방법

이 블로그 포스트는 OpenShift 3.10에서 NVIDIA GPU를 사용하는 방법을 설명합니다.

환경 개요

  • Red Hat Enterprise Linux 7.5, CentOS PostgreSQL 10 이미지
  • OpenShift 컨테이너 플랫폼 3.10 AWS에서 실행되는 클러스터
  • 컨테이너 런타임 : crio-1.10.5 또는 docker-1.13.1
  • 컨테이너 도구 : podman-0.6.1, buildah-1.1, skopeo-0.1.30
  • 마스터 노드 : m4.xlarge
  • 인프라 노드 : m4.xlarge
  • 컴퓨팅 노드 : p3.2xlarge ( NVIDIA Tesla V100 GPU 1 개 , 8vCPU 및 61GB RAM)
How to use GPUs with DevicePlugin in OpenShift 3.10

OpenShift 을 통한 Deep Learning 개발 환경의 장점

  • 엔터프라이즈 컨테이너 오케스트레이션 환경 제공
    Docker 와 Kubernetes 을 기본적으로 통합하고 SDN 과 관리도구를 제공하는 엔터프라이즈 환경 제공
  • GPU 자원 멀티 테넌트 지원
    최대 8 개의 NVIDIA GPU 워크로드에 맞춘 유연한 테넌트 마다 자원 분리와 액세스 제어를 구현, 보안 , 성능 모든 면에서 개발 효율이 비약적으로 향상됨
  • 이 기종의 다양한 Deep Learning 프레임워크 지원
    Deep Learning 프레임워크와 CUDA Toolkit 라이브러리를 컨테이너화하고, 여러 가지 프레임워크 개발 환경을 동일한 플랫폼에사 사용함

References & Related Links

OpenShift 소개자료, 브로셔, 데이터시트 다운로드

Openshift

오픈시프트에 대한 제품소개 자료 , 브로셔 그리고 다양한 데이터시트를 다운로드 받으세요.