가격

Red Hat OpenShift의 AI/ML

URL 복사

Red Hat OpenShift의 AI/ML은 자체 관리형 Red Hat OpenShift 또는 AI/ML 클라우드 서비스를 통해 AI/ML 워크플로우와 AI 기반 지능형 애플리케이션 제공 을 가속화합니다.

 

Red Hat의 AI 탐색하기

Red Hat OpenShift에는 데이터센터, 퍼블릭 클라우드 컴퓨팅, 엣지 컴퓨팅 전반에서 일관된 방식으로 머신 러닝 운영(MLOps)을 지원하는 핵심 기능이 포함되어 있습니다.

조직은 DevOps 및 GitOps 원칙을 적용하여 머신 러닝 모델을 소프트웨어 개발 프로세스, 프로덕션 롤아웃, 모니터링, 재교육, 재배포에 통합하는 반복적인 프로세스를 자동화하고 간소화하여 지속적인 예측 정확도를 달성할 수 있습니다. 

자세히 알아보기

대규모 볼륨과 다양한 데이터, 풍부한 컴퓨팅, 지능형 애플리케이션을 빌드할 수 있는 오픈소스 머신 러닝 툴이 제공하는 장점을 확보하기 위한 다단계 프로세스입니다.

데이터 과학자는 선택한 모델이 계속해서 최상의 예측 정확도를 제공할 수 있도록 ML 모델링을 주로 담당합니다. 

데이터 과학자가 당면한 핵심 과제는 다음과 같습니다.

  • 적합한 ML 툴 선택 및 배포(예: Apache Spark, Jupyter notebook TensorFlow, PyTorch 등)
  • 최상의 예측 정확도를 제공하는 ML 모델을 교육, 테스트, 선택, 유지하는 데 필요한 시간과 복잡성
  • 하드웨어 가속화 기능이 없어 모델링 및 추론 태스크 실행 속도 저하
  • 인프라 프로비저닝 및 관리를 위해 IT 운영 팀에 반복적으로 의존
  • 데이터 엔지니어 및 소프트웨어 개발자와 협업해 입력 데이터를 안전하게 보호하고 애플리케이션 개발 프로세스 중 ML 모델 배포

Red Hat® OpenShift®는 하이브리드 클라우드 환경과 엣지에서 AI/ML 라이프사이클을 관리하는 통합 애플리케이션 플랫폼입니다. 협업에 적합한 워크플로우에 대한 셀프 서비스 액세스, 고성능 컴퓨팅 파워 (GPUs), 그리고 간소화된 운영을 제공함으로써, OpenShift는 일관되고 대규모로 AI 솔루션을 제공하는 과정을 단순화합니다.

Red Hat OpenShift AI

Red Hat OpenShift AI는 데이터 과학자와 인텔리전트 애플리케이션 개발자를 위한 AI/ML 실험 및 모델의 전체 라이프사이클 동안 툴을 제공합니다 프로덕션에 배포하기 전에 퍼블릭 클라우드에서 머신 러닝(ML) 모델을 신속하게 개발, 교육 및 테스트할 수 있도록 완벽하게 지원되는 샌드박스를 제공합니다.

데이터 과학자 역량 강화

  • 하이브리드 클라우드 전반에 걸쳐 데이터 과학자에게 일관된 셀프 서비스 클라우드 경험 제공
  • 데이터 과학자가 어떤 환경에서든 유연하게 선택한 컨테이너화 ML 툴을 사용할 수 있도록 지원하여 ML 모델을 빠르게 빌드, 확장, 재현 및 공유
  • 자체 관리형 및 Red Hat AI 클라우드 서비스 옵션을 위한 Red Hat 인증 쿠버네티스 오퍼레이터를 통해 가장 적합한 ML 툴 사용
  • 반복적이고 컴퓨팅 집약적인 ML 모델링 태스크용 인프라를 프로비저닝하기 위해 IT에 의존할 필요 없음
  • 특정 클라우드 공급업체와 해당 업체의 ML 툴 메뉴와 관련된 "종속성(Lock-In)" 우려 해소
  • CI/CD 툴과의 긴밀한 통합으로 ML 모델을 필요에 따라 반복적으로 신속히 배포

컴퓨팅 집약적인 ML 모델링 작업 가속화

Red Hat 인증 GPU 오퍼레이터를 통해 NVIDIA GPU와 같이 널리 사용되는 하드웨어 가속기와 통합하면 OpenShift가 높은 수준의 컴퓨팅 리소스 요구 사항을 원활하게 충족하여, 해당 모델이 프로덕션 환경에서 새로운 데이터를 경험하는 과정에서 최상의 예측 정확도와 ML 추론 작업을 제공하는 최적의 ML 모델을 선택할 수 있습니다.

지능형 애플리케이션 개발

OpenShift에서 기본으로 제공하는 DevOps 기능을 통해 MLOps는 AI 기반 애플리케이션의 제공 속도를 가속화하고, 예측 정확도를 위해 ML 모델을 통합하고 지속적으로 재배포하는 반복적인 프로세스를 간소화할 수 있습니다.    

OpenShift DevOps 자동화 기능을 ML 라이프사이클로 확장하면 데이터 과학자, 소프트웨어 개발자, IT 운영 팀간 협업이 증진되므로 ML 모델을 지능형 애플리케이션 개발에 신속히 통합할 수 있습니다. 이를 통해 생산성을 높이고 ML 기반 지능형 애플리케이션의 라이프사이클 관리를 간소화할 수 있습니다.

  • OpenShift Build로 컨테이너 모델 이미지 레지스트리에서 빌드
  • OpenShift Pipelines로 ML 모델 기반 지능형 애플리케이션의 지속적 반복 개발
  • OpenShift GitOps로 ML 모델 기반 지능형 애플리케이션의 지속적 배포 자동화
  • Red Hat Quay로 모델 컨테이너 이미지 및 마이크로서비스의 버전을 관리할 수 있는 이미지 리포지토리

OpenShift는 다양한 업종별 조직이 하이브리드 클라우드에서 지능형 애플리케이션을 개발함으로써 비즈니스 및 미션 크리티컬 이니셔티브를 가속화하도록 지원하고 있습니다. 몇 가지 활용 사례로 사기 감지, 데이터 기반 건강 진단, 커넥티드 카, 석유 및 가스 탐사, 자동 보험 견적, 청구 처리 등을 들 수 있습니다.

AI/ML 활용 사례 알아보기

의료, 금융 서비스, 통신, 자동차 및 기타 산업 전반에서 AI/ML의 혁신적인 활용 사례가 늘어가고 있습니다. Red Hat은 강력한 파트너 에코시스템을 개발하여 AI 기반의 지능형 애플리케이션을 위한 ML 및 딥 러닝 모델을 생성, 배포, 관리할 수 있는 완전한 솔루션을 제공해 왔습니다.

AI/ML 파트너 소개

Galicia logo

Red Hat Consulting과의 협업을 통해 방코 갈리시아(Banco Galicia)는 Red Hat OpenShift에 AI 기반 지능형 자연어 처리(NLP) 솔루션을 구축하여 90%의 정확도로 검증 시간을 며칠에서 몇 분 단위로 줄이고 애플리케이션 다운타임을 40% 단축할 수 있었습니다.

성공 사례 읽기

Red Hat OpenShift와 NVIDIA-Certified Systems에서 실행되는 NVIDIA AI Enterprise 소프트웨어 제품군의 기능을 결합해 다양한 AI 활용 사례를 가속화하는 확장 가능한 플랫폼을 제공합니다. 이 플랫폼에는 NVIDIA와 Red Hat의 핵심 기술이 포함되어 있어 하이브리드 클라우드, 베어 메탈, 가상 환경 전반에서 AI 워크로드를 안전하게 배포, 관리하고 일관되게 확장할 수 있습니다.

NVIDIA LaunchPad에서 Red Hat Labs 시작하기

허브

레드햇 공식 블로그

레드햇 공식 블로그에서 고객, 파트너, 커뮤니티 에코시스템 등 현재 화제가 되는 최신 정보를 살펴 보세요.

모든 Red Hat 제품 체험판

무료 제품 체험판을 통해 핸즈온 경험을 얻고, 자격증 시험에 대비하거나 해당 제품이 조직에 적합한지 평가할 수 있습니다.

추가 자료

쿠버네티스를 활용한 AI/ML 워크로드 지원 방법

쿠버네티스(K8s)는 코드의 지속적인 재현, 이식, 확장 가능성을 실현하여 AI/ML 워크로드를 효과적으로 지원할 수 있으며 인공지능과 머신러닝을 관리하고 배포합니다.

고가용성이란? 시스템 신뢰성을 향상하는 전략과 방법

고가용성은 시스템이 높은 운영 성능을 유지하며, 거의 100% 상시 사용 가능한 상태 유지를 뜻합니다. 설정 기간 동안 성능 기준을 충족하는지 확인하는 방법을 알아보세요

RAG과 미세 조정(fine-tuning) 비교

RAG와 미세 조정(fine-tuning)은 모두 LLM을 향상하는 것을 목표로 하지만 서로 다른 방법을 사용합니다. RAG에서는 모델을 수정하지 않는 반면, 미세 조정(fine-tuning)에서는 매개 변수를 조정해야 합니다.

Red Hat OpenShift AI 리소스