프라이빗 및 하이브리드 클라우드를 위한 프로덕션 AI

AI 모델 및 애플리케이션 개발, 학습, 배포

Red Hat® OpenShift® AI는 프라이빗 및 하이브리드 클라우드 환경에서 AI 모델 및 애플리케이션을 규모에 맞게 개발하고, 학습시키고, 배포할 수 있는 MLOps 플랫폼입니다. OpenShift AI는 조직이 생성형 AI와 예측 AI 및 머신 러닝(AI/ML) 모델링을 수행할 수 있도록 공통 오픈소스 및 제3자 툴의 통합 세트를 효율적으로 배포할 수 있는 방법을 제공합니다. 이 협업형 오픈소스 툴셋 및 플랫폼을 활용하여 실험적인 모델을 빌드하고 이 모델을 컨테이너 레디 형식으로 퍼블릭 및 프라이빗 클라우드, 온프레미스, 엣지 환경에서 일관되게 프로덕션 환경에 적용할 수 있습니다. 

Red Hat AI의 핵심 구성 요소인 OpenShift AI를 통해 IT 운영 및 플랫폼 엔지니어는 보안 중심의 환경을 간편하게 관리하고 확장할 수 있습니다. 데이터 사이언티스트와 AI 엔지니어는 규모에 맞게 AI 솔루션을 개발 및 배포하기 위한 포괄적인 통합 플랫폼으로 활용할 수 있습니다.

OpenShift AI는 생성형 AI 파운데이션 모델을 지원하므로 프라이빗 데이터를 활용해 미세 조정하고 서비스할 수 있습니다. 또한 워크로드를 위치에 상관없이 Red Hat OpenShift 클러스터 전반에 분배할 수 있습니다. 이 플랫폼은 Red Hat OpenShift와 통합되고 그 위에 계층화되어 AI 하드웨어 가속을 단순화하고 CPU 및 GPU 기반의 하드웨어 인프라(NVIDIA 및 AMD GPU, Intel XPU 포함)를 온프레미스나 소버린 또는 퍼블릭 클라우드 등 위치에 상관없이 지원합니다.

표 1. Red Hat OpenShift AI의 특징 및 장점

주요 내용

비즈니스의 AI 도입을 간소화하고, AI 도입을 늘리고, AI 이니셔티브에 유연성을 제공합니다. 

AI 엔지니어, 데이터 사이언티스트, 데이터 엔지니어, DevOps 팀이 효과적으로 협업할 수 있도록 지원하는 일관된 사용자 환경으로 팀 간 AI/ML 운영 일관성을 확립합니다.

모든 하드웨어와 하이브리드 클라우드 환경에서 AI를 대규모로 구축, 배포, 관리할 수 있는 유연성과 일관성을 제공합니다. 이를 통해 데이터 제약, 개인정보 보호, 보안 및 비용 제어 문제를 효과적으로 해결할 수 있습니다.

특징

장점

모델 개발 및 사용자 정의

인터랙티브 JupyterLab 인터페이스를 통해 AI/ML 라이브러리 및 워크벤치에 액세스합니다. 데이터 수집, 합성 데이터 생성, InstructLab 툴킷, 그리고 프라이빗 데이터 연결을 위한 검색 증강 생성(RAG)을 통합했습니다.

모델 학습 및 실험

개발 파일 및 아티팩트를 체계화합니다. 효율적인 학습 및 튜닝을 위해 분산 워크로드를 지원합니다. 실험 트래킹 및 간소화된 하드웨어 할당을 제공합니다.  

지능형 GPU 및 하드웨어 속도 

 

셀프 서비스 GPU 액세스를 사용할 수 있습니다. 워크로드 스케줄링, 할당량 관리, 우선순위 액세스, 하드웨어 프로필을 통한 사용 현황 보기 등을 통해 지능형으로 GPU를 사용할 수 있습니다.

AI 파이프라인

모델 제공 및 테스트를 자동화할 수 있습니다. 파이프라인의 버전을 제어하고, 트래킹 및 관리함으로써 사용자 오류가 줄고 실험 및 프로덕션 워크플로우가 간소화됩니다. 

최적화된 모델 서빙

높은 처리량과 짧은 대기 시간에 최적화된 가상 대형 언어 모델(vLLM)을 통해 다양한 제공자 및 프레임워크의 모델을 서빙합니다. llm-d 분석 추론 프레임워크가 예측 가능하고 확장 가능한 성능과 효율적인 리소스 관리를 지원합니다. LLM compressor가 제공되며, 최적화되고 검증된 일반적인 생성형 AI 모델에 액세스할 수 있습니다.

에이전틱(Agentic) AI 및 생성형 AI 사용자 인터페이스(UI)

핵심 플랫폼 서비스로 에이전틱 AI 워크플로우를 가속화합니다. 애플리케이션 프로그래밍 인터페이스(API) 계층(MCP 및 Llama Stack API)이 통합되어 있고, AI 허브 및 gen AI studio 같은 전용 대시보드 경험이 제공됩니다. 

모델 관측성 및 거버넌스 

라이프사이클 관리, 성능, 관리를 위한 일반적인 오픈소스 툴링을 제공합니다. 성능, 데이터 드리프트 및 편향 감지, AI 가드레일 또는 추론 같은 메트릭을 트래킹합니다. LLM 평가(LM Eval) 및 LLM 벤치마킹(GuideLLM)을 제공하여 실제 추론 배포를 지원합니다. 

카탈로그 및 레지스트리

예측 AI 및 생성형 AI 모델, MCP 서버와 해당 메타데이터, 아티팩트를 중앙에서 관리합니다. 

피처 스토어 

성능 향상 및 워크플로우 가속화를 위해 ML 모델에 사용할 잘 정의된 정제 데이터 피처를 관리하는 용도의 UI입니다. 

서비스형 모델

AI 엔지니어가 셀프 서비스 액세스 및 사용 현황 트래킹을 위한 관리형 내장 API 게이트웨이를 통해 모델을 사용할 수 있습니다(개발자 프리뷰 기능). 

분리된 환경 및 엣지

분리된 에어 갭(air-gap) 클러스터의 보안 및 규제 컴플라이언스를 지원합니다. 

통합된 파트너 제품에는 OpenShift AI 외에도 다음 기능이 포함됩니다.

  • Starburst - 다양한 데이터세트의 분산 데이터 액세스
  • HPE - 데이터 계보 및 버전 제어
  • NVIDIA - GPU 성능 관리
  • AMD - GPU 가속
  • Intel - Intel 하드웨어를 사용한 고성능 추론
  • Elastic 및 EDB - 벡터 데이터베이스 및 검색 증강 생성(RAG) 애플리케이션 

다음 단계:

Red Hat OpenShift AI에 대해 자세히 알아보고 유용한 동영상을 시청하세요.