Red Hat OpenShift AI

Red Hat® OpenShift® AI는 하이브리드 클라우드 환경 전반에서 예측 AI 모델과 생성형 AI 모델의 라이프사이클을 규모에 맞게 관리하기 위한 AI 플랫폼입니다. 

RHOSAI interface graphic

Red Hat OpenShift AI란?

오픈소스 기술을 사용하여 구축한 OpenShift AI는 팀이 실험하고, 모델을 서빙하고, 혁신적인 애플리케이션을 제공할 수 있도록 일관된 운영을 지원하는 신뢰할 수 있는 기능을 제공합니다.

OpenShift AI는 데이터 수집 및 준비, 모델 학습 및 미세 조정(fine-tuning), 모델 서빙 및 모델 모니터링, 하드웨어 가속을 지원합니다. 하드웨어 및 소프트웨어 파트너로 구성된 개방형 에코시스템을 갖춘 OpenShift AI는 특정 활용 사례에 필요한 유연성을 제공합니다.

Red Hat OpenShift AI와 이 솔루션의 최신 기능 데모를 시청하세요. 재생 시간: 5분 59초

Red Hat AI graphic

AI 지원 애플리케이션을 신속히 프로덕션 단계로 이동

Red Hat OpenShift AI와 Red Hat OpenShift의 입증된 기능을 단일 엔터프라이즈 레디(enterprise-ready) AI 애플리케이션 플랫폼에 결합하여 팀의 협업을 지원하세요. 데이터 사이언티스트, 엔지니어 및 애플리케이션 개발자는 일관성, 보안, 확장성을 촉진하는 단일 대상에서 협업할 수 있습니다.

OpenShift AI의 최신 릴리스에는 Red Hat OpenShift AI용으로 검증된 타사의 최적화된 프로덕션 레디 모델들의 엄선된 컬렉션이 포함되어 있습니다. 이 타사 모델 카탈로그에 액세스하여 보안 및 정책 요구 사항을 충족하는 데 도움이 되는 모델 접근성 및 가시성에 대한 강화된 제어 권한을 팀에 제공하세요. 

또한 OpenShift AI는 최적화된 vLLM 프레임워크를 통해 분산된 서빙으로 추론 비용 관리에 도움을 줍니다. 운영 복잡성을 추가적으로 줄이기 위해 OpenShift AI는 고급 툴링을 제공하여 모델, 툴 및 리소스에 대한 셀프 서비스 액세스와 배포를 자동화합니다.

AI 인프라 관리에 소요되는 시간 단축

셀프 서비스, 확장, 서빙에 더 유리한 고성능 모델에 온디맨드로 액세스할 수 있습니다. 개발자는 복잡성에서 자유로워지고 제어 권한을 유지하며 비용을 최적화할 수 있습니다.

Models-as-a-Service(MaaS)와 같은 기능이 현재 개발자 프리뷰 단계에 있습니다. 이 기능은 더욱 신속한 프라이빗 AI를 규모에 맞게 지원하는 API 엔드포인트 형태로 AI 액세스 접근 방식을 제공합니다. 

검증되고 지원되는 AI/ML 툴링

Red Hat은 고객을 대신해 AI/ML 툴링과 모델 서빙을 테스트, 통합, 지원합니다. OpenShift AI는 Red Hat의 Open Data Hub 커뮤니티 프로젝트, 그리고 Kubeflow와 같은 오픈소스 프로젝트에서 다년간 진행된 인큐베이션 경험을 기반으로 합니다. 

Red Hat은 경험과 오픈소스 전문 지식을 바탕으로 생성형 AI 레디 파운데이션을 제공하므로 고객은 더욱 자신 있게 생성형 AI 전략을 선택할 수 있습니다. 

하이브리드 클라우드 전반의 유연성

셀프 관리형 소프트웨어로 제공되거나 OpenShift 기반의 전체 관리형 클라우드 서비스로 제공되는 Red Hat OpenShift AI는 온프레미스, 퍼블릭 클라우드 또는 엣지 등 모델 개발 및 배포 위치를 선택할 수 있는 안전하고 유연한 플랫폼을 제공합니다.

모범 사례 활용

Red Hat Services는 AI 도입 여정의 어느 단계에 있든지 AI 관련 과제를 해결하는 데 도움이 되는 전문 지식, 교육, 지원을 제공합니다. 

AI 솔루션의 프로토타입을 제작하든, AI 플랫폼의 배포를 간소화하든, MLOps 전략을 발전시키든 Red Hat Consulting이 지원과 멘토링을 제공합니다.

개발자에게 잘 정의된 경로를 제공하는 llm-d

Red Hat OpenShift AI에는 대규모 분산형 AI 추론의 과제를 해결하는 오픈소스 프레임워크인 llm-d가 포함되어 있습니다.

분산된 GPU 플릿에서 모델을 확장하면 새로운 차원의 제어와 관측성을 확보할 수 있습니다. 기업은 추론 파이프라인을 모듈식 지능형 서비스로 세분화함으로써 복잡한 LLM을 규모에 맞게 최적화할 수 있습니다. 

Red Hat OpenShift AI용 MCP 서버

Red Hat OpenShift AI와 통합되는 기술 파트너들의 엄선된 MCP 서버 컬렉션을 살펴보세요. 

MCP(Model Context Protocol)는 AI 애플리케이션과 외부 서비스 간 양방향 연결 및 표준화된 통신을 지원하는 오픈소스 프로토콜입니다.

이제 사용자는 이 MCP 서버를 활용하여 엔터프라이즈 툴 및 리소스를 AI 애플리케이션과 에이전틱 워크플로우에 통합할 수 있습니다. 

빠르고 비용 효율적인 대규모 추론을 위해 vLLM으로 최적화하세요.

Red Hat AI Inference Server는 Red Hat AI 플랫폼의 구성 요소입니다. 독립 실행형 제품으로 제공되며 Red Hat Enterprise Linux® AI와 Red Hat OpenShift® AI에 모두 포함되어 있습니다.

귀사의 니즈에 맞게 귀사의 조건에 따라 운영되는 AI.

생성형 AI

생성형 AI

텍스트나 소프트웨어 코드같은 새로운 콘텐츠를 만들어내세요. 

Red Hat AI를 사용하면 원하는 생성형 AI 모델을 더 적은 리소스로 더 빠르게 실행할 수 있으며 추론 비용도 낮출 수 있습니다. 

예측 AI

예측 AI

패턴을 연결하고 미래의 성과를 예측하세요. 

Red Hat AI를 사용하면 하이브리드 클라우드 전반에 걸쳐 일관성을 유지하면서 예측 모델을 빌드하고, 학습시키고, 제공하며, 모니터링할 수 있습니다.

운영화된 AI

운영화된 AI

AI 유지 관리와 배포를 규모에 맞게 지원하는 시스템을 만드세요. 

Red Hat AI를 활용하면 리소스를 절약하고 개인정보 보호 규정을 준수하면서 AI 기반 애플리케이션의 라이프사이클을 관리하고 모니터링할 수 있습니다. 

에이전틱 AI

에이전틱 AI

사람의 개입을 최소화하면서 복잡한 태스크를 자동으로 처리하는 워크플로우를 빌드하세요. 

Red Hat AI는 기존 애플리케이션 내에 에이전틱 AI 워크플로우를 구축, 관리 및 배포하기 위한 유연한 접근 방식과 안정적 기반을 제공합니다.

파트너십

다른 통합 서비스와 제품을 통해 Red Hat OpenShift AI 플랫폼을 확장하여 더 많은 가치를 창출하세요.

NVIDIA logo

NVIDIA와 Red Hat은 독보적인 유연성으로 다양한 AI 활용 사례를 가속화하는 확장 가능한 플랫폼을 제공합니다.

Intel logo

Intel®과 Red Hat은 조직이 AI 도입을 가속화하고 빠르게 AI/ML 모델을 운영화하도록 지원합니다.

IBM logo

IBM과 Red Hat은 AI 빌더를 위한 엔터프라이즈 수준의 AI 스튜디오인 IBM watsonx.aiTM 등을 통해 AI 개발 가속화를 위한 오픈소스 혁신을 제공합니다. 

Starburst logo

Starburst Enterprise와 Red Hat은 분산된 여러 이기종 데이터 플랫폼에서 신속한 데이터 분석을 통해 적시에 개선된 인사이트를 지원합니다.

AI 플랫폼을 위한 확장 가능한 쿠버네티스 인프라

AI 기반 애플리케이션을 빌드하는 데 머신 러닝 운영(MLOps) 원칙과 사례를 적용하는 방법을 알아보세요. 

모델 워크벤치를 통합 협업

AI 허브와 생성형 AI 스튜디오를 사용하는 플랫폼 엔지니어와 AI 엔지니어는 협업을 통해 생성형 AI 모델을 프로덕션 단계에 더 빠르게 제공할 수 있습니다. 

플랫폼 엔지니어는 AI 허브를 사용하여 타사 모델 검증을 통해 얻은 성능 인사이트와 더불어 중앙화된 AI 워크로드로 LLM을 관리할 수 있습니다. 그리고 AI 엔지니어는 생성형 AI 스튜디오를 활용해 핸즈온 환경에서 모델과 상호작용하고 플레이그라운드를 통해 생성형 AI 애플리케이션의 프로토타입을 신속하게 제작할 수 있습니다. 라이프사이클 통합에 앞서 채팅과 검색 증강 생성(RAG) 흐름을 실험할 수 있는 샌드박스에 액세스하여 모델 적합성을 확인하세요.

또한 데이터 사이언티스트는 선호하는 IDE와 프레임워크를 사용하여 모델 작업을 하기 위해 사전 빌드된 클러스터 이미지나 커스터마이징된 클러스터 이미지에 액세스할 수 있습니다. Red Hat OpenShift AI는 Jupyter, PyTorch, Kubeflow 및 기타 오픈소스 AI 기술의 변경 사항을 트랙킹합니다.

Screenshot of OpenShift AI console enabled applications tab

생성형 AI 모델을 보호하는 AI 가드레일. 재생 시간: 10분 02초

Red Hat OpenShift AI를 통한 모델 서빙 및 안전 확장

모델은 온프레미스, 퍼블릭 클라우드 또는 엣지에서 AI 지원 애플리케이션에 통합되기 위해 vLLM의 최적화된 버전(또는 원하는 다른 모델 서버)을 사용해 서빙될 수 있습니다. 이러한 모델은 소스 Notebook 변경 사항에 따라 재구축, 재배포, 모니터링될 수 있습니다.

환각과 편향은 모델의 무결성을 저해하여 확장을 방해합니다. 공정성, 안전, 확장성을 유지하기 위해 데이터 실무자는 OpenShift AI를 사용하여 모델 출력과 학습 데이터가 일치하는지 모니터링할 수 있습니다. 

드리프트 감지 툴은 모델 추론에 사용되는 라이브 데이터가 원래 학습 데이터에서 벗어나는지 모니터링할 수 있습니다. 그리고 공격적인 표현이나 욕설과 같은 유해한 정보, 개인 데이터 또는 도메인별 제한으로부터 모델의 입력과 출력을 보호하는 AI 가드레일도 포함되어 있습니다. 

솔루션 패턴

Red Hat과 NVIDIA AI Enterprise를 활용한 AI 애플리케이션

RAG 애플리케이션 생성

Red Hat OpenShift AI는 데이터 사이언스 프로젝트를 빌드하고 AI 기능을 탑재한 애플리케이션을 제공하기 위한 플랫폼입니다. 자체 참조 문서에서 AI 답변을 얻는 방법인 검색 증강 생성(Retrieval-Augmented Generation, RAG)을 지원하는 데 필요한 모든 도구를 통합할 수 있습니다. OpenShift AI를 NVIDIA AI Enterprise와 연결하면 대규모 언어 모델(Large Language Model, LLM)을 실험하여 애플리케이션에 대한 최적의 모델을 찾을 수 있습니다.

문서 파이프라인 구축

RAG를 활용하려면 먼저 문서를 벡터 데이터베이스에 수집해야 합니다. 예시 애플리케이션에서는 제품 문서 세트를 Redis 데이터베이스에 임베드합니다. 이러한 문서는 자주 변경되기 때문에, 이 프로세스에 대한 파이프라인을 구축하여 주기적으로 실행하면 항상 최신 버전의 문서를 확보할 수 있습니다.

LLM 카탈로그 살펴보기

NVIDIA AI Enterprise에서 다양한 LLM 카탈로그에 액세스하여 여러 가지 옵션을 사용해 보고 그중에서 최상의 결과를 제공하는 모델을 선택할 수 있습니다. 모델은 NVIDIA API 카탈로그에 호스팅됩니다. API 토큰을 설정한 후에는 OpenShift AI에서 바로 NVIDIA NIM 모델 서빙 플랫폼을 사용하여 모델을 배포할 수 있습니다.

적합한 모델 선택

다양한 LLM을 테스트하면서 사용자는 생성된 각 응답을 평가할 수 있습니다. Grafana 모니터링 대시보드를 설정하면 각 모델의 평점, 대기 시간, 응답 시간을 비교할 수 있습니다. 그런 다음 해당 데이터를 기반으로 프로덕션에서 사용하기에 가장 적합한 LLM을 선택할 수 있습니다.

pdf 다운로드 아이콘

아키텍처 다이어그램은 Red Hat OpenShift AI와 NVIDIA AI Enterprise를 사용하여 빌드된 애플리케이션을 보여줍니다. 구성 요소에는 OpenShift GitOps(GitHub에 연결하고 DevOps 상호 작용 처리), Grafana(모니터링), OpenShift AI(데이터 사이언스), Redis(벡터 데이터베이스), Quay(이미지 레지스트리)가 포함됩니다. 모든 구성 요소는 애플리케이션 프론트엔드 및 백엔드로 연결됩니다. 이러한 구성 요소는 Red Hat OpenShift AI 기반으로 구축되며, ai.nvidia.com과 통합됩니다.

Red Hat Summit과 AnsibleFest의 2025 AI 고객 사례

Turkish Airlines

터키항공(Turkish Airlines)은 전사적 데이터 액세스를 실현하여 배포 속도를 두 배로 높였습니다.

JCCM Logo

JCCM은 AI를 통해 지역 내 환경 영향 평가(EIA) 프로세스를 개선했습니다.

DenizBank

데니즈뱅크(Denizbank)는 시장 출시 시간을 일 단위에서 분 단위로 단축했습니다.

Hitachi logo

히타치(Hitachi)는 Red Hat OpenShift AI를 통해 AI를 비즈니스 전체에 도입하여 운영하고 있습니다.

Red Hat OpenShift AI 체험판 시작 방법

Developer Sandbox

사전 구성된 유연한 환경에서 AI 지원 애플리케이션을 빌드해 보고 싶은 개발자와 데이터 사이언티스트에게 적합합니다.

60일 체험판

조직이 OpenShift AI의 모든 기능을 평가할 준비가 되었다면 60일 체험판으로 시작하세요. 기존 Red Hat OpenShift 클러스터가 필요합니다.

더 많은 AI 리소스 살펴보기

Red Hat OpenShift AI로 사내 데이터 사이언티스트를 지원한 DenizBank

오픈소스: AI 성공의 지름길

터키항공 개발자, OpenShift AI를 사용하여 AI 실험 촉진

조직에서 MLOps를 성공적으로 구현하는 5가지 주요 방법

영업 팀에 문의하기

Red Hat AI에 대해 Red Hatter에게 문의하기