Red Hat OpenShift AI
Red Hat® OpenShift® AI는 하이브리드 클라우드 환경 전반에서 예측 AI 모델과 생성형 AI 모델의 라이프사이클을 규모에 맞게 관리하기 위한 AI 플랫폼입니다.
Red Hat OpenShift AI란?
오픈소스 기술을 사용하여 구축한 OpenShift AI는 팀이 실험하고, 모델을 서빙하고, 혁신적인 애플리케이션을 제공할 수 있도록 일관된 운영을 지원하는 신뢰할 수 있는 기능을 제공합니다.
OpenShift AI는 데이터 수집 및 준비, 모델 학습 및 미세 조정(fine-tuning), 모델 서빙 및 모델 모니터링, 하드웨어 가속을 지원합니다. 하드웨어 및 소프트웨어 파트너로 구성된 개방형 에코시스템을 갖춘 OpenShift AI는 특정 활용 사례에 필요한 유연성을 제공합니다.
AI 지원 애플리케이션을 신속히 프로덕션 단계로 이동
Red Hat OpenShift AI와 Red Hat OpenShift의 입증된 기능을 단일 엔터프라이즈 레디(enterprise-ready) AI 애플리케이션 플랫폼에 결합하여 팀의 협업을 지원하세요. 데이터 사이언티스트, 엔지니어 및 애플리케이션 개발자는 일관성, 보안, 확장성을 촉진하는 단일 대상에서 협업할 수 있습니다.
OpenShift AI의 최신 릴리스에는 Red Hat OpenShift AI용으로 검증된 타사의 최적화된 프로덕션 레디 모델들의 엄선된 컬렉션이 포함되어 있습니다. 이 타사 모델 카탈로그에 액세스하여 보안 및 정책 요구 사항을 충족하는 데 도움이 되는 모델 접근성 및 가시성에 대한 강화된 제어 권한을 팀에 제공하세요.
또한 OpenShift AI는 최적화된 vLLM 프레임워크를 통해 분산된 서빙으로 추론 비용 관리에 도움을 줍니다. 운영 복잡성을 추가적으로 줄이기 위해 OpenShift AI는 고급 툴링을 제공하여 모델, 툴 및 리소스에 대한 셀프 서비스 액세스와 배포를 자동화합니다.
특징 및 장점
AI 인프라 관리에 소요되는 시간 단축
셀프 서비스, 확장, 서빙에 더 유리한 고성능 모델에 온디맨드로 액세스할 수 있습니다. 개발자는 복잡성에서 자유로워지고 제어 권한을 유지하며 비용을 최적화할 수 있습니다.
Models-as-a-Service(MaaS)와 같은 기능이 현재 개발자 프리뷰 단계에 있습니다. 이 기능은 더욱 신속한 프라이빗 AI를 규모에 맞게 지원하는 API 엔드포인트 형태로 AI 액세스 접근 방식을 제공합니다.
검증되고 지원되는 AI/ML 툴링
Red Hat은 고객을 대신해 AI/ML 툴링과 모델 서빙을 테스트, 통합, 지원합니다. OpenShift AI는 Red Hat의 Open Data Hub 커뮤니티 프로젝트, 그리고 Kubeflow와 같은 오픈소스 프로젝트에서 다년간 진행된 인큐베이션 경험을 기반으로 합니다.
Red Hat은 경험과 오픈소스 전문 지식을 바탕으로 생성형 AI 레디 파운데이션을 제공하므로 고객은 더욱 자신 있게 생성형 AI 전략을 선택할 수 있습니다.
하이브리드 클라우드 전반의 유연성
셀프 관리형 소프트웨어로 제공되거나 OpenShift 기반의 전체 관리형 클라우드 서비스로 제공되는 Red Hat OpenShift AI는 온프레미스, 퍼블릭 클라우드 또는 엣지 등 모델 개발 및 배포 위치를 선택할 수 있는 안전하고 유연한 플랫폼을 제공합니다.
모범 사례 활용
Red Hat Services는 AI 도입 여정의 어느 단계에 있든지 AI 관련 과제를 해결하는 데 도움이 되는 전문 지식, 교육, 지원을 제공합니다.
AI 솔루션의 프로토타입을 제작하든, AI 플랫폼의 배포를 간소화하든, MLOps 전략을 발전시키든 Red Hat Consulting이 지원과 멘토링을 제공합니다.
Red Hat OpenShift AI용 MCP 서버
Red Hat OpenShift AI와 통합되는 기술 파트너들의 엄선된 MCP 서버 컬렉션을 살펴보세요.
MCP(Model Context Protocol)는 AI 애플리케이션과 외부 서비스 간 양방향 연결 및 표준화된 통신을 지원하는 오픈소스 프로토콜입니다.
이제 사용자는 이 MCP 서버를 활용하여 엔터프라이즈 툴 및 리소스를 AI 애플리케이션과 에이전틱 워크플로우에 통합할 수 있습니다.
빠르고 비용 효율적인 대규모 추론을 위해 vLLM으로 최적화하세요.
Red Hat AI Inference Server는 Red Hat AI 플랫폼의 구성 요소입니다. 독립 실행형 제품으로 제공되며 Red Hat Enterprise Linux® AI와 Red Hat OpenShift® AI에 모두 포함되어 있습니다.
귀사의 니즈에 맞게 귀사의 조건에 따라 운영되는 AI.
생성형 AI
텍스트나 소프트웨어 코드같은 새로운 콘텐츠를 만들어내세요.
Red Hat AI를 사용하면 원하는 생성형 AI 모델을 더 적은 리소스로 더 빠르게 실행할 수 있으며 추론 비용도 낮출 수 있습니다.
예측 AI
패턴을 연결하고 미래의 성과를 예측하세요.
Red Hat AI를 사용하면 하이브리드 클라우드 전반에 걸쳐 일관성을 유지하면서 예측 모델을 빌드하고, 학습시키고, 제공하며, 모니터링할 수 있습니다.
운영화된 AI
AI 유지 관리와 배포를 규모에 맞게 지원하는 시스템을 만드세요.
Red Hat AI를 활용하면 리소스를 절약하고 개인정보 보호 규정을 준수하면서 AI 기반 애플리케이션의 라이프사이클을 관리하고 모니터링할 수 있습니다.
에이전틱 AI
사람의 개입을 최소화하면서 복잡한 태스크를 자동으로 처리하는 워크플로우를 빌드하세요.
Red Hat AI는 기존 애플리케이션 내에 에이전틱 AI 워크플로우를 구축, 관리 및 배포하기 위한 유연한 접근 방식과 안정적 기반을 제공합니다.
파트너십
다른 통합 서비스와 제품을 통해 Red Hat OpenShift AI 플랫폼을 확장하여 더 많은 가치를 창출하세요.
NVIDIA와 Red Hat은 독보적인 유연성으로 다양한 AI 활용 사례를 가속화하는 확장 가능한 플랫폼을 제공합니다.
Intel®과 Red Hat은 조직이 AI 도입을 가속화하고 빠르게 AI/ML 모델을 운영화하도록 지원합니다.
IBM과 Red Hat은 AI 빌더를 위한 엔터프라이즈 수준의 AI 스튜디오인 IBM watsonx.aiTM 등을 통해 AI 개발 가속화를 위한 오픈소스 혁신을 제공합니다.
Starburst Enterprise와 Red Hat은 분산된 여러 이기종 데이터 플랫폼에서 신속한 데이터 분석을 통해 적시에 개선된 인사이트를 지원합니다.
AI 플랫폼을 위한 확장 가능한 쿠버네티스 인프라
AI 기반 애플리케이션을 빌드하는 데 머신 러닝 운영(MLOps) 원칙과 사례를 적용하는 방법을 알아보세요.
모델 워크벤치를 통합 협업
AI 허브와 생성형 AI 스튜디오를 사용하는 플랫폼 엔지니어와 AI 엔지니어는 협업을 통해 생성형 AI 모델을 프로덕션 단계에 더 빠르게 제공할 수 있습니다.
플랫폼 엔지니어는 AI 허브를 사용하여 타사 모델 검증을 통해 얻은 성능 인사이트와 더불어 중앙화된 AI 워크로드로 LLM을 관리할 수 있습니다. 그리고 AI 엔지니어는 생성형 AI 스튜디오를 활용해 핸즈온 환경에서 모델과 상호작용하고 플레이그라운드를 통해 생성형 AI 애플리케이션의 프로토타입을 신속하게 제작할 수 있습니다. 라이프사이클 통합에 앞서 채팅과 검색 증강 생성(RAG) 흐름을 실험할 수 있는 샌드박스에 액세스하여 모델 적합성을 확인하세요.
또한 데이터 사이언티스트는 선호하는 IDE와 프레임워크를 사용하여 모델 작업을 하기 위해 사전 빌드된 클러스터 이미지나 커스터마이징된 클러스터 이미지에 액세스할 수 있습니다. Red Hat OpenShift AI는 Jupyter, PyTorch, Kubeflow 및 기타 오픈소스 AI 기술의 변경 사항을 트랙킹합니다.
Red Hat OpenShift AI를 통한 모델 서빙 및 안전 확장
모델은 온프레미스, 퍼블릭 클라우드 또는 엣지에서 AI 지원 애플리케이션에 통합되기 위해 vLLM의 최적화된 버전(또는 원하는 다른 모델 서버)을 사용해 서빙될 수 있습니다. 이러한 모델은 소스 Notebook 변경 사항에 따라 재구축, 재배포, 모니터링될 수 있습니다.
환각과 편향은 모델의 무결성을 저해하여 확장을 방해합니다. 공정성, 안전, 확장성을 유지하기 위해 데이터 실무자는 OpenShift AI를 사용하여 모델 출력과 학습 데이터가 일치하는지 모니터링할 수 있습니다.
드리프트 감지 툴은 모델 추론에 사용되는 라이브 데이터가 원래 학습 데이터에서 벗어나는지 모니터링할 수 있습니다. 그리고 공격적인 표현이나 욕설과 같은 유해한 정보, 개인 데이터 또는 도메인별 제한으로부터 모델의 입력과 출력을 보호하는 AI 가드레일도 포함되어 있습니다.
솔루션 패턴
Red Hat과 NVIDIA AI Enterprise를 활용한 AI 애플리케이션
RAG 애플리케이션 생성
Red Hat OpenShift AI는 데이터 사이언스 프로젝트를 빌드하고 AI 기능을 탑재한 애플리케이션을 제공하기 위한 플랫폼입니다. 자체 참조 문서에서 AI 답변을 얻는 방법인 검색 증강 생성(Retrieval-Augmented Generation, RAG)을 지원하는 데 필요한 모든 도구를 통합할 수 있습니다. OpenShift AI를 NVIDIA AI Enterprise와 연결하면 대규모 언어 모델(Large Language Model, LLM)을 실험하여 애플리케이션에 대한 최적의 모델을 찾을 수 있습니다.
문서 파이프라인 구축
RAG를 활용하려면 먼저 문서를 벡터 데이터베이스에 수집해야 합니다. 예시 애플리케이션에서는 제품 문서 세트를 Redis 데이터베이스에 임베드합니다. 이러한 문서는 자주 변경되기 때문에, 이 프로세스에 대한 파이프라인을 구축하여 주기적으로 실행하면 항상 최신 버전의 문서를 확보할 수 있습니다.
LLM 카탈로그 살펴보기
NVIDIA AI Enterprise에서 다양한 LLM 카탈로그에 액세스하여 여러 가지 옵션을 사용해 보고 그중에서 최상의 결과를 제공하는 모델을 선택할 수 있습니다. 모델은 NVIDIA API 카탈로그에 호스팅됩니다. API 토큰을 설정한 후에는 OpenShift AI에서 바로 NVIDIA NIM 모델 서빙 플랫폼을 사용하여 모델을 배포할 수 있습니다.
적합한 모델 선택
다양한 LLM을 테스트하면서 사용자는 생성된 각 응답을 평가할 수 있습니다. Grafana 모니터링 대시보드를 설정하면 각 모델의 평점, 대기 시간, 응답 시간을 비교할 수 있습니다. 그런 다음 해당 데이터를 기반으로 프로덕션에서 사용하기에 가장 적합한 LLM을 선택할 수 있습니다.
Red Hat Summit과 AnsibleFest의 2025 AI 고객 사례
터키항공(Turkish Airlines)은 전사적 데이터 액세스를 실현하여 배포 속도를 두 배로 높였습니다.
JCCM은 AI를 통해 지역 내 환경 영향 평가(EIA) 프로세스를 개선했습니다.
데니즈뱅크(Denizbank)는 시장 출시 시간을 일 단위에서 분 단위로 단축했습니다.
히타치(Hitachi)는 Red Hat OpenShift AI를 통해 AI를 비즈니스 전체에 도입하여 운영하고 있습니다.
Red Hat OpenShift AI 체험판 시작 방법
Developer Sandbox
사전 구성된 유연한 환경에서 AI 지원 애플리케이션을 빌드해 보고 싶은 개발자와 데이터 사이언티스트에게 적합합니다.
60일 체험판
조직이 OpenShift AI의 모든 기능을 평가할 준비가 되었다면 60일 체험판으로 시작하세요. 기존 Red Hat OpenShift 클러스터가 필요합니다.