Red Hat AI

소유하고 있는 리소스와 인사이트를 활용하고 필요한 자유를 확보하여 AI 가치를 제공하세요. 

오픈소스 기술을 기반으로 구축된 Red Hat® AI는 AI 솔루션을 자신 있게 빌드하고 실행할 수 있도록 설계되었습니다. 

Red Hat AI product graphic
Red Hat AI 3
신규

Red Hat AI 3 출시

최신 릴리스인 Red Hat AI 3는 llm-d를 통해 AI 추론의 효율성과 경제성을 향상합니다. 새롭게 추가된 기능들은 프로덕션 레디 AI 솔루션을 대규모로 구축해야 한다는 협업 요구 사항에 부합하는 유연한 통합 환경을 통해 확장 가능한 에이전틱 AI 워크플로우를 제공할 수 있는 기반 역할을 합니다.

Red Hat AI 3에 대해 알아야 할 3가지. 재생 시간: 3분 18초

모델도 데이터도 자유롭게 선택하세요.

AI 애플리케이션의 성능을 극대화하려면 빠르고 비용 효율적인 추론이 필요합니다. Red Hat AI는 대규모 분산 추론을 위한 프레임워크인 llm-d를 통해 이를 실현할 수 있는 유연한 통합 플랫폼을 제공합니다. 

vLLM의 성공을 기반으로 개발된 llm-d는 쿠버네티스의 입증된 가치를 활용하며 예측 가능한 성능을 제공하는 일관되고 효율적인 처리를 제공합니다.

조직들이 에이전틱으로 전환함에 따라 효율성 외에도 하이브리드 클라우드 전반의 모델, 데이터 및 AI 워크플로우를 연결할 상호 운용 가능한 프레임워크가 필요합니다.

Llama Stack을 기반으로 한 통합 API 계층의 도입은 광범위한 AI 기능을 제공합니다. 여기에는 프로덕션 환경에서 에이전틱 AI를 더욱 손쉽게 대규모로 제공하고 실행할 수 있는 MCP(Model Context Protocol)와의 통합이 포함됩니다.

2시간 | 10월 14일(화) 오전 10시(EST)

웨비나

Red Hat AI의 새로운 기능과 출시 예정 기능

엔터프라이즈 수준의 AI를 향한 경로

Red Hat AI 리더들로부터 Red Hat AI의 최신 기술에 대한 소개를 들어 보세요.

최신 릴리스의 우선사항은 고성능, 예측 가능한 추론, AI 에이전트 개발 가속화입니다. 제품 업데이트로 비용, 복잡성, 제어 권한과 같은 AI 문제를 해결해 보세요.

Red Hat AI의 구성 요소:

Red Hat AI Inference Server Logo

Red Hat AI Inference Server는 하이브리드 클라우드 환경에서 모델 추론을 최적화하여 더 빠르고 비용 효율적인 모델 배포를 지원합니다. 

vLLM을 기반으로 하며, Hugging Face의 검증되고 최적화된 타사 모델에 대한 액세스 권한을 포함하고 있습니다. LLM 압축기 툴도 포함됩니다. 

Red Hat Enterprise Linux AI Logo

Red Hat Enterprise Linux® AI는 개별 서버 환경에서 대규모 언어 모델(LLM)을 일관되게 실행하기 위한 플랫폼입니다. 

포함된 Red Hat AI Inference Server는 처리량을 극대화하고 대기 시간을 최소화하는 vLLM을 통해 빠르고 비용 효율적인 하이브리드 클라우드 추론을 지원합니다.

또한 이미지 모드와 같은 기능을 통해 솔루션을 규모에 맞춰 일관되게 구현하도록 돕습니다. 아울러 Linux 전반에서 동일한 보안 프로필을 적용하도록 허용하므로 팀이 단일 워크플로우에서 통합됩니다.

구성 요소 Red Hat AI Inference Server

Red Hat OpenShift AI Logo

Red Hat OpenShift® AI는 Red Hat OpenShift의 기능을 기반으로 생성형 AI 모델과 예측 AI 모델의 라이프사이클을 대규모로 관리하는 플랫폼입니다. 

이 플랫폼은 프로덕션 AI를 제공하여 조직이 하이브리드 클라우드 환경 전반에서 소버린 AI와 프라이빗 AI를 비롯한 AI 모델 및 에이전트를 빌드, 배포, 관리할 수 있도록 지원합니다.

구성 요소 Red Hat AI Inference Server

구성 요소 Red Hat Enterprise Linux AI

실질적 효과를 위한 검증된 성능

Red Hat AI를 사용하면 Red Hat 플랫폼 전반에서 효율적으로 실행되는 즉시 사용 가능하고 검증된 타사 모델에 액세스할 수 있습니다.

Red Hat에서 제공하는 검증된 타사 모델을 사용하여 모델 성능을 테스트하고, 추론을 최적화하고, AI 도입 가속화를 위해 복잡성을 해소할 수 있는 지침을 확인하세요.

 

귀사의 니즈에 맞게 귀사의 조건에 따라 운영되는 AI.

생성형 AI

생성형 AI

텍스트나 소프트웨어 코드같은 새로운 콘텐츠를 만들어내세요. 

Red Hat AI를 사용하면 원하는 생성형 AI 모델을 더 적은 리소스로 더 빠르게 실행할 수 있으며 추론 비용도 낮출 수 있습니다. 

예측 AI

예측 AI

패턴을 연결하고 미래의 성과를 예측하세요. 

Red Hat AI를 사용하면 하이브리드 클라우드 전반에 걸쳐 일관성을 유지하면서 예측 모델을 빌드하고, 학습시키고, 제공하며, 모니터링할 수 있습니다.

운영화된 AI

운영화된 AI

AI 유지 관리와 배포를 규모에 맞게 지원하는 시스템을 만드세요. 

Red Hat AI를 활용하면 리소스를 절약하고 개인정보 보호 규정을 준수하면서 AI 기반 애플리케이션의 라이프사이클을 관리하고 모니터링할 수 있습니다. 

에이전틱 AI

에이전틱 AI

사람의 개입을 최소화하면서 복잡한 태스크를 자동으로 처리하는 워크플로우를 빌드하세요. 

Red Hat AI는 기존 애플리케이션 내에 에이전틱 AI 워크플로우를 구축, 관리 및 배포하기 위한 유연한 접근 방식과 안정적 기반을 제공합니다.

다양한 AI 파트너를 통한 다양한 발전 경로

고객이 AI를 더욱 다양하게 활용할 수 있도록 전문가와 기술을 함께 제공합니다. 다양한 기술 파트너들이 Red Hat과 협력하여 솔루션의 상호 운용성을 인증하고 있습니다. 

Dell Technologies
Lenovo
Intel
NVIDIA
AMD

Red Hat Summit과 AnsibleFest의 2025 AI 고객 사례

Turkish Airlines

터키항공(Turkish Airlines)은 전사적 데이터 액세스를 실현하여 배포 속도를 두 배로 높였습니다.

JCCM Logo

JCCM은 AI를 통해 지역 내 환경 영향 평가(EIA) 프로세스를 개선했습니다.

DenizBank

데니즈뱅크(Denizbank)는 시장 출시 시간을 일 단위에서 분 단위로 단축했습니다.

Hitachi logo

히타치(Hitachi)는 Red Hat OpenShift AI를 통해 AI를 비즈니스 전체에 도입하여 운영하고 있습니다.

솔루션 패턴

Red Hat과 NVIDIA AI Enterprise를 활용한 AI 애플리케이션

RAG 애플리케이션 생성

Red Hat OpenShift AI는 데이터 사이언스 프로젝트를 빌드하고 AI 기능을 탑재한 애플리케이션을 제공하기 위한 플랫폼입니다. 자체 참조 문서에서 AI 답변을 얻는 방법인 검색 증강 생성(Retrieval-Augmented Generation, RAG)을 지원하는 데 필요한 모든 도구를 통합할 수 있습니다. OpenShift AI를 NVIDIA AI Enterprise와 연결하면 대규모 언어 모델(Large Language Model, LLM)을 실험하여 애플리케이션에 대한 최적의 모델을 찾을 수 있습니다.

문서 파이프라인 구축

RAG를 활용하려면 먼저 문서를 벡터 데이터베이스에 수집해야 합니다. 예시 애플리케이션에서는 제품 문서 세트를 Redis 데이터베이스에 임베드합니다. 이러한 문서는 자주 변경되기 때문에, 이 프로세스에 대한 파이프라인을 구축하여 주기적으로 실행하면 항상 최신 버전의 문서를 확보할 수 있습니다.

LLM 카탈로그 살펴보기

NVIDIA AI Enterprise에서 다양한 LLM 카탈로그에 액세스하여 여러 가지 옵션을 사용해 보고 그중에서 최상의 결과를 제공하는 모델을 선택할 수 있습니다. 모델은 NVIDIA API 카탈로그에 호스팅됩니다. API 토큰을 설정한 후에는 OpenShift AI에서 바로 NVIDIA NIM 모델 서빙 플랫폼을 사용하여 모델을 배포할 수 있습니다.

적합한 모델 선택

다양한 LLM을 테스트하면서 사용자는 생성된 각 응답을 평가할 수 있습니다. Grafana 모니터링 대시보드를 설정하면 각 모델의 평점, 대기 시간, 응답 시간을 비교할 수 있습니다. 그런 다음 해당 데이터를 기반으로 프로덕션에서 사용하기에 가장 적합한 LLM을 선택할 수 있습니다.

pdf 다운로드 아이콘

아키텍처 다이어그램은 Red Hat OpenShift AI와 NVIDIA AI Enterprise를 사용하여 빌드된 애플리케이션을 보여줍니다. 구성 요소에는 OpenShift GitOps(GitHub에 연결하고 DevOps 상호 작용 처리), Grafana(모니터링), OpenShift AI(데이터 사이언스), Redis(벡터 데이터베이스), Quay(이미지 레지스트리)가 포함됩니다. 모든 구성 요소는 애플리케이션 프론트엔드 및 백엔드로 연결됩니다. 이러한 구성 요소는 Red Hat OpenShift AI 기반으로 구축되며, ai.nvidia.com과 통합됩니다.

Red Hat AI 실제 적용 사례

Photo of hands with a calculator

Ortec Finance logo

성장을 가속화하고 시장 출시 시간을 단축한 Ortec Finance 

위험 및 수익 관리를 위한 글로벌 기술 및 솔루션 제공업체인 오르텍 파이낸스(Ortec Finance)는 Microsoft Azure Red Hat OpenShift에서 ML 모델을 제공하고 Red Hat AI를 도입하고 있습니다.

Figure looking at device
Phoenix logo

한 차원 높은 클라우드 컴퓨팅을 제공하는 Phoenix Systems

피닉스 시스템즈(Phoenix Systems)는 Red Hat과 협업하여 고객에게 다양한 옵션, 투명성, AI 혁신을 제공하고 있습니다.​

Generic graphic chart

DenizBank logo

사내 데이터 사이언티스트의 역량을 강화하는 DenizBank

데니즈뱅크(DenizBank)가 고객 대출과 잠재적 사기를 파악하기 위한 AI 모델을 개발하고 있습니다. Red Hat AI를 통해 사내 데이터 사이언티스트들은 새로운 차원의 데이터 자율성을 확보했습니다.

보라색 원

서버 스택 아이콘

RHEL 아이콘

구름 옆의 분홍색 정육면체 아이콘

OpenShift 아이콘

AI를 나타내는 스파클이 있는 브라우저 아이콘

OpenShift 아이콘

톱니바퀴 아이콘

OpenShift 아이콘

신뢰할 수 있는 기반 위에 구축

하이브리드 클라우드 인프라, 애플리케이션 서비스, 클라우드 네이티브 애플리케이션 개발, 자동화 솔루션으로 구성된 Red Hat의 폭넓은 포트폴리오를 신뢰하는 전 세계 기업을 위해 어떤 인프라에서도 IT 서비스를 빠르고 비용 효율적으로 제공합니다.

Red Hat Enterprise Linux

유연한 운영 환경에서 온프레미스부터 클라우드, 엣지에 이르기까지 애플리케이션 배포를 지원합니다.

자세히 알아보기 

Red Hat OpenShift

애플리케이션을 규모에 맞게 빠르게 빌드하고 배포하는 동시에 기존 애플리케이션을 현대화할 수 있습니다.

자세히 알아보기 

Red Hat Ansible
Automation Platform

전사적으로 자동화를 생성, 관리하고 신속히 확장할 수 있습니다.

자세히 알아보기 

Red Hat AI
 

기업에 맞는 데이터로 소규모 모델을 튜닝하고, 하이브리드 클라우드 환경에서 AI 솔루션을 개발하고 배포하세요.

자세히 알아보기 

더 많은 AI 리소스 살펴보기

기업에서 AI를 시작하는 방법

AI를 위한 Red Hat Consulting

오픈소스 모델로 AI 혁신 극대화

Red Hat Consulting: AI Platform Foundation

Red Hat AI에 대해 Red Hatter에게 문의하기