생성형 AI의 세계는 빛의 속도로 움직이고 있습니다. 기업의 경우 새로운 대규모 언어 모델(LLM), 툴(예: Model Context Protocol(MCP) 서버), 프레임워크의 범람을 헤쳐 나가는 것이 부담스러울 수 있습니다. 적합한 모델을 선택하는 방법 팀이 조직의 장벽을 만들지 않고 AI의 최신 혁신을 실험하고 구축할 수 있도록 지원하려면 어떻게 해야 할까요?
Red Hat은 AI의 미래가 개방적이고 접근 가능하며 관리할 수 있는 방식으로 대규모로 구현될 것이라고 믿습니다. 따라서 Red Hat OpenShift AI 3.0에서 통합된 두 가지 새로운 대시보드 경험인 AI 허브와 생성형 AI 스튜디오를 발표하게 되어 기쁩니다.
이러한 경험은 조직 내에서 AI로 혁신을 추진하는 주요 인물인 플랫폼 엔지니어와 AI 엔지니어를 위한 맞춤형 구성 요소를 제공하여 기업의 전체 생성형 AI 라이프사이클을 간소화하도록 설계되었습니다.
새로운 기능 자세히 살펴보기
AI 허브와 생성형 AI 스튜디오는 협업을 통해 신뢰할 수 있고 일관된 플랫폼에서 프로덕션 레디 AI 솔루션을 구축하기 위한 응집력 있는 엔드 투 엔드 워크플로우를 생성합니다.
AI 허브: 플랫폼 엔지니어의 제어판
AI 허브는 OpenShift AI 내에서 생성형 AI 자산의 관리 및 거버넌스를 위한 중심 지점입니다. 플랫폼 엔지니어가 팀에 필요한 기본 구성 요소를 검색, 배포, 관리할 수 있도록 지원합니다. 주요 구성 요소는 다음과 같습니다.
- 카탈로그: 플랫폼 엔지니어가 다양한 모델을 검색, 비교, 평가할 수 있는 엄선된 라이브러리입니다. 이는 모든 사용 사례에 대해 최적의 모델을 선택하는 데 필요한 데이터를 제공하여 "모델 선택 장애(model selection paralysis)"를 극복하는 데 도움이 됩니다.
- 레지스트리: 배포용으로 구성하기 전에 AI 모델의 라이프사이클을 등록, 버전 관리, 관리하는 중앙 리포지토리입니다.
- 배포: 클러스터에서 실행 중인 모델의 상태를 구성, 배포 및 모니터링하는 관리 페이지입니다.
생성형 AI 스튜디오: AI 엔지니어의 혁신 워크벤치
AI 허브가 제어 기능을 제공하는 반면, 생성형 AI 스튜디오는 AI 엔지니어가 사용, 실험, 구축할 수 있는 핸즈온 환경을 제공합니다. 혁신은 바로 여기에서 구체화됩니다. 스튜디오는 다음을 포함합니다.
- AI 자산 엔드포인트: AI 엔지니어가 프로젝트 내에서 사용할 수 있는 배포 및 프로비저닝된 모든 모델과 MCP 서버(구성 맵을 통해)를 확인할 수 있는 간단하고 명확한 보기입니다.
- 플레이그라운드: AI 엔지니어가 배포된 자산을 실험하고, 프롬프트를 테스트하고, 매개 변수를 조정하고, 채팅 및 RAG(Retrieval-Augmented Generation)와 같은 활용 사례의 성능을 평가할 수 있는 대화형 스테이트리스(stateless) 환경입니다.
이 통합된 실험 공간은 판도를 바꿀 수 있는 혁신적인 공간입니다. 테스트를 분산된 로컬 환경에서 표준화된 협업 플랫폼으로 이동하여 전체 개발 라이프사이클을 가속화합니다. 동시에 AI 엔지니어가 액세스하고 사용할 수 있는 승인된 AI 자산에 대한 명확한 가시성을 제공하여 엔터프라이즈 정책에 따라 실험을 수행할 수 있습니다.
기업을 위한 실질적인 가치
OpenShift AI 3.0은 플랫폼 엔지니어와 AI 엔지니어 모두를 위한 통합된 경험을 제공함으로써 일반적인 엔터프라이즈 과제를 해결하는 강력한 이점을 제공합니다.
- 간소화된 모델 선택: AI 허브의 카탈로그는 시장의 혼란을 줄여주어 플랫폼 엔지니어가 자사 비즈니스 요구에 가장 적합한 엔터프라이즈급 모델들을 선별할 수 있도록 합니다.
- 중앙집중식 및 관리형 AI 자산: 플랫폼은 모든 AI 자산에 대한 단일 정보 소스를 생성하여 조직의 파편화를 해결합니다. 플랫폼 엔지니어는 AI 자산을 관리하고, 버전을 관리하며, AI 엔지니어에게 의도적인 액세스 권한을 제공하여 전체 AI 거버넌스를 위한 기반을 마련할 수 있습니다.
- 개발 주기 단축: 생성형 AI 스튜디오의 플레이그라운드는 탐색과 통합 사이의 격차를 해소합니다. AI 엔지니어는 모델을 신속하게 테스트하고 검증할 수 있으며, MCP 서버를 표면화하여 표준화된 방식으로 툴 호출을 실험할 수 있습니다. 이를 통해 배포 실패를 줄이고 AI 기반 애플리케이션을 더 빠르게 프로덕션 환경으로 전환할 수 있습니다.
시작하는 방법
AI 워크플로우에 중앙집중식 제어와 가속화된 혁신을 가져올 준비가 되셨나요? AI 허브와 생성형 AI 스튜디오는 신뢰할 수 있는 플랫폼에서 차세대 AI 애플리케이션을 구축할 수 있도록 지원합니다.
Red Hat의 목표는 독자의 요구 사항에 부합하는 흥미로운 글을 작성할 수 있도록 돕는 것입니다. 이를 위해서는 Red Hat 기술을 핸즈온할 수 있는 명확한 경로를 제공해야 합니다.
다음 단계는 무엇일까요?
이는 시작에 불과합니다. Red Hat은 생성형 AI의 전반적인 영역을 지원하기 위해 OpenShift AI를 지속적으로 발전시키고 있습니다. 향후에는 AI 자산이 MCP 서버 관리를 확장하고 에이전트, RAG용 지식 소스, 안전 가드레일과 같은 기타 우선순위가 높은 구성 요소를 포함할 것으로 예상할 수 있습니다.
또한 AI 자산 주권 및 거버넌스를 AI 허브와 생성형 AI 스튜디오로 확장하여 기업이 AI 자산 할당량, 권한, 관리를 세부적으로 제어하여 컴플라이언스를 보장할 계획입니다.
엔터프라이즈 AI의 미래는 개방형 협업 환경이며, OpenShift AI는 이를 실현하는 플랫폼입니다.
리소스
적응형 엔터프라이즈: AI 준비성은 곧 위기 대응력
저자 소개
My name is Rob Greenberg, Principal Product Manager for Red Hat AI, and I came over to Red Hat with the Neural Magic acquisition in January 2025. Prior to joining Red Hat, I spent 3 years at Neural Magic building and delivering tools that accelerate AI inference with optimized, open-source models. I've also had stints as a Digital Product Manager at Rocketbook and as a Technology Consultant at Accenture.
유사한 검색 결과
Implementing best practices: Controlled network environment for Ray clusters in Red Hat OpenShift AI 3.0
Solving the scaling challenge: 3 proven strategies for your AI infrastructure
Technically Speaking | Platform engineering for AI agents
Technically Speaking | Driving healthcare discoveries with AI
채널별 검색
오토메이션
기술, 팀, 인프라를 위한 IT 자동화 최신 동향
인공지능
고객이 어디서나 AI 워크로드를 실행할 수 있도록 지원하는 플랫폼 업데이트
오픈 하이브리드 클라우드
하이브리드 클라우드로 더욱 유연한 미래를 구축하는 방법을 알아보세요
보안
환경과 기술 전반에 걸쳐 리스크를 감소하는 방법에 대한 최신 정보
엣지 컴퓨팅
엣지에서의 운영을 단순화하는 플랫폼 업데이트
인프라
세계적으로 인정받은 기업용 Linux 플랫폼에 대한 최신 정보
애플리케이션
복잡한 애플리케이션에 대한 솔루션 더 보기
가상화
온프레미스와 클라우드 환경에서 워크로드를 유연하게 운영하기 위한 엔터프라이즈 가상화의 미래