서비스로서의 모델이란?
서비스로서의 모델(MaaS)은 AI 모델을 공유 리소스로 제공하여 조직 내의 사용자가 온디맨드 방식으로 그러한 모델을 사용할 수 있게 하는 접근 방식입니다. MaaS는 애플리케이션 프로그래밍 인터페이스(API) 엔드포인트의 형태로 즉시 실행 가능한 AI 기반을 제공하여 더 신속한 프라이빗 AI를 대규모로 사용할 수 있게 합니다.
많은 조직에서 AI를 활용하기 원하지만 대부분은 엔터프라이즈를 위한 프라이빗 모델을 사용하는 데 난항을 겪고 있습니다. Hugging Face와 같은 공개 소스에서 사전 학습된 AI 모델의 접근성이 갈수록 향상되고 있습니다. 대규모 그래픽 처리 장치(GPU)와 같은 적절한 하드웨어를 갖추고 있다면 모델을 빌드하고 실행하는 것이 현실적인 목표처럼 느껴질 수 있습니다. 그러나 모델이 실행되더라도 이를 사용할 수 있는 주체는 누구일까요? 더 나아가 이를 확장할 수 있는 주체는 누구일까요?
프라이빗 AI 모델을 확장하려면 여러 사용자와 여러 애플리케이션이 단일 모델 인스턴스에 동시에 액세스할 수 있도록 해야 합니다. 그러지 않으면 모델을 빌드한 사람만 모델에 액세스할 수 있으므로 매우 비효율적입니다. 이것이 바로 MaaS가 필요한 이유입니다.
서비스로서의 모델을 사용하면 데이터의 통제를 유지하면서 하나의 조직에 속한 여러 팀과 애플리케이션이 모델 액세스를 비공개로 공유할 수 있습니다.
서비스로서의 모델의 작동 방식은?
조직의 AI 도입 초기에는 주로 사용하기 쉬운 툴과 인터페이스로 시작했습니다. 그러나 AI 사용이 증가하면 몇 가지 모델을 사용하여 실험하는 것에서 AI를 대규모로 실행하는 것으로 초점이 옮겨가게 됩니다. 처음에는 프로덕션에서 몇 가지 특정 모델을 사용하는 것으로 시작하지만, 시간이 지나면서 언어 모델, 이미지 모델, 오디오 모델 등 여러 다양한 유형을 여러 버전과 활용 사례에 걸쳐 실행할 가능성이 높습니다.
이는 모든 일을 '장인'처럼 수작업으로 처리하는 접근 방식에서, 모델을 더 효율적이고 일관되게 '공장식'으로 관리하는 접근 방식으로 전환하는 것을 의미합니다.
이 모든 것을 안정적이고 확장 가능한 방식으로 관리하는 것이 바로 MaaS의 역할입니다.
검색 증강 생성(RAG), 에이전틱 및 코딩 어시스턴트와 같은 AI 패턴을 탐색하는 데는 퍼블릭 AI 제공업체가 필요하지 않습니다. 프라이빗 AI 모델을 사용하면 최종 사용자의 편의성에 영향을 주지 않고도 이 동일한 툴을 강화할 수 있습니다.
MaaS는 Mistral, Llama, DeepSeek 등과 같이 공개적으로 제공되는 대규모 언어 모델(LLM) 사용을 지원할 수 있습니다. 또한 사전 학습된 파운데이션 모델에만 국한되지 않습니다. MaaS는 동일한, 완전히 지원되는 플랫폼에서 파인 튜닝된 모델 또는 완전히 처음부터 빌드된 예측 AI 모델을 모두 제공할 수 있습니다.
통상적인 MaaS 구현에서는 IT 또는 AI 플랫폼 엔지니어링 팀이 개발자, 비즈니스 사용자와 같은 내부 고객을 위해 API 엔드포인트를 통해 AI 모델을 제공합니다. MaaS 환경은 주로 API 게이트웨이를 통해 팀과 운영 간 통합을 간소화하는 하이브리드 클라우드 AI 플랫폼을 기반으로 구축됩니다. MaaS의 주요 구성 요소에는 모델, 확장 가능한 AI 플랫폼, AI 오케스트레이션 시스템, API 관리가 포함됩니다. MaaS는 이러한 구성 요소를 기반으로 확장 가능한 AI 전략을 지원합니다.
AI 기술 구현의 4가지 핵심 고려 사항
서비스로서의 모델을 통해 얻을 수 있는 이점
균형 잡힌 MaaS 솔루션은 AI 통합을 간소화합니다. 시간과 비용을 절약하고 AI 전략을 통제할 수 있도록 합니다. MaaS를 정의하는 특징은 다음과 같습니다.
접근성 및 확장 가능성. 조직은 대부분 AI 전략에 대한 통제권을 유지하기 위해 프라이빗 AI를 빌드합니다. 그러나 이러한 AI의 사용이 까다롭다면 아무도 도입하려고 하지 않을 것입니다. 프라이빗 AI가 성과를 내려면 퍼블릭 AI 서비스(예: OpenAI, OpenRouter, Gemini)와 같이 사용자 친화적이어야 합니다. MaaS를 적절히 확장하려면 AI 전문가가 아닌 사용자도 쉽게 접근할 수 있어야 합니다. 또한 일상적인 작업과 통합되는 동시에 조직 전반의 운영으로 확장되어야 합니다.
추적 가능성 및 조정 가능성. 누가 MaaS를 어떤 이유로 얼마나 사용하는지 파악하는 것은 중요합니다. 그런 다음 그러한 사용량을 보고(사용 내역 확인)하거나 비용을 청구(차지백)할 수 있습니다. 사용량을 추적할 수 없으면 비용과 용량 또는 팀 간의 공정성을 관리하기 어렵습니다.
투명성과 안전성. 프라이빗 AI 모델의 이점을 극대화하려면 고유한 엔터프라이즈 데이터가 필수이며, 이러한 데이터를 전송할 수 있는 위치를 통제하는 엄격한 규칙을 준수해야 합니다. MaaS를 사용하면 이 모델을 고유한 것으로 만들고 데이터를 온전히 통제할 수 있습니다. 투명성을 제공하지 않는 '블랙 박스' 모델은 주의해야 합니다. AI 모델을 이해하고 효율성을 개선하며 윤리적인 AI 모범 사례를 유지 관리할 수 있으려면 설명 가능성과 추적 가능성을 중요하게 고려해야 합니다.
LLMaaS와 MaaS의 차이점은?
서비스로서의 대규모 언어 모델(LLMaaS)은 복잡한 언어 처리 등 LLM 기능에 특화된 MaaS입니다.
LLM은 다양한 언어를 이해하고 해당 언어로 소통하기 위해 대량의 데이터 연산 능력을 갖춘 딥러닝 모델입니다. LLM은 생성형 AI에 사용되며 주로 챗봇을 개발하는 데 사용됩니다. 그러나 이 모델은 RAG, 애이전틱 AI, 코딩 어시스턴트와 같이 오늘날의 최첨단 AI 활용 사례에서도 핵심적인 역할을 합니다.
MaaS는 LLMaaS에 비해 기술에 덜 구애받는 것이 특징입니다. MaaS는 새롭게 등장하는 다양한 유형의 모델에 적응할 수 있습니다. 이러한 유연성을 바탕으로 모델이 변경되거나 교체되는 경우에도 모델 서빙 및 액세스 기능을 안정적으로 유지합니다.
서비스로서의 모델을 선택해야 하는 이유는?
MaaS를 도입하면 리소스를 통제할 수 있습니다. 예산이나 AI 관련 스킬이 부족한 팀도 MaaS를 사용하여 고유한 조건에 따라 자체 모델을 빌드하고 학습시키고 서빙할 수 있습니다.
인프라와 GPU를 관리하려면 많은 비용이 들 수 있습니다. 프라이빗 AI 제공자가 되어 파편화된 AI 서비스의 복잡성을 피하고 인프라 비용을 통제할 수 있습니다.
MaaS는 구체적으로 다음 장점을 제공합니다.
- 가치 창출 시간 단축. MaaS를 사용하면 팀이 기본 인프라를 관리하는 대신 애플리케이션을 개발하고 비즈니스 문제를 해결하는 데 집중하여 배포 속도를 높이고 혁신을 가속화할 수 있게 됩니다.
- 효율성 및 비용 절감. 조직은 중앙화된 AI 인프라를 통해 여러 다른 AI 서비스를 사용하는 대신 단일 소스에서 작업할 수 있습니다. 따라서 중복된 작업과 과다 지출, 체계적이지 않은 리소스 활용을 피할 수 있습니다.
- 시간 관리 개선. GPU를 관리하려면 숙련되고 경험 많은 전문 인력과 예산이 필요합니다. MaaS를 사용하면 AI 팀이 많은 시간이 소요되는 반복적인 작업 대신 모델 관리 및 서빙과 같은 더 중요한 일에 집중할 수 있습니다.
- 개인정보 보호 및 보안. 프라이빗 AI를 자체적으로 제공함으로써 AI 모델을 직접 호스팅하여 인프라가 외부에 공개되는 것을 방지할 수 있습니다. 데이터가 제3자에게 노출되지 않으므로 기존 보안 정책을 통해 데이터를 더 쉽게 보호하고 통제권을 유지할 수 있습니다.
자체 서비스로서의 모델을 설정하는 경우 고려 사항
제공업체에서 사전 구축된 MaaS 솔루션을 사용할 수도 있고 자체 MaaS를 빌드할 수도 있습니다. 회사 내 팀에서 내부 MaaS 솔루션을 개발하여 배포하고 운영화할 수 있습니다.
요구 사항에 맞는 모델 서비스를 개발하는 것은 물론 중요하지만, 그것은 자체 MaaS를 개발할 때 고려해야 할 수많은 요인 중 하나에 불과합니다. 그 외에도 시작하기 전에 다음과 같은 요인을 고려해야 합니다.
- 데이터 수집 프로세스: 학습 데이터의 품질을 어떻게 우수한 수준으로 유지하나요? 비공개 데이터를 어떻게 보호하나요?
- 리소스 관리: 누가 MaaS와 GPU 개발, 빌드, 관리를 담당하나요?
- 안정적인 인프라: 인프라가 새로운 AI 모델을 지원할 수 있을 정도로 충분히 안정적인가요? 모델을 구축한 다음 해당 모델을 활용할 수 있는 리소스가 있나요?
시작하기 전에 이러한 질문에 답변해 본다면 앞으로 필요한 기반을 다지는 데 도움이 될 것입니다.
Red Hat의 지원 방식
Red Hat® AI는 고객이 이미 신뢰하는 솔루션을 토대로 구축된 Red Hat의 AI 제품 플랫폼입니다. Red Hat AI는 조직에 다음과 같은 도움을 제공합니다.
- AI를 신속하게 도입하고 활용하여 빠르게 혁신
- AI 솔루션 제공의 복잡성 해소
- 하이브리드 클라우드 전반에 걸친 배포
Red Hat OpenShift® AI는 Red Hat AI 내에 포함되어 있습니다. 이 솔루션은 클라우드, 엣지 또는 온프레미스에서 MaaS를 지원하는 유연하고 비용 효율적인 AI 플랫폼을 제공합니다.
Red Hat OpenShift AI는 조직에 다음과 같은 도움을 제공합니다.
- 데이터 수집, 모델 학습, 모델 서빙, 관측성 워크플로우를 간소화하여 팀 간 협업 개선
- 통합형 인증 및 역할 기반 액세스 제어를 통한 보안 강화
- 모델이 에어 갭 환경 및 분리된 환경에 있는 경우 비공개 데이터 보호
- 유연한 API 게이트웨이를 통해 클라우드, 온프레미스 등 조직의 모든 위치에 도달
- 광범위한 모델 거버넌스 및 AI 가드레일을 통해 모델 편향 및 드리프트 방지
엔터프라이즈를 위한 AI 시작하기: 입문자용 가이드
Red Hat OpenShift AI와 Red Hat Enterprise Linux AI가 어떻게 여러분의 AI 도입 여정을 가속화할 수 있는지 확인해 보세요.