AI 산업은 지난 3년 동안 규모에 집중해 왔습니다. 우리는 더 큰 모델이 곧 더 스마트한 모델이라는 믿음 아래, 파라미터 수를 조 단위까지 늘리는 데 집착해 왔습니다. 하지만 상황이 점차 정리되면서 기업에는 새로운 현실이 나타나고 있습니다. 이제 기업에게 중요한 지표는 모델의 크기가 아니라, 신뢰할 수 있고 예측 가능한 결과를 도출해 내는 능력입니다.
Red Hat은 가장 강력한 기술이란 분산되고 개방적이며 목적에 부합하는 기술이라고 항상 믿어 왔습니다. 소규모 언어 모델(SLM)은 바로 그러한 패러다임의 전환을 상징합니다. SLM과 대규모 언어 모델(LLM)의 차이보다는 해당 모델이 수행하는 아키텍처상의 역할이 더 중요합니다. 진정으로 중요한 가치는 소형 모델이 제공하는 기능적 소버린티(Functional Sovereignty)에 있습니다.
우리는 거대한 블랙박스 모델에 질문하는 대화형 AI의 시대에서 벗어나, 전문화된 모델 그룹이 실제 비즈니스 업무를 수행하는 에이전틱 AI의 시대로 진입하고 있습니다.
모든 비즈니스에서 AI 에이전트 실행 가능
우리는 과거 웹으로의 전환만큼이나 근본적인 변화의 임계점에 서 있습니다.
비즈니스 정체성이 어떻게 진화해 왔는지 되짚어 보십시오. 1995년에 업계는 "이메일 주소가 왜 필요하지?"라고 물었습니다. 2005년에는 그 질문이 웹사이트로 바뀌었습니다. 2015년에는 소셜 미디어 활동이 그 자리를 차지했습니다. 2026년에는 "현재 우리 회사는 몇 개의 에이전트를 실행 중인가?"라는 질문을 던지게 될 것입니다.
우리는 사람보다 AI 에이전트가 더 많은 세상을 향해 나아가고 있습니다. 모든 비즈니스는 다음과 같은 수많은 에이전트를 보유하게 될 것입니다.
- 고객 응대 에이전트: 단순한 질의응답을 넘어 복잡한 물류 문제까지 해결합니다.
- 워크플로우 에이전트: 부서와 부서 사이의 보이지 않는 '접점'을 자동화합니다.
- 헤드리스(Headless) 에이전트: API 호출을 자동으로 실행하여 인벤토리를 조정하고 결제를 처리합니다.
하지만 타사의 보조금을 받는 클라우드 토큰만으로는 지속 가능하고 비용 효율적인 에이전틱 플릿(agentic fleet)을 구축할 수 없습니다. 이러한 상황에서 SLM은 엔터프라이즈 활용 사례와 확장을 가능하게 하는 필수 툴이 됩니다.
SLM이 에이전틱 백엔드를 주도하는 이유
최첨단 LLM은 고처리량 엔지니어링의 정수이지만, 즉각적으로 반응하는 디지털 직원의 역할을 수행하기에는 너무 무거운 경우가 많습니다. 에이전틱 워크플로우에서는 단순한 성능뿐만 아니라 낮은 지연 시간의 실행 속도가 필요합니다. SLM을 사용하면 비즈니스 크리티컬 자동화에 필수적인 1초 미만의 응답 시간과 결정론적 신뢰성을 확보할 수 있습니다.
1. 전문화의 힘(효율성 > 규모)
4,000억 개(400B) 파라미터 모델의 미세 조정(Fine-tuning)을 고려하는 기업은 거의 없겠지만, 30억(3B) 또는 70억(7B) 규모의 모델은 관리 가능하면서도 매우 효과적인 진입점을 제공합니다. 이 지점에서 아키텍처 제어가 시작됩니다. 2025년 말의 연구에 따르면, 고품질의 합성 데이터를 기반으로 미세 조정된 3억 5천만 개의 매개 변수 모델도 특정 툴 호출 및 API 오케스트레이션 도메인에서 일반 프론티어 모델을 능가할 수 있습니다. 강력한 에이전틱 백엔드의 목표는 광범위하고 시적인 언어 기능이 아니라 고정밀 전문화입니다.
2. 결정론적 결과와 "신뢰의 수학"
엔터프라이즈 AI의 가장 큰 장애물 중 하나는 비결정성으로, 에이전트가 응답 형식을 한 번은 올바르게 지정하더라도 다음 번에는 실패할 수 있는 위험을 의미합니다. 완전한 결정론적 수학 함수를 갖춘 LLM은 없지만, SLM을 사용하면 이전에는 훨씬 어려웠던 아키텍처 제어를 적용할 수 있습니다. JSON 스키마 또는 CFG(Context-Free Grammars)와 같은 제한된 디코딩 기술을 사용하면 모델의 토큰 검색 공간을 축소하여 모델이 잘못된 다음 문자를 선택하는 것을 물리적으로 방지할 수 있습니다. 이러한 방식은 개방형 마법에서 스키마 제약 기반의 정확성으로 초점을 이동시킵니다. 로컬 실행 및 전문화된 미세 조정과 결합된 SLM은 정형화된 태스크에서 98% 이상의 유효성을 달성하여 민감한 에이전틱 워크플로우에 필요한 예측 가능한 신뢰성을 제공합니다.
3. 선택이 아닌 필수인 데이터 주권
데이터는 기업의 가장 소중한 자산입니다. 에이전틱 환경에서는 이러한 모델이 고객 관계 관리(CRM), 독점 코드, 내부 전략을 처리합니다. "서비스형 인텔리전스(intelligence-as-a-service)"를 대가로 해당 데이터를 타사 클라우드 공급업체에 제공하는 것은 전략적 실수입니다.
온프레미스 또는 자체 하이브리드 클라우드 환경 내에서 SLM을 실행하면 해당 IP의 소유권을 유지할 수 있습니다. 이러한 환경은 민감한 데이터가 경계를 벗어나지 않는 "제로 트러스트" AI 아키텍처를 구현하여 의료, 금융, 정부와 같은 산업에서 요구되는 엄격한 규제 요건을 충족합니다.
맺음말
우리는 생성형 AI(gen AI)가 대화와 콘텐츠를 생성하던 시대를 지나, AI 에이전트가 우리를 대신해 행동을 취하는 시대로 전환하고 있습니다. 이 새로운 시대에는 어떤 모델이 가장 큰가가 아니라, 어떤 인프라가 가장 안정적이고 잘 보호되는지가 중요합니다. 비즈니스 운영이 전문화된 디지털 에이전트 그룹에 의존하는 경우, "블랙박스" 클라우드 모델만으로는 충분하지 않습니다. 이제 소버린티, 속도, 정확성이 필요합니다.
Red Hat은 에이전틱 미래를 향한 여정이 열려 있다고 믿습니다. 기업은 Red Hat AI 포트폴리오를 통해 미세 조정, 서비스 제공, 오케스트레이션이 가능한 엄선된 소규모 언어 모델을 활용하여 AI를 실험실에서 비즈니스 로직의 핵심으로 이동시킬 수 있습니다.
시장은 빠르게 변화하고 있지만 목표는 분명합니다. 거대 모델을 쫓는 대신 비즈니스의 중추를 구축해야 합니다. AI의 미래는 작고 빠르며 오픈 하이브리드 클라우드를 기반으로 구축됩니다.
자세히 알아보기
저자 소개
Catherine Weeks is an Engineering Director in Red Hat AI, where she leads the teams building software with the latest generative AI innovations.
With a background in software design, Catherine is a leader who excels at translating complex customer needs into practical engineering solutions. She is known for her ability to work at every level—from high-level strategy down to the hands-on work of getting it done. This approach helps her balance the fast-moving world of AI innovation with the need to build the reliable, high-quality products customers depend on, all while fostering a supportive team culture.
With over 20 years in the software industry, Catherine has a proven record of mentoring strong teams and has always been a champion for the end-user.
Ricardo is a Principal Software Engineer working at the Red Hat's Office of the CTO in the Emerging Technologies organization as Initiative lead. Ricardo is currently focused on the different kinds of architectures in the AI space like SLMs and multimodality. He has been part of the MicroShift and Edge Manager projects since its inception.
He is a former member of the Akraino Technical Steering Committee and Project Technical Lead of the Kubernetes-Native-Infrastructure blueprint family. He's been doing R&D related to OpenStack, as well as, contributing to OpenDaylight project and OPNFV. He is passionate about new technologies and everything related to the Open Source world. Ricardo holds a MSc Degree in Telecommunications from Technical University of Madrid (UPM). He loves music, photography and outdoor sports.
유사한 검색 결과
When AI finds the bugs: Why defense in depth was always the answer
Control your AI agent traffic at scale: Model Context Protocol gateway for Red Hat OpenShift is now in technology preview
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
채널별 검색
오토메이션
기술, 팀, 인프라를 위한 IT 자동화 최신 동향
인공지능
고객이 어디서나 AI 워크로드를 실행할 수 있도록 지원하는 플랫폼 업데이트
오픈 하이브리드 클라우드
하이브리드 클라우드로 더욱 유연한 미래를 구축하는 방법을 알아보세요
보안
환경과 기술 전반에 걸쳐 리스크를 감소하는 방법에 대한 최신 정보
엣지 컴퓨팅
엣지에서의 운영을 단순화하는 플랫폼 업데이트
인프라
세계적으로 인정받은 기업용 Linux 플랫폼에 대한 최신 정보
애플리케이션
복잡한 애플리케이션에 대한 솔루션 더 보기
가상화
온프레미스와 클라우드 환경에서 워크로드를 유연하게 운영하기 위한 엔터프라이즈 가상화의 미래