개요
인공지능(AI)은 지능과 문제 해결을 시뮬레이션하는 프로세스와 알고리즘을 포괄합니다. 머신 러닝(ML)과 딥러닝(DL)은 알고리즘을 사용하여 데이터에서 패턴을 감지하고 예측하는 AI의 하위 집합입니다.
최근에는 AI, ML 및 DL 애플리케이션의 발전(예: 손쉽게 사용할 수 있는 대규모 언어 모델(LLM))이 유통 산업의 맞춤형 추천과 금융 산업의 사기 감지를 비롯한 여러 산업의 새로운 활용 사례로 이어졌습니다. 통신 산업의 경우 이러한 혁신이 비즈니스의 일부로 자리 잡았습니다.
많은 주요 통신사가 여러 해 동안 예측 AI를 사용하여 운영의 효율성을 높여 왔습니다. 일부는 생성형 AI를 사용하여 더 나은 고객 경험을 제공하고 시장에서 경쟁력을 높이기도 합니다. 그러나 통신 산업에 AI를 적용하면 초기 자본 지출, 보안, 대용량 데이터 처리 시 문제점 등 여러 장애물에 직면하게 됩니다. IT 솔루션은 AI 툴을 효율적이고 경제적으로 사용하여 신규 매출을 창출하는 동시에 고객 정보를 보호하는 데 도움이 됩니다.
통신 산업의 AI 활용 사례
AI 애플리케이션은 다음과 같이 여러 통신 비즈니스의 과제를 해결하는 데 도움이 됩니다.
- 비용 상승. 통신사는 경쟁력 유지를 위해 업그레이드에 막대한 양의 리소스를 투자해 왔습니다. 예를 들어, 5G와 AI를 통해 약속한 신규 서비스와 애플리케이션을 제공하기 위해 네트워크를 혁신하기 위한 인프라에 많은 투자를 했습니다. AI를 사용해 네트워크의 효율성을 강화하거나 유지 관리 비용을 이러한 낮추면 비용 증가가 미치는 영향을 완화할 수 있습니다.
- 경쟁력. 경쟁업체의 서비스가 확장되면서 고객 기대치가 높아짐에 따라 경쟁이 더욱 치열해지고 있습니다. 서비스 챗봇이나 더욱 효율적으로 관리되는 네트워크 트래픽 등 AI로 인해 강화된 신규 서비스를 제공하면 경쟁 통신사에 필적하거나 그보다 앞서는 데 도움이 됩니다.
- 네트워크 관리 및 복잡성. 트래픽 증가에 따라 글로벌 네트워크 복잡성이 증가하면서 이를 관리할 리소스가 더 많이 필요하게 되었습니다.
- 데이터 처리 능력의 부족. 고객 풀을 통해 여러 유용한 데이터가 많이 생성됩니다. 그러나 이러한 데이터를 분석하여 더 효율적이고 효과적으로 고객에게 서비스를 제공할 수 있는 리소스가 부족한 통신사가 많습니다.
AI/ML을 적용하면 통신 산업의 이러한 과제를 해결할 수 있습니다. 다음은 몇 가지 활용 사례입니다.
- 네트워크 최적화. AI는 네트워크 트래픽을 분석하여 트래픽 정체를 예측하고 트래픽을 리라우팅하여 속도 저하를 방지하는 데 도움이 됩니다. 이를 통해 더 나은 고객 경험을 제공하고 불필요한 비용을 방지할 수 있습니다.
- 네트워크 보증 및 예측적 유지 관리. AI는 과거 데이터를 분석하여 네트워크 및 네트워크 인프라의 영역에 장애가 발생할 가능성이 높은 시점을 예측할 수 있습니다. 그 결과 유지 관리를 사전 예방적으로 계획할 시간을 충분히 확보하고, 이를 통해 비용도 절약할 수 있습니다.
- 네트워크 효율성. 고품질 음성 및 동영상에 예측 AI를 적용하면 네트워크 트래픽 사용량을 줄일 수 있습니다. 예를 들어, FEC(Forward Erasure Correction) 또는 ECC(Erasure Correcting Code)를 사용하면 수리 패킷을 미리 생성하여 패킷 손실의 영향으로부터 데이터를 보호할 수 있습니다. 이러한 패킷은 손실된 데이터를 재생성하는 데 사용할 수 있습니다.
- 서비스 챗봇. AI 모델은 챗봇을 사용해 일반적인 문제를 해결함으로써 고객 서비스 요청 속도를 높여주므로, 직원이 에스컬레이션이나 기타 문제를 처리할 수 있는 시간을 확보할 수 있습니다.
Red Hat 리소스
통신 산업의 AI 도입 장애 요소
AI를 활용해 통신 비즈니스의 과제를 해결할 수 있다는 사실에도 불구하고, AI 기술 도입이 어려운 경우가 많습니다. 고객의 망설임, 개인정보 보호에 대한 우려, 높은 비용 등과 같은 장벽이 실제 만연해 있으며, 이는 산업의 신속한 발전을 저해합니다.
AI에 대한 불신
고객은 챗봇보다 직원과 상호작용하는 것을 선호하여 AI 솔루션 사용을 주저할 수 있습니다. 이러한 현상은 서비스 문제를 다루는 시나리오에서 특히 두드러집니다. 새로운 것에 대한 두려움이나 익숙한 레거시 시스템의 편안함 등 여러 이유에서 비롯된 고객의 망설임은 AI로의 완전한 이전을 가로막을 수 있습니다.
데이터 품질
데이터 품질은 예측적 유지 관리나 서비스 자동화와 같은 데이터 집약적인 AI 애플리케이션의 성공을 위해 매우 중요합니다. 이러한 애플리케이션의 효율성은 애플리케이션이 처리하는 데이터의 품질에 따라 달라집니다. 예를 들어, 데이터 품질이 낮을 경우 AI 모델은 유지 관리의 필요성을 정확하게 예측하지 못할 수 있습니다. 따라서 하이브리드 클라우드 환경 전반에서 AI 지원 애플리케이션을 규모에 맞게 생성하고 제공하는 데 도움이 되는 플랫폼을 구현하여 모델에 제공되는 데이터의 정확성과 적합성을 보장하는 것이 필수적입니다.
기존 인프라와의 호환성
통신사는 AI 서비스를 5G 네트워크 및 레거시 시스템과 통합해야 합니다. 그러려면 현대적인 네트워크와 기존 네트워크를 모두 지원하고 AI 워크로드를 처리할 수 있는 통합 플랫폼이 필요합니다.
개인정보 보호에 대한 우려
AI 모델링에서는 고객 개인정보 보호가 필수적입니다. 통신사는 데이터가 공급되는 위치, 데이터에 액세스할 수 있는 항목, 노출에 취약한 데이터를 파악할 수 있도록 신뢰할 수 있는 AI 툴의 에코시스템과 통합되는 AI 플랫폼이 필요합니다. 이는 클라우드 환경에 관계없이 종합적인 운영, 관측성 및 보안을 구현하는 일관되고 신뢰할 수 있는 AI 워크로드용 플랫폼을 통해 실현할 수 있습니다.
비용
네트워크의 규모와 복잡성을 고려할 때 AI를 통신 서비스에 통합하는 비용은 상당합니다. 따라서 각 AI 활용 사례에 대한 잠재적인 ROI(투자 수익률)를 신중하게 평가하여 초기 지출을 정당화해야 합니다.
인재 확보
숙련된 전문 인력을 고용하는 것이 중요합니다. 통신은 전문 분야입니다. 따라서 AI 전문 인력은 데이터 사이언스 기술 역량과 더불어 대규모 네트워크 시스템의 복잡성을 다룬 경험이 있어야 합니다. 이러한 두 가지 전문성을 동시에 갖추는 것은 업계에서 AI 기술을 효과적으로 구현하고 관리하기 위해 반드시 필요한 요소입니다.
AI를 더 빠르게 확장하는 방법
AI 워크로드를 규모에 맞게 성공적으로 배포하려면 여러 연계 요소들이 얼마나 효율적이고 효과적으로 연동하는지가 관건입니다. 특히 대규모 AI 모델(예: LLM)을 지원할 수 있는 추론 서버와 그 서버의 복잡한 추론 기능은 기업의 AI 워크로드를 확장하는 데 필수적입니다.
이러한 AI 툴은 엔지니어가 리소스를 더 효율적으로 사용하여 다음을 확장하는 데 도움이 됩니다.
- llm-d: LLM 프롬프트는 복잡하고 비균일합니다. 일반적으로 대량의 데이터를 처리하려면 방대한 컴퓨팅 리소스와 스토리지가 필요합니다. 개발자는 llm-d와 같은 오픈소스 AI 프레임워크를 통해 분산 추론과 같은 기술을 사용하여 LLM과 같이 정교하고 규모가 큰 추론 모델에 대해 증가한 수요를 충족할 수 있습니다.
- 분산 추론: 분산 추론은 추론 작업을 상호 연결된 일련의 기기에 분배하여 AI 모델이 더 효율적으로 워크로드를 처리할 수 있도록 하는 것을 말합니다. '백지장도 맞들면 낫다'라는 속담을 소프트웨어 분야에 적용한 것과 같습니다.
- vLLM: 가상 대규모 언어 모델(Virtual Large Language Model)을 의미하며, vLLM 커뮤니티에 의해 유지 관리되는 오픈소스 코드 라이브러리입니다. vLLM은 대규모 언어 모델(Large Language Model, LLM)이 계산을 더욱 효율적이고 대규모로 수행할 수 있도록 돕습니다.
AI를 위해 Red Hat을 선택하는 이유
Red Hat AI는 AI 여정의 초기 단계에 있는 기업이든, 확장할 준비까지 마친 기업이든 상관없이 AI 여정에 오른 기업이라면 모두 도울 수 있는 제품 및 서비스 플랫폼입니다. 고유한 엔터프라이즈 활용 사례에 대한 생성형 AI와 예측 AI를 둘 다 지원할 수 있습니다.
Red Hat AI를 통해 Red Hat® AI Inference Server를 사용하여 하이브리드 클라우드 전반에서 모델 추론을 최적화함으로써 더 신속하고 비용 효율적으로 배포할 수 있습니다. vLLM 기반의 추론 서버는 GPU 활용도를 극대화하고 응답 시간을 단축합니다.
Red Hat AI Inference Server에는 모델 유연성을 허용하고 팀 간 일관성을 촉진하는, 제3자를 통해 검증되고 최적화된 모델 컬렉션인 Red Hat AI 리포지토리가 포함되어 있습니다. 기업은 제3자 모델 리포지토리에 액세스하여 시장 출시 시간을 단축하고 AI를 성공적으로 활용하는 데 드는 경제적 부담을 줄일 수 있습니다.
레드햇 공식 블로그
레드햇 공식 블로그에서 고객, 파트너, 커뮤니티 에코시스템 등 현재 화제가 되는 최신 정보를 살펴 보세요.