생성형 AI란?
생성형 AI는 딥러닝 모델을 사용하여 새로운 콘텐츠를 생성하는 일종의 인공지능 기술입니다.
생성형 AI 애플리케이션은 문서, 이미지, 코드 등을 만들 수 있습니다. 이는 AI의 운영 단계인 AI 추론 단계에서 이뤄지는 것으로, 이 단계에서 모델은 학습한 내용을 실제 상황에 적용할 수 있습니다. 생성형 AI의 일반적인 활용 사례로는 챗봇, 이미지 생성과 편집, 소프트웨어 코드 지원, 과학 연구 등이 있습니다.
사람들은 전문적인 환경에서 생성형 AI를 사용하여 독창적인 아이디어를 빠르게 시각화하고, 지루하고 시간이 많이 소요되는 작업을 효율적으로 처리하고 있습니다. 의료 연구 및 제품 설계와 같은 영역에서 생성형 AI를 활용하면 전문가가 작업을 훨씬 빠르고 효율적으로 수행하는 데 도움이 될 수 있습니다. 그러나 생성형 AI로 인한 새로운 리스크도 생기는 만큼 사용자가 이를 이해하고 완화하기 위해 노력해야 합니다.
생성형 AI의 작동 방식
ChatGPT와 놀랍도록 논리 정연한 대화를 경험했거나 사용자의 설명을 바탕으로 Midjourney가 진짜 같은 그림을 그리는 것을 보았다면, 생성형 AI가 마법처럼 느껴질 수 있습니다. 이러한 마법의 비결은 무엇일까요?
AI 애플리케이션을 사용할 때 딥러닝 모델은 방대한 양의 훈련 데이터에서 학습한 패턴을 재생성합니다. 그런 다음 인간이 구성한 매개 변수 내에서 지금까지 학습한 내용을 바탕으로 새로운 것을 만들어 냅니다.
딥러닝 모델은 학습 데이터의 복사본이 아니라 유사한 데이터 포인트가 가깝게 배열된 인코딩된 버전을 저장합니다. 그런 다음 이 표현은 디코딩되어 유사한 특징을 가진 새로운 원본 데이터를 구성합니다.
사용자 정의 생성형 AI 애플리케이션을 빌드하려면 모델뿐만 아니라 인간이 감독하는 미세 조정 또는 활용 사례별 데이터 레이어와 같은 조정이 필요합니다.
오늘날 널리 사용되는 생성형 AI 애플리케이션은 대부분 사용자 프롬프트에 응답합니다. 원하는 것을 자연어로 설명하면 생성형 AI 애플리케이션이 마치 마법처럼 요청한 것을 출력합니다.
Red Hat 리소스
생성형 AI의 활용 사례로는 무엇이 있나요?
글쓰기와 이미지 영역에서 생성형 AI의 획기적인 발전은 뉴스 헤드라인을 장식하고 사람들의 상상력을 사로잡았습니다. 다음은 빠르게 발전하는 생성형 AI 기술의 몇 가지 초기 활용 사례입니다.
글쓰기. ChatGPT가 헤드라인을 장식하고 스스로 글을 쓰기 시작하기도 전에 생성형 AI 시스템은 이미 인간의 글쓰기를 모방하는 솜씨가 훌륭했습니다. 언어 번역 툴은 생성형 AI 모델의 첫 활용 사례들 중 하나였습니다. 오늘날의 생성형 AI 툴은 실질적으로 모든 주제에 대한 고품질 콘텐츠 생성 프롬프트에 응답할 수 있습니다. 이러한 툴은 다양한 길이와 문체로 글을 쓸 수도 있습니다.
이미지 생성. 생성형 AI 이미지 툴은 프롬프트에 대한 응답으로 고품질 사진들을 합성하여 무수히 많은 피사체와 스타일을 생성할 수 있습니다. Adobe Photoshop의 Generative Fill과 같은 일부 AI 툴은 기존 작품에 새로운 요소를 추가할 수 있습니다.
음성 및 음악 생성. 작성된 텍스트와 사람 목소리의 샘플 오디오를 사용하여 AI 보컬 툴은 실제 사람의 소리를 모방하는 내레이션이나 노래를 만들 수 있습니다. 프롬프트나 샘플에서 인공지능으로 음악을 창작하는 다른 툴도 있습니다.
동영상 생성. 새로운 서비스들이 모션 그래픽을 만들기 위해 다양한 생성형 AI 기술을 실험하고 있습니다. 예를 들어, 일부 서비스는 오디오를 스틸 이미지와 매칭하고 피사체의 입과 얼굴 표정을 말하는 것처럼 보이게 만들 수 있습니다.
코드 생성 및 완성. 일부 생성형 AI 툴은 소프트웨어 개발자를 지원하기 위해 요청 시 작성된 프롬프트를 가져와 컴퓨터 코드를 출력할 수 있습니다.
데이터 증강. 생성형 AI는 실제 데이터를 사용하는 것이 불가능하거나 바람직하지 않을 때 대량의 합성 데이터를 생성할 수 있습니다. 예를 들어, 개인 식별 정보를 포함하지 않고 보건 의료 데이터를 이해하도록 모델을 학습시키려는 경우 합성 데이터가 유용할 수 있습니다. 또한 학습이나 테스트를 목적으로 소규모이거나 불완전한 데이터 세트를 대규모의 합성 데이터 세트로 확장할 때도 합성 데이터를 사용할 수 있습니다.
에이전틱 AI. 에이전틱(Agentic) AI와 생성형 AI는 서로 협업합니다. 에이전틱 AI 시스템은 생성형 AI를 사용하여 사용자와 대화하거나, 더 큰 목표의 일환으로 독립적으로 콘텐츠를 생성하거나, 외부 툴과 소통할 수 있습니다. 즉, 생성형 AI는 에이전틱(Agentic) AI의 '인지 프로세스'에서 매우 중요한 일부분입니다.
딥러닝이란?
생성형 AI의 기반이 되는 딥러닝은 대량의 데이터를 분석하고 해석하기 위한 머신 러닝 기술입니다. 딥 뉴럴 러닝 또는 딥 뉴럴 네트워킹이라고도 하는 이 프로세스는 컴퓨터가 인간이 지식을 얻는 방식을 모방하여 관찰을 통해 학습하도록 가르칩니다. 딥러닝은 인간 언어를 컴퓨터에 이해시키는 기술, 즉 자연어 처리(NLP)에 있어 중요한 개념입니다.
딥러닝을 입력 레이어에서 시작하여 출력 레이어로 끝나는 흐름도의 한 유형으로 생각하면 도움이 될 수 있습니다. 이 두 레이어 사이에는 다양한 수준의 정보를 처리하고 새로운 데이터를 지속적으로 수신할 때 동작을 조정하는 '숨겨진 레이어'가 있습니다. 딥러닝 모델에는 수백 개의 숨겨진 레이어가 있을 수 있으며, 각 레이어는 데이터세트 내의 관계와 패턴을 발견하는 데 관여합니다.
여러 노드로 구성된 입력 레이어에서부터 시작하여 데이터는 모델에 도입되고 적절히 분류된 후에 다음 레이어로 이동합니다. 데이터가 각 레이어를 통과하는 경로는 각 노드에 설정된 계산을 기반으로 합니다. 결국 데이터는 각 레이어를 통과하면서 관측치를 수집하여 그 과정에서 궁극적으로 데이터의 출력 또는 최종 분석을 생성합니다.
딥러닝의 발전 속도를 가속화한 기술이 그래픽 처리 장치(GPU)입니다. GPU는 원래 비디오 게임 그래픽의 렌더링을 가속화하기 위해 설계되었습니다. 그러나 병렬식 계산을 수행하는 효율적인 방법으로서 GPU는 딥러닝 워크로드에 매우 적합한 기술로 입증되었습니다.
딥러닝 모델의 크기와 속도의 획기적 발전은 현재의 획기적인 생성형 AI 애플리케이션의 물결로 직접 이어졌습니다.
신경망이란?
신경망은 우리 뇌의 연결과 같은 생물학적 신경계를 모방한 정보 처리 방식입니다. AI가 겉보기에는 관련성이 없는 정보 세트들 간에 연결 관계를 생성할 수 있는 것은 바로 이 신경망이 있기 때문입니다. 신경망의 개념은 딥러닝과 밀접한 관련이 있습니다.
딥러닝 모델은 신경망 개념을 사용하여 어떻게 데이터 포인트들을 연결할까요? 인간의 뇌가 작동하는 방법부터 살펴보겠습니다. 인간의 뇌는 상호 연결된 많은 뉴런을 포함하고 있으며 이러한 뉴런은 뇌가 수신하는 데이터를 처리할 때 정보 전달자 역할을 합니다. 이 뉴런들은 서로 통신하고 뇌의 다른 영역 간에 정보를 전달하기 위해 전기 자극과 화학 신호를 사용합니다.
인공 신경망(ANN)은 이러한 생물학적 현상을 기반으로 하지만, 노드라고 하는 소프트웨어 모듈로 만들어진 인공 뉴런에 의해 형성됩니다. 이러한 노드는 (뇌의 화학 신호 대신) 수학적 계산을 사용하여 정보를 전달하고 전송합니다. 이 시뮬레이션 신경망(SNN)은 데이터 포인트를 클러스터링하고 예측하여 데이터를 처리합니다.
다양한 신경망 기술은 여러 종류의 데이터에 적합합니다. 순환 신경망(RNN)은 언어를 처리하기 위한 방법으로 단어를 순차적으로 학습하는 것과 같이 순차 데이터를 사용하는 모델입니다.
RNN에 착안한 트랜스포머(transformer)는 언어를 더 빠르게 처리할 수 있는 특수한 종류의 신경망 아키텍처입니다. 트랜스포머는 문장에서 단어들의 관계를 학습합니다. 이는 각 단어를 순차적으로 수집하는 RNN보다 더 효율적인 프로세스입니다.
대규모 언어 모델(LLM)은 트랜스포머를 일반화된 대규모 데이터 세트에 적용하여 학습한 딥러닝 모델입니다. LLM은 널리 사용되는 여러 AI 채팅 툴과 텍스트 툴을 지원합니다.
또 다른 딥러닝 기술인 확산 모델은 이미지 생성에 적합하다는 것이 입증되었습니다. 확산 모델은 자연 이미지를 흐릿한 시각적 노이즈로 전환하는 프로세스를 학습합니다. 그런 다음 생성형 이미지 툴이 프로세스를 이어받아 반전시켜 임의의 노이즈 패턴부터 시작해 실제 사진과 유사해질 때까지 조정합니다.
딥러닝 모델은 매개 변수로 표현됩니다. 대출 신청서에 있는 10개의 입력값을 토대로 훈련된 간단한 신용 예측 모델의 경우 매개 변수가 10개가 될 것입니다. 이와 달리 LLM의 매개 변수는 수십억 개에 달할 수 있습니다. ChatGPT의 기반 모델 중 하나인 OpenAI의 GPT-4(Generative Pre-trained Transformer 4)는 1조 개의 매개 변수를 가지고 있다고 보고된 바 있습니다.
파운데이션 모델이란?
파운데이션 모델은 대량의 일반 데이터를 기반으로 학습한 딥러닝 모델입니다. 훈련이 완료된 후에는 모델을 개선해 전문화된 활용 사례를 만들 수 있습니다. 이름에서 알 수 있듯이, 이러한 모델은 여러 다양한 애플리케이션의 기반을 형성할 수 있습니다.
오늘날 새로운 기반 모델을 만드는 것은 규모가 상당한 프로젝트입니다. 일반적으로 인터넷, 디지털 도서관, 학술 자료 데이터베이스, 스톡 이미지 컬렉션 또는 기타 대규모 데이터 세트에서 수집되는 막대한 양의 학습 데이터가 필요한 프로세스이기 때문입니다. 이 정도의 데이터를 기반으로 모델을 훈련하려면 GPU의 클라우드를 구축하거나 임대하는 등 막대한 인프라가 필요합니다. 현재까지 최대 규모의 기반 모델의 경우 구축 비용이 수억 달러에 이른다고 알려져 있습니다.
처음부터 새로 기반 모델을 훈련하는 데는 많은 노력이 필요하기 때문에 제3사가 훈련한 모델에 사용자 정의를 적용하는 것이 일반적입니다. 기반 모델을 사용자 정의하는 기술에는 여러 가지가 있습니다. 여기에는 미세 조정(fine-tuning), 프롬프트 튜닝(prompt-tuning), 그리고 고객별 또는 도메인별 데이터 추가가 포함될 수 있습니다. 예를 들어 IBM의 Granite 제품군 파운데이션 모델은 엄선된 데이터를 기반으로 학습한 다음, 학습에 사용되는 데이터에 대한 투명성을 제공합니다.
미세 조정(fine-tuning)의 정의
미세 조정은 사전 학습된 모델이 고유한 태스크를 더 효과적으로 수행할 수 있도록 더욱 구체적인 데이터세트를 사용해 학습시키는 프로세스입니다. 이 추가 학습 데이터는 모델의 매개 변수를 수정하고 원래 모델을 대체하는 새로운 버전을 생성합니다.
일반적으로 초기 학습에 비해 미세 조정에 필요한 데이터와 시간이 훨씬 적습니다. 하지만 기존 미세 조정 방식은 컴퓨팅 집약적이라는 단점이 있습니다.
매개 변수 효율적인 미세 조정(PEFT)은 리소스를 절약하기 위해 LLM 내에서 일부 매개 변수만 조정하는 기술입니다. 기존 미세 조정 기술이 진화하여 PEFT가 된 것입니다.
낮은 순위 적응(Low-Rank Adaptation, LoRA)와 양자화된 낮은 순위 적응(Quantized Low-Rank Adaptation, QLoRA) 은 둘 다 AI 학습에 사용되는 PEFT 기법입니다. LoRA와 QLoRA는 둘 다 LLM을 더욱 효율적으로 미세 조정하는 데 도움이 되지만, 원하는 결과에 도달하기 위해 모델을 조작하고 스토리지를 사용하는 방식은 서로 다릅니다.
검색 증강 생성(RAG)이란?
검색 증강 생성(RAG, Retrieval-Augmented Generation)은 대규모 언어 모델(LLM)을 외부 리소스에 연결하여 생성형 AI 애플리케이션으로부터 더 나은 답변을 얻는 방법입니다.
RAG 아키텍처를 LLM 기반의 질문-답변 시스템(예: 챗봇)에 구현하여 LLM과 선택한 추가 지식 소스 간의 커뮤니케이션 라인을 제공합니다. 이로 인해 LLM은 상호 참조하고 외부 지식을 보완할 수 있으므로 사용자 쿼리에 더 신뢰할 수 있고 정확한 출력을 제공합니다.
속도, 확장성, 비용 절감
생성형 AI 모델이 정교해짐에 따라 그 스케일도 커지고 있습니다. 어떤 LLM은 수천억 개의 매개 변수를 가질 수 있습니다. 매개 변수는 LLM이 언어를 이해하는 데 필수적이며, 매개 변수가 많은 모델일수록 더 복잡한 태스크를 더욱 정확하게 수행할 수 있습니다. 그러나 매개 변수가 많을수록 더 많은 처리 능력이 필요합니다.
비싼 GPU를 추가하는 대신 vLLM 및 llm-d 와 같은 기술을 사용하면 기존 하드웨어에서 처리 효율성을 더 높일 수 있습니다.
- vLLM은 GPU 메모리를 더욱 효율적으로 활용하여 생성형 AI 애플리케이션의 출력을 가속화하는 추론 서버입니다.
- llm-d는 규모에 맞는 분산형 추론을 가속화하는 쿠버네티스 네이티브 오픈소스 프레임워크입니다. 둘 다 성능이 최적화된 대규모 생성형 AI 모델을 제공하기 위해 설계되었습니다.
생성형 AI의 리스크는 무엇이 있을까요?
단기간에 큰 발전을 이룬 생성형 AI 기술은 긍정적, 부정적으로 모두 큰 반향을 일으켰습니다. 생성형 AI 기술의 장단점은 여전히 밝혀지는 중입니다. 지금부터는 생성형 AI에 관한 주요 우려 사항을 간단하게 살펴보겠습니다.
위험 초래. 악의적인 사용자가 소셜 미디어의 대규모 허위 정보 캠페인 또는 실제 인물을 겨냥한 무단 딥페이크 이미지와 같이 악의적인 목적에 생성형 AI 툴을 사용하는 경우처럼 즉각적이고 분명한 위험이 존재합니다.
유해한 사회적 편향 강화. 생성형 AI 툴은 위험한 고정 관념과 혐오 발언 등 학습 데이터에 존재하는 인간의 편향을 반복하는 것으로 나타났습니다.
잘못된 정보 공급. 생성형 AI 툴은 명백히 잘못된 가짜 정보와 장면을 생산할 수 있으며, 이를 '환각'이라고도 합니다. 생성된 콘텐츠의 오류 중에는 채팅 질문에 대한 무의미한 답변이나 손가락이 너무 많이 달린 사람 손 이미지처럼 무해한 것들도 있습니다. 그렇지만 섭식 장애에 관한 질문에 위험한 조언을 제공한 챗봇처럼 AI의 실수가 심각한 문제를 초래한 사례가 있습니다.
보안 리스크와 법적 위험. 생성형 AI 시스템은 보안 리스크를 초래할 수 있습니다. 보안 설계가 적용되지 않은 애플리케이션에 사용자가 민감한 정보를 입력하는 경우가 그에 해당합니다. 생성형 AI의 응답은 저작권 보호 콘텐츠를 재생산하거나 실제 사람의 음성이나 신원을 동의 없이 도용하여 법적 위험을 초래할 수 있습니다. 또한 일부 생성형 AI 툴은 사용이 제한적일 수 있습니다.
설명 불가한 출력. 때로는 AI 모델이 너무 복잡해서 사람이 이해하거나 해석할 수 없는 경우가 있는데, 이를 블랙박스 모델이라고 합니다. 블랙박스 모델은 의료, 운송, 보안, 군사, 법률, 항공우주, 사법 제도, 금융 등의 리스크 높은 산업에서 고위험 의사 결정에 사용되는 경우 폐해를 초래할 수 있습니다. 이 문제를 해결하기 위해 설명 가능한 AI(XAI) 기술을 머신 러닝 라이프사이클 전반에 적용하면 더 투명하고 사람이 이해할 수 있는 출력을 뽑아낼 수 있습니다.
Red Hat의 지원 방식
Red Hat AI는 AI 여정의 초기 단계에 있는 기업이든, 확장할 준비까지 마친 기업이든 상관없이 AI 여정에 오른 기업이라면 모두 도울 수 있는 제품 및 서비스 플랫폼입니다. 고유한 엔터프라이즈 활용 사례에 대한 생성형 AI와 예측 AI를 둘 다 지원할 수 있습니다.
Red Hat AI를 통해 Red Hat® AI Inference Server를 사용하여 하이브리드 클라우드 전반에서 모델 추론을 최적화함으로써 더 신속하고 비용 효율적으로 배포할 수 있습니다. vLLM 기반의 추론 서버는 GPU 활용도를 극대화하고 응답 시간을 향상합니다.
Red Hat AI Inference Server에는 모델 유연성을 허용하고 팀 간 일관성을 촉진하는, 제3자를 통해 검증되고 최적화된 모델 컬렉션인 Red Hat AI 리포지토리가 포함되어 있습니다. 기업은 서드 파티 모델 리포지토리에 액세스하여 시장 출시 시간을 단축하고 AI를 성공적으로 활용하는 데 드는 경제적 부담을 줄일 수 있습니다.
레드햇 공식 블로그
레드햇 공식 블로그에서 고객, 파트너, 커뮤니티 에코시스템 등 현재 화제가 되는 최신 정보를 살펴 보세요.