AI 보안이란?
AI 보안은 워크로드를 취약하게 만들거나, 데이터를 변조하거나, 민감한 정보를 탈취하는 것을 목적으로 하는 악의적인 공격으로부터 AI 애플리케이션을 방어합니다. 여기에는 AI 라이프사이클 및 기술 에코시스템을 위한 기밀성, 무결성, 가용성의 원칙이 적용됩니다.
AI 보안의 작동 방식
AI 워크로드는 기존 IT 보안에서 다루지 않는 새로운 과제의 등장을 의미합니다. 따라서 AI 보안은 AI 워크로드를 오용 및 조작으로부터 보호하는 데 중점을 두고 있습니다. 이는 사이버 보안에 AI를 활용하는 것(전자 데이터를 범죄에 악용하거나 무단 사용하는 것으로부터 보호)이나 AI 안전(AI 사용으로 인한 유해한 결과 방지)과는 다릅니다.
AI 보안은 취약점을 식별하고 AI 시스템의 무결성을 지원하여 그러한 시스템이 중단 없이 원래 의도대로 실행될 수 있도록 하는 것입니다. 여기에는 학습 데이터의 무결성을 지키고, 모델 출처를 검증하고, 플랫폼 내 그래픽 처리 장치(GPU)를 격리하는 것이 포함됩니다. (대부분의 GPU는 보안이나 격리를 고려하여 설계되지 않았기 때문에 공격 대상이 되기 쉽습니다.)
AI 워크로드의 등장으로 인한 새로운 공격 표면을 보호하려면 기존의 보안 태세를 광범위하게 업그레이드해야 합니다. 이 빠르게 변화하는 환경에서는 그에 대응하기 위한 새로운 지침이 계속 제시되므로 유연한 접근 방식을 통해 AI 워크로드와 해당 워크로드가 실행되는 시스템을 효과적으로 보호할 수 있습니다.
AI 시스템을 보호하려면 시스템에 대한 총체적 이해가 필요합니다. AI 기술에 대한 이해도가 높을수록 더 안전하게 보호할 수 있습니다.
쉽게 설명하자면, 일반적인 AI 구성은 집과 같습니다. 집에는 문, 창문 등 몇 가지 취약점이 있지만, 단단히 잠그고 틈새를 메울 수 있습니다. 한편 AI 솔루션은 수십 개의 층과 은하계에 걸쳐 수많은 입구를 갖춘, 다른 행성에 있는 아파트 건물에 비유할 수 있습니다. 미처 고려하지 못한 많은 공격 지점이 존재하죠.
AI 솔루션은 유용한 툴이면서도 보안에 취약해서 사용자와 공격자 둘 다에게 다양한 기회를 제공합니다. 기존 소프트웨어의 보안 문제를 고려할 때, AI의 복잡성은 현재 프로세스와 함께 작동할 수 있는 전문적인 보안 전략을 필요로 합니다.
효과적인 AI 보안 전략은 틈새를 메우고 적극적인 예방을 통해 침투의 여지를 차단하여 모든 허점을 안전하게 보호합니다. 민감한 데이터의 노출 및 유출을 방지할 뿐만 아니라 공격으로부터 보호하고, 명시적인 보안 정책 및 규제 프레임워크(예: EU 인공지능법)를 준수하도록 보장하고, AI 시스템 보안 태세에 대한 가시성과 확신을 제공합니다.
AI 기술 구현의 4가지 핵심 고려 사항
AI 보안 공격의 예시
AI를 활용하는 공격자의 솜씨가 더욱 영리해짐에 따라 그 수법도 발전하고 있습니다. AI 보안 공격은 다양하지만, 특히 흔한 공격 유형이 있습니다. 일반적으로 발생하는 공격 유형은 다음과 같습니다.
- 프롬프트 주입 공격. AI 공격자는 악성 프롬프트로 AI 출력을 조작하여 민감한 데이터를 노출하거나 의도치 않은 작업을 실행하거나 암묵적, 명시적 보안 정책 및 제어 조치를 우회하도록 합니다.
- 데이터 포이즈닝. 공격자는 악성 데이터 또는 맬웨어를 주입하여 AI 모델을 조작함으로써 부정확하거나 편향되거나 유해한 출력을 생성합니다. 이는 운영 중단을 초래하고 부적절한 결과를 낳을 수 있습니다.
AI 시스템은 악의적인 공격과 운영상의 장애라는 두 가지 위험에 직면해 있습니다. 모든 배포된 시스템과 마찬가지로, AI 모델도 적절하게 관리하지 않을 경우 제대로 기능하지 못하고 성능이 저하될 수 있습니다. 모델이 낮은 품질의 데이터를 기반으로 학습하거나 지속적으로 업데이트되지 않으면 데이터가 부정확해지고 오래되고 심지어 유해하게 변해 성능이 떨어지고 부정확해질 수 있습니다.
AI 보안 위협을 감지하는 방법
팀과 기술을 보호하려면 다층적인 전략을 수립하세요. 하나의 방어선으로는 공격을 차단할 수 없습니다. 일반적인 전략에는 다음이 포함됩니다.
- 동작 분석. 동작 분석이라는 위협 감지를 통해 네트워크 내에서 이상 징후와 편차를 포착할 수 있습니다. 동작 분석은 일반적인 데이터 세트, 패턴, 활동을 추적하여 AI 시스템의 일반적인 동작을 학습합니다. 이를 바탕으로, 편향된 콘텐츠를 감지하거나 평문 형식으로 비밀번호를 공개하는 등 비정상적인 동작을 감지하면 경고를 트리거합니다.
- 런타임 위협 감지. 공격자가 보안 취약점을 찾기 위해 환경을 탐색하는 경우 기존 런타임 보안이 반복적인 탐색 행위를 감지하고 경고를 울릴 수 있습니다. AI로 이 기술을 자동화하고 향상하여 더 신속하게 위협을 인식하고 경고를 트리거할 수 있습니다.
- 예측 위협 인텔리전스. 이 기술은 과거 데이터를 참조하여 다음에 일어날 일을 예측함으로써 미래 이벤트를 예상합니다. 예를 들어 공격자가 랜섬웨어로 핀테크 시스템을 공격하려고 하는 경우 예측 위협 인텔리전스는 그러한 공격의 성공 가능성과 조직의 보안 태세를 비교 평가합니다.
- 향상된 데이터 처리. AI 워크로드에는 데이터 포인트가 수십 억 개에 달하는 대량의 데이터가 포함되어 있습니다. AI 보안은 그러한 데이터를 처리하여 위험한 데이터, 기밀 데이터, 사용 가능한 데이터로 분류해야 합니다. 향상된 데이터 처리는 사람 또는 기존 처리 기술보다 더 빠른 속도로 환경에서 이상 징후와 위협을 감지할 수 있으므로 팀이 더 빠르게 대처할 수 있도록 합니다.
- 공격 경로 분석. 이 전략을 통해 잠재적인 취약점과 보안 위협 기회를 도표화할 수 있습니다. 예를 들어 특정 위협이 시스템 내부에 침투하여 민감한 데이터에 도달하는 방식을 이해한다면 공격의 경로를 파악하여 효과적으로 차단할 수 있습니다.
AI 보안 모범 사례
AI 라이프사이클의 모든 단계에는 보호받아야 할 취약점이 존재합니다. AI 모델, 데이터, 개인 정보를 효과적으로 보호할 수 있는 강력한 AI 보안 전략의 요소는 다음과 같습니다.
- AI 가드레일: 가드레일을 통해 생성형 AI 모델이 혐오 발언이나 공격적인 표현, 욕설, 개인 식별 정보, 영업 기밀 정보 또는 도메인별 제약 조건을 필터링하도록 할 수 있습니다.
- 보호되는 학습 데이터: AI 시스템의 신뢰도는 대부분 학습에 사용된 데이터의 신뢰도에 따라 결정됩니다. 모델의 무결성과 출력을 보호하기 위해서는 방화벽 또는 기타 보안 조치를 통해 원본 학습 데이터를 변조나 조작으로부터 보호해야 합니다.
- 강력한 플랫폼 보안: AI 워크로드가 실행되는 플랫폼을 보호하여 건전성과 신뢰성을 유지하도록 합니다. 플랫폼을 안전하게 보호한다면 공격자가 위해를 끼치기가 그만큼 더 어려워질 것입니다.
- 공급망 및 시스템 보안: AI 워크로드를 보호하기 위해 공급망 및 시스템 보안에 기존의 모범 사례를 적용할 수 있습니다. 기존 소프트웨어 공급망 보안이 오픈소스 라이브러리의 무결성을 검증하는 것과 마찬가지로, AI 공급망 보안은 학습 데이터, 사전 학습된 모델, 서드 파티 AI 구성 요소의 출처와 무결성을 보장할 수 있습니다.
- 맞춤형 전략: AI 워크로드는 고유하기 때문에 범용 솔루션을 사용하기에는 적합하지 않습니다. 개별 AI 워크로드, 설계, 데이터를 고려하여 맞춤화된 보안 전략을 수립해야 합니다.
AI 보안 툴 및 솔루션
AI 시스템을 보호하는 다음과 같은 일반적인 툴과 솔루션으로 이러한 모범 사례를 구현할 수 있습니다.
- Identity 및 액세스 관리: 이러한 시스템은 AI 시스템 및 인프라에 대한 액세스 권한이 있는 사용자와 액세스 방식 및 시점을 제어합니다. 민감한 데이터를 보호하기 위해 다중 인증을 사용하는 것이 그 예입니다.
- AI 보안 태세 관리: 이러한 툴은 보안 배포와 운영을 모니터링합니다. 모델 및 데이터에 대한 가시성과 인사이트를 제공하여 AI 시스템에 대한 지속적 감시를 지원합니다.
- 출력 검증 프로세스: 오염되거나 검증되지 않은 출력은 다운스트림 시스템에서 문제를 발생시킬 수 있으며, 더 나아가 민감한 데이터를 노출할 수도 있습니다. 이 프로세스는 추가 작업을 위해 모델의 출력을 다운스트림으로 전송하기 전에 다시 한번 점검합니다.
AI 보안의 이점
AI 보안은 근심을 덜어주는 것을 포함해 엔터프라이즈 AI 전략에 광범위한 이점을 제공합니다. AI 워크로드가 원활하게 실행되도록 돕든 팀이 중요한 일에 집중할 수 있도록 하든, AI 보안은 AI 전략이 더 큰 효과를 발휘할 수 있도록 합니다. 몇 가지 이점을 살펴보면 다음과 같습니다.
- 노출 및 위험 감소. AI 보안은 데이터 손상을 방지하여 민감한 데이터와 개인 데이터가 악의적인 공격자의 손에 들어가는 것을 막을 수 있습니다. 공격이 실제로 피해를 입히기 전에 중단된다면 사용자와 AI 시스템이 원활하게 작업할 수 있습니다.
- 시간 및 비용 절감. 민감한 데이터의 노출이 줄어들면 운영 중단의 위험을 줄이고 더 원활한 운영을 보장할 수 있습니다. 공격을 무력화하거나 차단함으로써 다운타임을 줄이고 혁신에 더 많은 시간을 할애할 수 있습니다.
- 개선된 위협 인텔리전스. AI 보안은 잠재적인 위협에 대응하면서 일반적인 위험이 무엇이고, 그러한 위험이 어떤 방식으로 작동하는지 학습합니다. 시간이 지날수록 그러한 위협에 더 잘 대처할 수 있게 됩니다.
AI 보안의 과제
AI는 비교적 새로운 기술이며, 아직 완벽하지 않습니다. 또한 끊임없이 변화하기 때문에 AI 보안에는 유연한 접근 방식이 필요합니다. 현재 업계가 공통적으로 직면하고 있는 과제는 다음과 같습니다.
- 진화하는 AI 고유의 위협. AI는 계속해서 변화하기 때문에 이를 악용할 다양한 기회가 존재합니다. 따라서 AI 애플리케이션과 모델은 악의적인 공격자들이 군침을 흘릴 만한 먹잇감이 될 수 있습니다. AI가 변화하고 진화함에 따라 보안 요구 사항도 변화하고 있습니다.
- 복잡한 소프트웨어 공급망. AI 라이프사이클은 오픈소스 라이브러리부터 서드 파티 애플리케이션 프로그래밍 인터페이스(API), 사전 학습된 모델에 이르기까지 수많은 퍼즐 조각으로 이루어져 있습니다. 각 퍼즐 조각은 공격자에게 잠재적인 진입 지점을 제공합니다. 복잡한 AI 공급망은 그 다양한 구성 요소를 보호하기 위해 다층적인 AI 보안 접근 방식을 필요로 합니다.
- 중요한 AI 안전 요구 사항. 데이터를 정제하여 모델 편향 및 드리프트를 없애는 것은 모델이 의도대로 작동하도록 하는 데 매우 중요합니다. AI 학습 데이터를 이해하고 정제하려면 업계에서 새로운 특정 기술을 사용해야 합니다.
- 기존 보안 통합. AI와 같은 새로운 기술을 기존 툴에 통합할 때 AI 워크로드와 그 기반이 되는 인프라를 모두 보호하고 감시하는 시스템을 사용해야 합니다.
- 가시성 및 거버넌스의 격차. AI라는 새로운 기술에 맞춰 보안 및 정책 솔루션을 개발하는 데 최선의 노력을 다했음에도 불구하고 수많은 위험이 처음 겪는 문제라는 이유로 선제적으로 해결되지 못했습니다. AI 보안 정책이 제대로 작동하기 위해서는 새로운 권장 사항에 발맞춰 그러한 정책을 지속적으로 업데이트해야 합니다.
AI 보안에서의 개인정보 보호 및 컴플라이언스
데이터와 사용자의 개인정보 보호에 대한 위험은 언제나 존재해 왔지만, AI는 새로운 종류의 위험을 수반합니다. 다음은 AI를 사용할 때 따라야 할 중요 지침입니다.
- AI 프라이버시. AI 프라이버시를 보장하는 것은 개인 데이터와 상용 데이터를 무단 사용으로부터 보호하는 것을 의미합니다. 개인 데이터를 안전하게 보호하기 위해 중요한 보안 조치를 시행하는 것을 고려하세요.
- AI 컴플라이언스. AI가 변화함에 따라 법률 준수와 정부 규정도 함께 변화하며, 이는 잠재적으로 사람들이 AI를 사용하는 방식을 개선할 수 있는 업계 표준을 만들고 있습니다.
AI 윤리는 AI 보안에 포함되지는 않지만, AI로 인해 조직이 직면하게 될 전반적인 위험을 완화할 수 있습니다. 사용자는 모델 출력과 그러한 출력을 사용하여 결정을 내리는 방식을 알고 있어야 합니다.
AI를 윤리적으로 사용한다는 것은 인권, 공정성, 투명성과 같은 사회적 가치에 주의를 기울이는 것을 의미합니다. 모델이 AI 윤리 정책에 부합하도록 하려면 모델이 어떤 방식으로 개발되고 학습했는지 확인하세요. 또한 모델의 출력을 지속적으로 모니터링하여 정책을 위반하지 않는지 확인해야 합니다.
Red Hat의 지원 방식
오픈소스는 투명성과 커뮤니티의 신뢰를 높입니다. Red Hat의 솔루션은 오픈소스 기술로 하이브리드 클라우드에 맞게 구축되어 엔드 투 엔드 AI 라이프사이클을 보호할 수 있도록 돕습니다.
팀은 Red Hat® AI를 사용하여 혁신적인 애플리케이션을 실험하고 확장하며 제공할 수 있습니다. 이 솔루션은 Red Hat의 플랫폼 보안 및 DevSecOps 모범 사례를 기반으로 AI 보안에 대한 포괄적이고 다층적인 접근 방식을 제공합니다.
Red Hat 솔루션은 모든 단계에서 보안 및 안전과 관련된 위험을 완화하여 고객이 신뢰할 수 있는 AI 애플리케이션을 구축하고 배포할 수 있도록 돕습니다. 특히 Red Hat OpenShift® AI는 AI 보안으로 다음과 같은 이점을 제공하여 공정성, 안전, 확장성을 유지할 수 있도록 합니다.
- 가시성 향상. 모델이 결론을 내리는 방식을 숨기고 사용자가 알고리즘을 파악할 수 없게 하는 '블랙박스' 현상을 없앱니다. Red Hat Trusted Profile Analyzer는 취약점, 악성 코드, 라이센스 문제, 잠재적인 AI 안전 관련 우려 사항에 대한 인사이트를 제공합니다.
- 통합된 개발 워크플로우. 개발 과정에서 AI 모범 사례를 조기에, 일관되게 적용하여 취약점을 더 빠르게 감지하고 비용이 많이 드는 중복 작업을 없앱니다. Openshift AI 내에 통합된 Red Hat Advanced Developer Suite는 모델 출처 검증 및 평가를 지원하기 위해 개발 워크플로우에서 구현할 수 있는 Red Hat Developer Hub와 같은 툴을 호스팅합니다.
- 하이브리드 클라우드를 위한 일관성. 하이브리드 클라우드에서 유연하게 작동하도록 구축된 AI 솔루션으로 어디서나 추론이 가능합니다. AI 워크로드는 온프레미스, 클라우드, 엣지를 포함해 어떤 환경에서든 동일한 수준으로 보호되고 균일한 성능을 발휘해야 합니다.
- 모델 일치. 모델 출력과 학습 데이터의 일치율을 모니터링하여 일관된 데이터 정확성 및 모델 무결성을 보장합니다. 또한 OpenShift AI는 LoRa/QLoRA를 통해 효율적인 대규모 언어 모델(LLM) 미세 조정을 지원하여 컴퓨팅 오버헤드와 메모리 풋프린트를 줄입니다.
- 드리프트 감지 툴. 공격적인 표현, 욕설과 같은 유해한 정보, 개인 데이터 유출 또는 도메인별 위험으로부터 모델의 입력과 출력을 보호합니다. AI 가드레일 및 실시간 모니터링은 모델 추론에 사용되는 실시간 데이터가 원래의 학습 데이터와 달라져서 유해한 AI 출력을 생성하는 경우 이를 감지할 수 있습니다.
엔터프라이즈를 위한 AI 시작하기: 입문자용 가이드
Red Hat OpenShift AI와 Red Hat Enterprise Linux AI가 어떻게 여러분의 AI 도입 여정을 가속화할 수 있는지 확인해 보세요.