Josh Fruhlinger
Contributing Writer

에이전틱 AI, IT 보안 현장에서 드러난 가능성과 한계

기획
2025.09.3011분

에이전틱 AI는 이미 보안 운영센터(SOC)의 운영 방식을 변화시키고 있다. 반복적인 업무를 처리해 분석가가 더 고차원적인 조사에 집중할 수 있도록 하지만, 신뢰성·비용·감독 문제는 여전히 핵심 과제로 남아 있다.

AI detects cybersecurity threats by monitoring system behavior, identifying anomalies, blocking breaches, and alerting users to potential security risks in real time. Vouch
Credit: Summit Art Creations/ Shutterstock

에이전틱 AI는 실험실 시연 단계를 넘어 실제 보안 운영센터(SOC) 환경으로 빠르게 확산되고 있다. 기존 자동화 스크립트와 달리, 자율형 소프트웨어 에이전트는 보안 신호에 반응해 지능적으로 워크플로를 실행하며, 로그 상관분석과 알림 보강은 물론 초기 격리 조치까지 수행한다.

일부 보안 리더에게 SOC에서의 에이전틱 AI 가치는 분명하다. 끝없는 경보 분류에서 분석가를 해방시키고, 폭증하는 알림 속에서도 대응 역량을 확장할 수 있기 때문이다. 그러나 또 다른 리더들은 불투명한 의사결정, 복잡한 통합 과정, 걷잡을 수 없는 비용 증가 같은 위험을 우려한다.

현재 기술의 위치를 명확히 파악하기 위해, 기자는 에이전틱 AI를 시험·배포하거나 자문 중인 보안 경영진, 제품 책임자, 연구자를 만났다. 그들의 시각은 에이전트가 잘하는 영역과 한계를 동시에 보여주며, 조직 변화, 가격 실험, 거버넌스 모델이 향후 에이전틱 AI가 IT 보안의 핵심으로 자리 잡을지, 아니면 일시적 유행으로 그칠지를 결정할 것임을 시사한다.

에이전틱 AI의 강점과 약점

에이전틱 AI는 원래 1단계 보안 분석가가 담당하던 업무에서 확실한 자리를 잡아가고 있다. 기업용 AI 에이전트 플랫폼 기업 피프스엘리먼트닷에이아이(fifthelement.ai) CEO이자 엔터프라이즈 AI 전략가인 조너선 가리니는 “단순히 검토가 필요한 행동을 표시하는 수준을 넘어, 에이전트 기반 시스템은 경보 분류, 툴 간 신호 상관분석, 심지어 엔드포인트 격리 같은 위협 억제 조치까지 처리해 분석가가 보다 전략적이고 중요한 업무에 집중할 수 있도록 한다”라고 설명했다.

데이터 기반 솔루션 및 응용 AI 전문가 비노드 고제 역시 SOC 환경에서 AI 에이전트가 “디지털 1단계 분석가처럼 데이터를 선별하고, 맥락 정보를 수집하며, 자신이 수행한 활동에 대한 상세 보고서를 작성한다”고 언급했다. 그는 악성코드 분석, 스크립트 복호화, 툴 조정 같은 실제 활용 사례를 예로 들었다.

보안 솔루션 제공 기업 OPSWAT 제품 담당 부사장 이타이 글릭은 에이전트가 “‘첫 15분’ 동안 맥락을 수집하고, 위협 인텔을 확인하며, 로그를 요약하고, 검토용 대응 방안을 제안하는 데 강점을 가진다”고 말했다. 그는 또 취약점 우선순위 지정이나 오래된 계정 식별 같은 보안 위생 작업에도 도움이 된다고 덧붙였다.

애플리케이션 보안 및 오픈소스 보안 관리 기업 블랙덕(Black Duck)의 제품·기술총괄 디프토 차크라바티는 AI 에이전트가 알림 패턴을 군집화하고 위협 인텔 피드와 연계해 알림 피로도를 줄이며, 자연어 처리(NLP) 기반 도구로 대규모 알림을 요약할 수 있다고 설명했다.

여러 사용자들이 공통적으로 강조하는 점은 AI 에이전트가 인간 분석가를 “반복적인 잡무”에서 해방시켜 고차원적인 탐구와 위협 헌팅에 집중하게 한다는 것이다. 고제는 에이전트 지원을 받는 팀이 “더 빠른 대응, 간소화된 조직 구조, 폭발적인 알림 속에서도 더 강한 회복력을 확보한다”고 전했다.

그럼에도 불구하고 한계는 여전하다. 글릭은 “정제된 데이터나 명확한 플레이북이 없으면 에이전트가 잡음을 쫓거나 불필요한 단계를 만들어낼 수 있다”고 경고했다. 차크라바티는 오탐과 과적합 문제를 지적했으며, 글로벌 IT 서비스·사이버보안 서비스 제공 기업 엠페이시스(Mphasis) 글로벌 사이버보안서비스 총괄 수석부사장 프라샨트 자그와니는 “모호한 신호나 다층적 맥락은 최고의 에이전트조차 혼란에 빠뜨릴 수 있다”고 말했다. 현재 대부분의 조직은 인간 분석가를 대체하기보다는 보완하는 용도로 AI 에이전트를 배치하고 있다.

통합 접근법:애드온 vs 독립형

조직이 AI 에이전트를 도입할 때 가장 먼저 고민하는 것은 기존 플랫폼에 덧붙일 것인지, 아니면 독립형 프레임워크를 구축할 것인지다. 애드온 모델은 에이전트를 보안 정보 이벤트 관리(SIEM), 보안 오케스트레이션·자동화·대응(SOAR) 같은 기존 보안 툴의 확장 기능으로 다루며, 최소한의 방해로 빠른 효과를 낼 수 있다. 반면 독립형 프레임워크는 별도의 오케스트레이션 계층으로 작동해 더 큰 유연성을 제공하지만, 더 무거운 거버넌스·통합·변경 관리가 요구된다.

피프스엘리먼트닷에이아이의 가리니는 “이 시스템은 인터페이스만큼의 가치가 있다”며, SIEM이나 SOAR 위에 직접 얹는 애드온은 효과적이지만 독립형 프레임워크는 “오케스트레이션과 거버넌스를 위해 더 큰 노력이 필요하다”고 말했다.

보안 솔루션 업체 체크포인트(Check Point) 사이버보안 및 AI 전문가 아밋 웨이그만은 현재 업계 관행을 예로 들며 “MS의 시큐리티 코파일럿(Security Copilot)은 분석가가 경보를 자동 분류하고 불필요한 잡음을 걸러내도록 돕고 있다. 크라우드스트라이크도 비슷한 시도를 하고 있으며, 구글은 제미니 기반 에이전트를 통해 경보를 처음부터 끝까지 조사할 수 있다. 지금 업계는 대부분 이런 애드온·확장 모델에 머물러 있다”고 설명했다.

웨이그만은 애드온이 인기를 끄는 이유 중 하나로 SOC 플랫폼 교체나 깊은 통합의 어려움을 꼽았다. “배포, 재교육, 프로세스 변경에 몇 달이 걸릴 수 있고, 그 사이에도 팀은 실제 위협에 대응해야 한다”고 말했다.

AI 보안 플랫폼 업체 마인드가드(Mindgard) CMO이자 AI 보안 에반젤리스트 퍼걸 글린은 속도와 유연성 간의 절충이라고 정리했다. 그는 “애드온은 빠른 도입에 적합하지만 덜 유연하다”며 “독립형은 더 많은 제어권을 제공하지만 구축과 유지에 더 많은 노력이 필요하다”고 말했다.

OPSWAT의 글릭도 이에 동의하며, “대부분의 데이터가 기존 SIEM·SOAR 파이프라인에 있다면 애드온이 맞고, 데이터가 IT, OT, 클라우드, SaaS에 흩어져 있다면 전용 에이전트 계층이 ‘스위블 체어링(여러 툴을 오가며 분석하는 비효율)’을 줄여준다”고 설명했다.

엠페이시스의 자그와니는 대부분의 기업이 애드온으로 시작한다고 말했다. 기존 투자 자산 위에 쉽게 얹을 수 있고, 통제된 테스트 환경을 제공하기 때문이다. 그는 독립형 프레임워크는 보통 하이브리드나 멀티클라우드 환경에서 중앙집중화를 준비하는 단계에서 등장한다고 설명했다.

자그와니는 “고객 사례에서 얻은 교훈은 많은 SOC가 통합의 복잡성을 과소평가한다는 점이다. 단순히 API를 연결하는 문제가 아니라, 에이전트의 의사결정 논리를 기존 플레이북과 위험 허용 범위에 맞추는 일이다. 애드온 접근법은 그 정렬을 보다 부드럽게 해주며, 독립형 오케스트레이션은 보통 2단계 성숙도에서 나타난다”라고 전했다.

거버넌스와 조직 변화

에이전틱 AI 도입은 하루아침에 이뤄지지 않는다. 체크포인트(Check Point)의 아밋 웨이그만은 “대부분의 보안팀은 SOC 전체를 새롭고 화려한 AI 시스템으로 교체하지 않는다. 비용이 많이 들고, 시간과 인력이 요구되며, 결국 지나치게 혼란스럽고 부담스러운 변화로 여겨질 수 있기 때문”이라고 설명했다.

대신 리더들은 기존 운영을 해치지 않으면서 점진적으로 새로운 기능을 도입하는 방식을 선호하며, 이 때문에 파일럿 프로젝트가 흔히 첫 단계가 된다. 피프스엘리먼트닷에이아이의 가리니는 “에이전틱 AI를 검토하는 조직에 주고 싶은 첫 번째 조언은 피싱 대응이나 자격 증명 남용 탐지처럼 작은 사용 사례부터 파일럿으로 시작하라는 것이다. 이렇게 제한된 시나리오를 겨냥하면 더 넓은 변화를 추진하기 전에 가치와 신뢰성을 검증할 수 있다”고 말했다.

에이전트가 배치된 이후에는 거버넌스도 발전해야 한다. OPSWAT의 글릭은 “팀이 기존 프레임워크를 버리는 것이 아니라 그것을 조정해 적용한다”며 “예를 들어 파괴적 행동에는 2인 승인, 자동·검토·상향 조정 여부를 결정하는 위험 등급, 배포 전 플레이북을 시험하는 샌드박스 같은 기존 변경 관리 및 역할 분리 규칙을 에이전트 흐름에 맵핑한다”고 설명했다. 그는 또한 에이전트가 프롬프트 주입(prompt injection)과 탈옥(jailbreak) 시도 같은 레드팀 테스트에도 포함되고 있다고 덧붙였다. “사다리 구조는 동일하다. 다만 이제 에이전트 세계에서 더 명확히 드러날 뿐이다”라고 말했다.

엠페이시스의 자그와니도 유사한 흐름을 지적했다. 그는 거버넌스와 위험 통제는 새로 쓰이는 것이 아니라 ‘휴먼 인 더 루프’(human-in-the-loop) 승인 방식으로 확장된다고 설명했다. 또한 규제 프레임워크 자체를 대체하는 것은 AI가 더 발전된 일반지능 수준에 도달하기 전까지는 실현 가능하지 않다고 덧붙였다.

신뢰, 감독, 인간 협업

에이전틱 AI의 장점은 자율성에 있지만, 바로 그 점이 도입의 걸림돌이 되기도 한다. 많은 조직이 실제 운영 환경에서 에이전트를 완전히 자유롭게 작동시키는 데 주저하는 이유다.

데이터 기반 솔루션 전문가 비노드 고제는 “위협에 대응하기 위해 일련의 행동을 수행하도록 설계된 에이전트가 잘못 사용되거나 부적절하게 배치되면 오히려 새로운 위험을 초래할 수 있다”며 “규제되지 않은 스크립트 실행이나 새로 발견된 취약점 악용 가능성도 존재한다”고 설명했다. 따라서 대부분의 조직은 강력한 안전장치 없이는 완전한 자율 운영을 허용하지 않는다는 것이다.

체크포인트의 웨이그만은 문제를 투명성의 차원에서 설명했다. 그는 “AI는 여전히 블랙박스처럼 느껴진다”며 “인간 분석가도 실수는 하지만 관리자는 오류 범위를 알고 금전적 비용으로 환산할 수 있다. 반면 AI는 ‘무엇을 모르는지조차 알 수 없다’는 점이 불안을 키운다”고 말했다.

이 문제를 극복하기 위해 전문가들은 AI 워크플로에 가시성과 책임성을 심어야 한다고 강조한다. OPSWAT의 글릭은 “프롬프트, 툴 호출, 산출물, 승인 등 모든 과정에 감사 추적이 필요하다”고 전했다.

빅아이디(BigID) 보안 부사장 카일 쿠르지올렉은 문서화의 중요성을 강조했다. 그는 “규제를 받는 모든 것은 문서화되고, 검증되며, 궁극적으로 감사 가능해야 한다”며 “무엇을 했는지만 보는 것이 아니라, 왜 그런 행동을 했는지 그 논리를 구성해야 한다”고 말했다.

엠페이시스의 자그와니는 금융 서비스 규제 당국은 “감사 가능한 형태의 설명 가능성”을 요구한다고 지적했다. 이는 단순히 블랙박스 형태의 권고를 받아들이는 것이 아니라, 입력값·신뢰도 점수·상향 조정 논리 등으로 에이전트의 의사결정을 분해해 다층적 감사 추적을 구현해야 한다는 뜻이다.

더 큰 투명성이 확보되더라도 인간 협업은 여전히 필수다. 고제는 에이전트를 “협력적 디지털 동료”로 대해야 한다고 말했고, 웨이그만은 “대부분의 도입 사례에서 고위험 작업은 반드시 인간이 관여한다. AI가 제안이나 분류를 하더라도 최종 결정은 분석가가 내린다”고 설명했다.

웨이그만은 또 특화된 소규모 에이전트 배치가 가시성을 높일 수 있다고 덧붙였다. 그는 “하나의 거대한 불투명한 AI 두뇌 대신, 좁은 범위를 맡는 전문화된 여러 에이전트를 배치하면 각각을 모니터링하고 설명할 수 있다”고 말했다.

차세대 인재 양성

AI 에이전트가 1단계 분석가의 업무를 맡게 된다면, 새로 합류한 SOC 팀원들은 어떻게 훈련을 받을 수 있을까? 데이터 기반 솔루션 전문가 비노드 고제는 이에 대해 낙관적인 전망을 내놓았다.
전통적으로 1단계 분석가의 업무는 보안 경력의 훈련장이었다. 에이전틱 AI의 역설은 반복적인 분류 작업에서 인력을 해방시키는 동시에, 신입 분석가가 수많은 경보를 처리하며 쌓아왔던 ‘근육 기억’을 약화시킬 위험이 있다는 점이다.

그러나 실제로 명백한 오탐 걸러내기, 중복 경보 제거, 일상적인 피싱 사례 상향 보고 같은 단순 분류 업무는 분석가에게 인내심 이상의 것을 가르치지 않는다. 이런 반복적이고 단순한 작업은 AI가 훨씬 잘 처리하며, 그 결과 인간 분석가는 더 복잡한 문제 해결에 집중할 수 있다.

이렇게 되면 1단계 업무는 단순 노동이 아니라 체계적인 학습의 장으로 바뀐다. 신입 분석가는 끝없는 잡음에 파묻히는 대신, AI가 정리·기록한 사례를 바탕으로 에이전트의 논리를 검토하며 배운다. 따라서 방치하면 에이전틱 AI가 인재 공급망에 공백을 만들 수 있지만, 의도적으로 활용한다면 오히려 역량 개발 속도를 가속화할 수 있다.

비용, 가치, 그리고 프로그램 설계

에이전틱 AI의 기능과 거버넌스도 중요하지만, 보안 현장에서 이 기술을 도입하는 가장 큰 동인은 경제성이다. 보안 리더들이 가장 궁금해하는 것은 “얼마나 많은 비용과 시간을 절감할 수 있는가”라는 질문이다. 그러나 답은 단순하지 않다.

피프스엘리먼트닷에이아이의 가리니는 “가격 책정은 여전히 마찰 지점”이라며 “벤더들이 사용량 기반 모델을 실험 중이지만, 원시 연산량이나 API 호출이 아니라 분석가의 절감 시간에 비용을 연계할 때 조직이 더 큰 가치를 느낀다”고 말했다.

마인드가드의 글린은 현재 다양한 AI 가격 모델이 존재한다고 설명했다. 그는 “구독 단위, 좌석 단위, 경보 단위 과금이 가능하고, 일부 벤더는 사용량 기반 플랜을 제공하기도 한다”며 “고급 에이전트 시스템은 비용이 높지만, 그만큼 분석가의 업무 부담을 줄이는 효과가 크다”고 언급했다.

OPSWAT의 글릭은 “좌석별, 작업별, 하이브리드 모델까지 실험이 이뤄지고 있다”면서도 “스토리지, API 요금, 긴 프롬프트, 플레이북 유지관리 같은 숨은 비용이 빠르게 늘어날 수 있다”고 경고했다. 그는 ROI는 궁극적으로 더 빠른 탐지·대응, 분석가 1인당 더 많은 사건 처리, 불필요한 알림 감소 같은 지표에 나타나야 한다고 강조했다.

블랙덕의 차크라바티는 팀이 “사용량 기반, 하이브리드 모델 등 전 영역에서 실험 중”이라며, 단순히 소프트웨어 비용뿐 아니라 대규모 모델을 온프레미스와 클라우드에서 동시에 운영하는 하이브리드 인프라 비용까지 예산에 반영해야 한다고 설명했다.

엠페이시스의 자그와니는 단순한 가격 지표는 본질을 놓칠 수 있다고 경고했다. 그는 “숨은 비용은 보통 도메인별 데이터로 모델을 재학습하거나 깨끗한 텔레메트리를 구축하는 과정에서 발생한다”며, ROI는 단순한 플러그인으로서가 아니라 장기적 프로세스 재설계의 일부로 에이전트를 바라볼 때 가장 크게 나타난다고 전했다.

빅아이디의 쿠르지올렉은 ROI 측정에 정답은 없다고 말했다. 그는 “조직마다 다르다. 어떤 곳은 효율성을 본다. 예를 들어 에이전트가 얼마나 많은 진성 탐지와 오탐을 발생시키는가, 얼마나 많은 사고를 발생시켰는가를 본다. 또 어떤 곳은 자원 관점에서, 경보 분류에 얼마나 시간을 절감했는가, 에이전트의 결과를 얼마나 자주 이중 검증하는가, 실제로 시간이 절약되고 있는가를 따진다”고 설명했다.

그가 보기에 핵심 질문은 단순하다. 에이전트가 분류와 조사를 얼마나 효율화해 보안팀이 기업 보호 역량을 확장할 수 있게 해주고 있는가라는 것이다. 이 질문이 향후 사이버보안 분야에서 에이전틱 AI의 미래를 결정할 가능성이 크다. 기술은 빠르게 성숙하고 있지만, SOC 운영 방식을 재구성하는 지속 가능한 해법으로 자리 잡을지는 결국 각 조직의 판단에 달려 있다.

가능성과 함께 따르는 위험, 에이전틱 AI

에이전틱 AI가 새로운 자동화 가능성을 열고 있지만, 동시에 본질적인 위험 요인도 내포하고 있다고 가트너는 지난 7월 ‘떠오르는 기술: 엔터프라이즈 애플리케이션에서의 에이전틱 AI의 미래(Emerging Tech: The Future of Agentic AI in Enterprise Applications)’라는 보고서에서 밝혔다. 구체적으로 다음과 같다.

  1. 보안과 컴플라이언스: 충분한 이해 없이 에이전틱 AI를 도입하면 프로젝트 실패와 함께 보안·규제 준수에 위협이 될 수 있다. 에이전트는 자율적으로 작동하기 때문에 처음부터 보안을 고려해 설계돼야 한다. 안전장치가 없다면 에이전틱 시스템은 법적·규제적 프레임워크를 위반하는 행동을 취할 수 있다.
  2. 통합 복잡성: 단순히 API를 연결하는 차원을 넘어, 에이전틱 AI를 워크플로에 통합하려면 기업의 전략과 위험 허용치에 맞는 의사결정 논리 정렬이 필요하다. 표준화와 상호운용성 프로토콜의 부족으로 인해 이 과정은 특히 복잡해질 수 있다.
  3. 신뢰와 거버넌스: 에이전틱 AI의 ‘블랙박스’ 특성은 큰 장벽이 된다. 투명성과 설명 가능성이 없으면 에이전트의 결정을 감사하기 어렵다. 가트너는 에이전트가 안전하고 윤리적인 경계 안에서 작동하도록 ‘휴먼 인 더 루프(human-in-the-loop)’ 통제와 감사 추적을 구현해 고위험 결정에 대해 인간이 책임을 지도록 할 것을 권고했다.
  4. 역량 변화: 과거에는 가치가 낮은 반복 업무를 신입 인력이 수행하며 학습했지만, 이제는 AI가 이를 대신하면서 인재 공급망에 공백이 생길 위험이 있다. 가트너는 이러한 위험을 완화하기 위해 신입 직원이 단순 반복 업무 대신 에이전트를 관리하고 협업하는 방법을 배우도록 교육해야 한다고 제안했다.

dl-ciokorea@foundryco.com