‘에이전틱 AI’ 혁신 전략: 1. Agentic AI, 엔터프라이즈·금융·공공 혁신의 판을 바꾸다
- 작성일
"보안과 규제가 최우선인 환경에서, AI의 자율적인 의사결정은 과연 가능한 시나리오일까요?"
이제 AI는 단순히 답변만 하는 존재가 아닙니다. 사용자의 의도와 조직의 전략까지 이해하고 복잡한 업무를 주도적으로 해결하는 에이전틱 AI(Agentic AI)가 인프라의 새로운 컴포넌트로 들어오고 있습니다. 글로벌 리서치 기관 포레스터(Forrester)는 이를 기술의 무게중심이 '보조'에서 '자율성 위임'으로 이동하는 거대한 패러다임의 변화, 즉 '제7의 물결'이라 정의합니다.[1]
하지만 보안과 규제가 촘촘한 엔터프라이즈 환경에서 AI에게 자율성을 주는 일은 생각보다 훨씬 복잡합니다. 단순히 API를 연결하는 수준을 넘어, 무엇을 맡기고 무엇을 사람이 통제할지 아키텍처 단계부터 치열하게 고민해야 합니다. 아이티센그룹이 현장에서 찾은 실전적인 엔지니어링 가이드를 공유합니다.
1. 챗봇을 넘어: 에이전틱 AI의 사고 방식
AI는 챗봇에서 어시스턴트를 거쳐, 이제 스스로 도구를 선택하고 결과를 평가하는 에이전틱 AI로 진화했습니다. 기존 AI가 "묻는 말에 답하는 것"에 그쳤다면, 에이전틱 AI는 목표 달성을 위해 다중 에이전트가 협업하며 전체 워크플로우를 완결짓는 루프를 가집니다.
ReAct와 MAS: 스스로 생각하고 전문가처럼 협업하기
ReAct(Reasoning + Acting) 패턴은 모델이 추론(Thought)과 행동(Action), 관찰(Observation)을 반복하며 문제를 풀게 만듭니다.[2] 한 번에 정답을 내놓는 게 아니라, 단계를 밟아가며 오차를 줄여가는 방식이죠.
특히 엔터프라이즈에서는 하나의 거대 지능 대신 역할을 나눈 전문가들이 협업하는 MAS(Multi-Agent System) 구조가 핵심입니다.[3] IT 서비스 자동화부터 복잡한 프로젝트 조율까지, 각 에이전트가 권한을 나누어 가지고 서로 견제함으로써 '자율성과 투명성'을 동시에 확보합니다.
2. 현장에서 마주하는 진짜 문제들
Agentic AI 도입을 고민할 때 진짜 중요한 건 모델의 지능 지수가 아닙니다. Agentic AI 도입을 고민할 때 우리가 흔히 주목하는 것은 모델의 지능 지수나 화려한 성능입니다. 하지만 실제 비즈니스 현장에서 혁신을 가르는 결정적인 차이는 모델 그 자체에 있지 않습니다. 오히려 수십 년간 얽혀 있는 레거시 인프라와 데이터 사일로(Silo) 사이를 AI가 얼마나 안전하고 매끄럽게 넘나들 수 있는지가 본질에 가깝습니다. 결국 "AI가 오작동했을 때 누가 책임지며, 이를 기술적으로 어떻게 입증할 것인가"라는 근본적인 질문에 명확한 답을 내놓을 수 있어야 합니다.
Point 1. 공공의 망 분리와 sLLM의 '지능적 한계' 극복
공공 분야의 업무망은 보안을 위해 망 분리를 원칙으로 운영되며, 이로 인해 외부 API 활용이 실무적으로 매우 제한되는 환경입니다. 이러한 환경에서 활용되는 소형 모델(sLLM)은 상대적으로 보안 측면에서 유리하지만, 거대 모델에 비해 자원 규모가 작아 복잡한 행정 업무를 처리하는 데 성능상 제약이 발생할 수 있습니다.
따라서 공공형 Agentic AI는 단순 문답을 넘어 민원 접수나 인허가 검토와 같은 복합적인 목표를 스스로 이해하고 업무 단계를 설계할 수 있어야 합니다. 에이전트가 내부 시스템을 호출하는 과정에서 발생할 수 있는 오류를 제어하기 위해 Function Calling과 Policy as Code(PaC)[4]를 결합한 통합 아키텍처를 도입하는 것이 핵심입니다. 특히 Human-in-the-loop(사람의 승인) 절차를 설계 단계부터 반영하여, 모든 의사결정을 사후에 기술적으로 검증할 수 있는 통제권을 확보하는 것이 공공 혁신의 전제 조건입니다.
Point 2. 금융 규제와 '확률'로 움직이는 모델의 충돌
최근 금융권에서 망 분리 규제 완화가 추진되고 있으나, 데이터 보안과 오작동에 대한 내부통제 요구는 여전히 엄격합니다. 동일한 입력에 항상 같은 결과값을 내놓는 결정론적 금융 전산과, 다음에 올 단어를 확률적으로 선택하는 비결정론적 모델(LLM) 사이의 본질적 괴리가 리스크의 핵심이기 때문입니다.
자산 분석이나 대출 심사 같은 실제 금융 액션을 수행하는 에이전트가 정보를 누락할 경우, 이는 곧바로 불완전판매나 법적 리스크로 직결됩니다. 이를 방지하려면 단순 프롬프트 설계를 넘어 보안 및 업무 규칙을 코드로 강제하는 PaC 기반의 이중 통제 구조가 병행되어야 합니다. 에이전트의 실행 계획이 시스템에 전달되기 직전, 독립된 정책 엔진이 거래 한도와 판매 규칙을 실시간 검증함으로써 모델의 확률적 편차가 초래할 오류를 사전에 차단해야 합니다.
Point 3. "AI가 그랬다"는 말은 감사장에서 통하지 않습니다
복잡한 의사결정 체계를 가진 기업 환경에서 AI의 판단은 사후에 반드시 재현 및 검증이 가능해야 합니다. 조달 계획이나 인사 평가 등 민감한 영역에서 발생한 오류를 "AI의 확률적 판단이었다"는 모호한 답변으로 갈음하는 것은 감사와 규제 환경에서 통용되지 않으며, 조직의 경영 리스크와 신뢰도 하락만 가중할 뿐입니다.
결국 엔터프라이즈 환경에서 Agentic AI가 안착하기 위한 핵심은 추적 가능성(Traceability)의 확보입니다. 단순히 결과만 남기는 것이 아니라 에이전트가 참조한 데이터(Thought)와 호출한 기능(Action), 그 판단 과정을 구조화된 로그로 기록[5]해야 합니다. 이처럼 과정을 투명하게 소명할 수 있는 시스템만이 규제 요구를 견디고 조직 내에서 신뢰받는 진정한 비즈니스 파트너로 인정받을 수 있습니다.
ITCEN GROUP의 관점: Agentic AI는 모든 것을 대신 결정해 주는 만능 해결사가 아닙니다. 시스템 간 데이터 정합성, 실시간 로깅, 기존 업무와의 무중단 연결이 보장될 때 비로소 가치를 발휘합니다. 화려한 데모보다 실제 장애와 규제라는 '최악의 시나리오'를 견디는 설계가 혁신의 본질입니다.
3. 성공적인 도입을 위한 3단계 전략
앞서 언급한 망 분리, 금융 규제, 추적 가능성이라는 문제들을 해결하고, Agentic AI를 단순한 기술 도입을 넘어 조직의 실질적인 경쟁력으로 전환하기 위해선 기술적 화려함보다 통제 가능성과 신뢰성에 초점을 맞춘 단계별 접근이 필요합니다.
| 단계 | 핵심 과제 | 기대 효과 |
|---|---|---|
| Step 1 | 목표 기반 페르소나 및 세부 권한 설계 단순 챗봇을 넘어 특정 직무 수행을 위한 역할(Persona)을 정의하고, 접근 가능한 데이터와 API 범위를 엄격히 제한하는 최소 권한 원칙을 적용합니다. |
업무 범위의 명확한 한정 및 예기치 못한 시스템 오작동 시 리스크 확산 격리 |
| Step 2 | 사람이 개입하는 하이브리드 워크플로우 에이전트가 독단적으로 최종 액션을 수행하지 않도록, 판단의 근거를 제시하고 Human-in-the-loop(HITL) 승인을 거치는 구조를 표준화합니다. |
비결정론적 모델의 오류를 사람의 판단으로 보완하여 비즈니스 의사결정의 안정성 확보 |
| Step 3 | 지능형 거버넌스와 감사 체계 통합 Policy as Code(PaC)를 통해 법적 규제와 내부 정책을 실시간 강제하고, 모든 판단 과정을 구조화된 로그(TAO)로 기록합니다. |
규제 준수의 자동화 및 문제 발생 시 기술적 소명과 사후 추적성(Traceability) 보장 |
결국 Agentic AI가 혁신의 판을 바꾸기 위해서는 모델 성능보다 통제 가능한 자율성을 어떻게 설계하느냐가 중요합니다. 단순히 API를 연결하는 수준을 넘어 권한 격리(Step 1), 인간의 개입(Step 2), 정책 강제(Step 3)가 유기적으로 맞물려야 합니다. 이러한 구조적 뒷받침이 있어야만 AI 에이전트는 비즈니스 로직을 안전하게 실행하는 신뢰할 수 있는 동료가 됩니다.
유의사항: 자율성의 범위는 조직의 정책과 레거시 구조에 따라 달라질 수 있으므로, 실제 도입 전 반드시 전문가와 함께 ROI 기준과 검증 계획을 수립하시기 바랍니다.
이제 AI는 보조를 넘어 자율성 위임이라는 거대한 패러다임의 변화, 즉 제7의 물결의 중심에 서 있습니다. 하지만 보안과 규제가 엄격한 환경에서 AI에게 자율성을 부여하려면 기술적 신뢰를 뒷받침할 거버넌스 체계가 필수적입니다.
이어지는 다음 편에서는 AI의 비결정론적 특성에서 오는 리스크를 제어하고, 전사적 통합 통제를 가능케 하는 에이전틱 AI 거버넌스의 핵심 아키텍처를 소개해 드리겠습니다.
[1] Forrester (2025.07), "The Seventh Wave: How AI Will Change The Technology Industry."
[2] Princeton & Google (2023), "ReAct: Synergizing Reasoning and Acting in Language Models."
[3] Microsoft Research (2023), "AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Framework."
[4] CNCF Whitepaper, "Policy as Code (PaC) in Cloud Native Environments."
[5] ISO/IEC/IEEE 12207:2017, "Systems and software engineering — Software life cycle processes."
본 리포트는 정보 제공을 위한 자료로, 특정 기술의 도입 성과를 보증하지 않습니다. 기술 사양과 거버넌스 표준은 시점에 따라 달라질 수 있으니 유의하시기 바랍니다.