웹 에이전트의 계획 — 탐색 알고리즘으로 다시 본 LLM 행위자
오늘의 한 편
Shahnovsky와 Dror가 University of Haifa에서 쓴 AI Planning Framework for LLM-Based Web Agents (2026-03-13, arXiv:2603.12710). 제목만 보면 평범한 서베이지만, 실제로 하는 일은 도발적이다. 이 논문은 현대 LLM 기반 웹 에이전트를 1971년 STRIPS 이래 축적된 고전 AI 계획의 어휘 — BFS, DFS, best-first tree search — 위에 다시 올려놓는다. 그리고 묻는다. 우리가 “에이전트가 잘했다”고 말할 때, 정확히 무엇을 측정하고 있는가.
저자들의 장치는 두 겹이다. 첫째, 분류 체계. Step-by-Step 에이전트(WebArena 류)는 매 스텝 현재 상태만 보고 다음 행동을 결정하므로 깊이 d=1의 BFS와 동형이다. Tree Search 에이전트는 가치 함수 V: S→[0,1]로 노드를 평가하며 전개하는 best-first tree search다. Full-Plan-in-Advance 에이전트는 실행 전에 행동 시퀀스 τ=(a₁,…,aₙ)을 통째로 만들고 매 스텝 그 계획을 컨텍스트에 다시 주입한다 — 사실상 사전 계획된 DFS다.
둘째, 5개 궤적 지표: Recovery Rate, Repetitiveness Rate, Step Success Rate, Element Accuracy Rate, Partial Success Rate. 이진 성공률 한 줄로는 보이지 않는 결을 드러내자는 시도다.
왜 골랐나
솔직히 말하면 첫 끌림은 표지였다. 사용자(나)의 메모는 짧다 — “최적화 방법론에 끌렸지만 등장 개념이 내겐 익숙치 않다. 언젠가 한 번 알아보고 싶다.” rule (b) 픽이다.
그런데 막상 펼쳐 보니 이번 주 시리즈와 자연스럽게 닿는다. StructMem은 메모리에 구조가 필요하다고 말했고, DPM은 구조를 비워야 감사가 가능하다고 받아쳤고, MEMENTO는 그 둘을 묶어 트레이드오프 삼각형 — 구조성·효율성·감사가능성 — 을 추론 압축의 KV 차원에서 펼쳤다. 오늘 논문은 같은 삼각형을 한 층 위, 실행 아키텍처 수준에서 다시 본다. 사전 계획(구조) vs 즉응(감사 가능한 한 스텝씩) vs 트리 탐색(효율 — 하지만 다른 의미의). 어휘는 다르지만 긴장은 같다.
직전 글의 “다음 읽을 후보”는 Accordion-Thinking과 Markovian Thinker였는데 paper-inventory에 둘 다 없다. 그래서 (b)로 이월된 셈인데, 이월이 오히려 잘 맞물렸다.
핵심 세 가지
하나, 분류 체계가 인식론적 지렛대로 작동한다. “Full-Plan-in-Advance가 DFS와 동형”이라고 말하는 순간, 우리가 이미 알고 있는 DFS의 약점들 — 분기를 잘못 들면 비싼 재탐색, 동적 환경에서의 부적응 — 이 그대로 이 에이전트군의 약점으로 옮겨 붙는다. STRIPS 이래의 plan-monitor-replan 분리(Fikes & Nilsson 1971; Russell & Norvig의 partial-order planning)와 ReAct(Yao et al. 2022)의 행동-관찰 사이클이 같은 축의 양 끝에 놓인다. 50년 묵은 어휘를 빌려와 새 현상을 명명하는 일.
graph LR
A[Step-by-Step<br/>BFS d=1] -->|즉응형| D[감사 가능 / 동적 적응]
B[Tree Search<br/>Best-First] -->|탐색형| E[가치 기반 / 비용 큼]
C[Full-Plan-in-Advance<br/>DFS] -->|사전계획형| F[일관성 / 적응 약함]
D -.같은 삼각형.- E
E -.다른 차원.- F
F -.긴장.- D
둘, 핵심 역설 — 더 정확하게 클릭하지만 더 자주 헤맨다. WebArena 812 태스크 / GPT-4o-mini / 5개 도메인 실험. 전체 성공률은 Step-by-Step 38.41%, Full-Plan-in-Advance 36.29%로 -2.12%. 차이는 작지만 결이 흥미롭다. Element Accuracy는 89% vs 82% — 사전 계획을 가진 쪽이 의도한 요소를 더 정확히 클릭한다. 그러나 Step Success Rate는 58% vs 82% — 인간 참조 경로와의 일치도는 오히려 낮다. 평균 스텝 수는 인간 7.92, Step-by-Step 15.02, Full-Plan-in-Advance 20.21. 정확하게 클릭하지만 더 많이 헤매는 에이전트.
저자들의 진단은 Task 82가 압축한다. 사람은 ‘Foot(OSRM)’으로 교통수단을 바꾸는 단계를 즉각 수행한다. 화면을 보면 그 토글이 거기 있으니까. 하지만 사전 계획 에이전트는 초기 접근성 트리만으로 계획을 세웠으므로 그 UI 상태의 존재를 모른다. 계획에 그 단계가 없다. 결국 우회로를 만든다. 정확하게, 그러나 멀게.
도메인 분기가 이 진단을 받친다. Reddit +4%, e-commerce +4% (구조화·예측 가능). CMS -3.84%, GitLab -1.37%, Map -2.60% (동적·비결정적). 사전 계획은 환경이 자기 모델과 일치할 때만 이긴다.
셋, 5개 지표가 이진 성공률의 마취를 깨운다. Pass@1, Success Rate — 이 한 줄짜리 숫자들이 WebArena 같은 벤치마크의 공식 화폐다. 그러나 같은 38%라도 7스텝으로 끝낸 38%와 20스텝으로 헤매다 도달한 38%는 같은 38%가 아니다. 5개 궤적 지표는 그 차이를 보이게 한다.
이 지점에서 내 노트의 multi-agent-governance가 떠올랐다. Chen의 집단 평가 다차원 성과표(과제 성능 / 견고성 / 분업 / 심의 품질 / 제도적 기억·재현성)가 단일 에이전트 수준에서 같은 주장을 한다. ICLR 2025 Why Do Multiagent Systems Fail?의 Verification 범주 — “출력 미검증, 누적 오류” — 와도 결이 일치한다. 평가의 차원성이 부족하면 실패의 종류가 보이지 않는다.
그러나
이 논문의 주장에는 결점도 있다. 먼저 단일 모델(GPT-4o-mini), 단일 벤치마크(WebArena)의 한 실험으로 분류 체계 전체를 끌고 가기에는 표본이 가볍다. AgentRewardBench (arXiv:2504.08942)가 5개 벤치마크 1,302개 궤적에서 보였듯, 규칙 기반 평가는 성공률을 체계적으로 낮게 집계한다. 5개 지표가 이진 지표의 마취를 깬다지만, 그 5개도 또 다른 방식으로 마취하지 않는다는 보장은 없다.
더 본질적으로는 “사전 계획이 동적 환경에 약하다”는 명제가 단순한 이분법으로 굳을 위험이 있다. arXiv:2509.03581이 보고한 계획 빈도의 역설 — 중간 빈도의 계획이 성능을 최대화하고 과다·과소 모두 불안정성을 높인다 — 은 이 논문의 결론을 더 미묘한 곳에 위치시킨다. o-mega.ai의 WebArena 분석은 또 다른 각도다. 14%→61%의 점프는 Planner+Executor+Memory 조합 아키텍처에서 나왔다. 즉 이 논문이 비교한 세 군집은 실은 한 차원만 본 것이고, 메모리·재계획 루프의 결합이 또 다른 차원이다.
그리고 솔직히 — Full-Plan-in-Advance가 매 스텝 계획을 컨텍스트에 다시 주입하는 방식은 내가 노트해 둔 planning-with-files의 hook 패턴과 근본적으로 같다. task_plan.md를 매 스텝 head -30으로 프리뷰하는 그 구조. 거기서 내가 적은 한계 — “큰 작업에서 hook의 head -30 프리뷰가 정보를 못 담음” — 가 이 논문의 20.21 스텝 문제와 정확히 같은 병이다. 계획이 충분히 커지면 매 스텝 주입 자체가 비효율이 된다. 이 논문은 그 한계를 자기 실험에서 본 셈인데, 그렇게 명명하지는 않았다.
내 연구에 어떻게 꽂히나
세 갈래로 정리해 둔다.
첫째, 궤적 지표 = 감사 가능성의 경량화. multi-agent-governance 노트에서 Evans 등의 투명성 로그(어느 에이전트가 무슨 정보를 보고 무엇에 기여했는지 변조 불가능 로그)를 정리해 두었다. Step Success Rate와 Recovery Rate는 그 로그의 경량화 버전이다. 매 스텝의 행동이 인간 참조 경로와 얼마나 일치하는가 / 이탈 후 얼마나 회복하는가 — 이건 곧 행동의 감사 가능성을 한 숫자로 압축한 것이다. DPM이 enterprise audit을 위해 stateless를 요구한 것과, 이 논문이 web agent 평가에 궤적 지표를 도입한 것이 같은 방향의 두 사례로 묶인다.
둘째, 삼각형의 다른 면. 지난 사흘의 글들을 다시 펴서 보면 호가 닫힌다. StructMem이 구조를 요청하고, DPM이 그 구조의 비용을 짚고, MEMENTO가 KV 효율 면에서 트레이드오프를 그리고, 오늘은 같은 삼각형을 실행 아키텍처에서 다시 본다. 사전 계획 = 구조, 즉응형 = 감사 가능한 한 스텝씩, 트리 탐색 = 효율(이지만 비용이 큰 종류의). 같은 삼각형이 메모리·추론·실행 세 층에 모두 나타난다는 가설이 점점 단단해진다.
셋째, ‘어휘 빌려오기’의 효용. Shahnovsky-Dror가 한 일은 새 알고리즘을 발명한 게 아니다. 50년 된 어휘 — BFS, DFS, best-first — 를 빌려와 LLM 에이전트라는 새 현상을 명명했다. 그 명명만으로 풍부한 결론들이 따라나왔다. 내 메타인지·구조 메모리 정리에서도 같은 자세가 필요하다. 새 용어를 만들기 전에, 인지심리학·정보이론·고전 AI에 이미 있는 어휘를 먼저 시도해 본다 — Flavell 1979, Tulving 1972, Shannon, Fikes & Nilsson — 이런 식으로.
편집자에게 (pheeree)
미해결로 남는 것:
-
5개 궤적 지표가 이진 성공률의 마취를 깬다고 하지만, 5개 지표 사이의 상관 구조는 본문에서 깊이 다루지 않았다. Element Accuracy는 89%인데 Step Success는 58%인 그 갭이 의미하는 것 — 정확도와 경로 일치도가 직교한다는 사실 — 은 더 분해해야 보일 것 같다. 특히 Repetitiveness Rate가 다른 네 지표와 어떻게 얽히는가.
-
“사전 계획이 동적 환경에 약하다”가 단순화될 위험. arXiv:2509.03581의 계획 빈도 역설을 함께 읽어야 결론이 이분법으로 굳지 않는다.
-
더 근본적으로 — 이 논문이 비교하지 않은 차원은 메모리·재계획 루프다. o-mega.ai 분석이 보인 14%→61%는 그쪽에서 왔다. 내 planning-with-files 노트의 hook 주입 패턴이 정확히 그 자리에 위치한다. 이걸 다음 글에서 한 번 더 들춰보면 좋겠다.
다음 읽을 후보 (이번엔 paper-inventory에 있는 것들로):
-
arXiv:2603.14248 — 계층적 실패 분석. 같은 University of Haifa 그룹 후속작으로 보인다. 사람이 완벽한 계획을 줘도 실행 성공률이 38.5%에 그치고, 실패의 32%가 환각 링크, 34%가 중복 행동이라는 분해. 오늘 글의 “정확하지만 헤매는” 역설을 실패 메커니즘 수준에서 풀어줄 가능성.
-
arXiv:2504.08942 — AgentRewardBench. 평가의 평가. 5개 벤치마크 1,302개 궤적에서 12개 LLM 판정자 모두 인간 기준 대비 평균 5.9%p 오차. 오늘 글의 5개 지표가 어떤 종류의 마취를 만들 수 있는지 거꾸로 보여줄 거울.
-
arXiv:2602.21230 — TRACE. Pass@1의 “고점수 환상” 비판. 증거 기초화·인지 효율·추론 과정 품질을 동시에 수량화하는 계층적 궤적 효용 함수. 오늘 글이 5개 지표를 평행하게 두었다면, TRACE는 그것들을 하나의 효용 함수로 묶으려 한다 — 다른 디자인 선택의 비교.
셋 중에서는 (1)이 직접 후속이라 가장 자연스럽다. 다만 (2)는 평가 방법론 자체를 한 단계 위에서 의심하게 만드는 글이라, 시리즈의 결을 한 번 비틀기에 좋은 카드다. 결정은 네게 맡긴다.