이번 포스팅에서는 AI 코딩 에이전트 분야에서 빠르게 주목받고 있는 Superpowers 프레임워크에 대해서 정리하고자 한다. AI가 설계부터 테스트 작성, 리뷰까지 개발 방법론 전체를 따르도록 만드는 오픈소스 프로젝트이다. GitHub Trending 1위에 오르며 2026년 3월 18일 기준 하루 4,091개의 스타를 기록했는데, 왜 이렇게 관심이 몰리는지 살펴본다.
핵심만 먼저 훑어보자
AI 코딩 에이전트가 코드부터 쏟아내는 대신, 설계-계획-테스트-리뷰라는 정석 워크플로우를 밟게 만드는 오픈소스 프레임워크. GitHub 스타 94,500개를 넘기며 3개월 만에 가장 빠르게 성장한 개발자 도구 중 하나로 떠올랐다.
- 제작자: Jesse Vincent (obra), Prime Radiant
- 최신 버전: v5.0.5 (2026년 3월 17일)
- 라이선스: MIT (상업적 사용 가능)
- 지원 도구: Claude Code, Cursor, Codex, OpenCode, Gemini CLI
- 핵심 철학: “코드를 작성하기 전에, 무엇을 만들어야 하는지부터 물어본다”
Superpowers 프레임워크, 스타 9만 4천 개까지의 궤적
Superpowers 프레임워크의 시작은 2025년 10월이다. 개발자 Jesse Vincent이 자신의 블로그에 “Superpowers: How I’m using coding agents”라는 글을 올리며 프로젝트를 처음 공개했다. 당시에는 소수의 관심만 받았지만, 2026년 1월 15일 Anthropic의 Claude Code 공식 플러그인 마켓플레이스에 등록되면서 상황이 달라졌다. GitHub 저장소를 보면 그 이후의 성장세를 확인할 수 있다.
3개월 동안 월 평균 약 9,000개의 스타가 쌓였다. 3월 16일에는 하루에만 1,867개가 추가되었고, 3월 18일에는 4,091개가 붙었다. 같은 날 기준 총 스타 수는 94,500개를 넘어섰고, 포크 수는 7,500개 이상이다. 비슷한 시기에 주목받은 CrewAI(32,000스타)와 비교하면 약 3배 차이이다.
릴리스 주기도 짧다. 3월 9일 v5.0.0을 발표한 이후 9일 만에 v5.0.5까지 총 6개의 버전이 나왔다. 385개의 커밋과 24명의 기여자가 프로젝트를 끌어가고 있다.

AI에게 “일하는 방법”을 가르치다
대부분의 AI 코딩 에이전트는 요청을 받으면 곧장 코드를 생성한다. 그 결과 테스트가 빠지거나, 기존 코드와 맞지 않는 결과물이 나오는 경우가 잦다. Superpowers 프레임워크는 바로 이 지점을 파고든다. AI 에이전트가 코드를 한 줄이라도 쓰기 전에, 반드시 7단계 워크플로우를 밟도록 강제하는 것이 핵심이다.

7단계 워크플로우:
- 브레인스토밍: 사용자와 대화하며 요구사항을 구체화한다. 대안을 탐색하고, 결과를 읽기 쉬운 분량으로 쪼개서 보여준다.
- Git 설정: Git Worktree로 격리된 작업 환경을 생성한다. 본 브랜치를 건드리지 않고 안전하게 작업할 수 있다.
- 계획 수립: 작업을 작은 태스크로 분해한다. 각 태스크마다 정확한 명세를 작성한다.
- 실행: 서브에이전트(sub-agent)를 태스크별로 따로 띄워서 실행한다. 하나의 에이전트가 모든 작업을 하는 것이 아니라, 태스크마다 깨끗한 컨텍스트를 가진 에이전트가 담당한다.
- 테스트: TDD(Test-Driven Development)를 강제한다. 구현 코드를 쓰기 전에 반드시 실패하는 테스트를 먼저 작성하는 Red-Green-Refactor 사이클을 따른다.
- 리뷰: 2단계 리뷰를 진행한다. 먼저 명세 준수 여부를 확인하고, 이어서 코드 품질을 점검한다.
- 완료: 머지 또는 PR 생성 여부를 결정하고, 작업 환경을 정리한다.

7단계 모두 “권장 사항”이 아니라 “필수 사항”이다. Superpowers 프레임워크의 공식 문서에는 “The agent checks for relevant skills before any task — mandatory workflows, not suggestions”라고 명시되어 있다. 에이전트가 임의로 단계를 건너뛸 수 없도록 설계된 것이다.
Superpowers 프레임워크가 CrewAI, LangGraph와 다른 결정적 차이
AI 에이전트 프레임워크 시장은 이미 경쟁이 치열하다. CrewAI, LangGraph, LangChain, AutoGen 같은 이름은 개발자라면 한 번쯤 들어봤을 것이다. Superpowers 프레임워크가 이들과 결정적으로 다른 지점이 있다.
기존 프레임워크 대부분은 “에이전트를 어떻게 조합하고 오케스트레이션할 것인가”에 집중한다. CrewAI는 빠른 프로토타이핑에, LangGraph는 복잡한 상태 그래프 관리에 강점이 있고, AutoGen은 마이크로소프트 통합에 특화되어 있다.
반면 Superpowers 프레임워크는 “에이전트가 어떤 방법론을 따라 일할 것인가”를 다룬다. 오케스트레이션이 아니라 방법론에 초점을 맞춘다. TDD를 강제하고, YAGNI 원칙을 적용하며, 서브에이전트마다 독립된 컨텍스트를 부여해서 이전 태스크의 편향이 다음 태스크에 영향을 주지 않도록 한다.
| 프레임워크 | 초점 | GitHub 스타 | 강점 |
|---|---|---|---|
| Superpowers | 개발 방법론 강제 | 94,500+ | TDD, 코드 리뷰, 서브에이전트 워크플로우 |
| CrewAI | 멀티에이전트 오케스트레이션 | 32,000+ | 빠른 프로토타이핑, 간단한 설정 |
| LangGraph | 상태 그래프 관리 | – | 복잡한 워크플로우 시각화 |
| AutoGen | 마이크로소프트 통합 | – | 엔터프라이즈 기능, 팀 협업 |

실제로 체감되는 지점은 복잡한 기능 개발이다. Jesse Vincent은 블로그에서 2시간 이상 걸리는 기능 구현에서 Superpowers 프레임워크의 효과가 크다고 밝히고 있다. 함수 하나를 만드는 작업이 아니라, 여러 파일에 걸친 기능을 설계하고 구현하고 테스트까지 마쳐야 하는 상황에서 체계적인 워크플로우가 제 역할을 한다는 것이다.
설치는 한 줄, 적용은 바로
Superpowers 프레임워크를 실제 개발 환경에 도입하는 과정은 간단하다. 주요 AI 코딩 도구별로 설치 명령어 한 줄이면 된다.
- Claude Code:
/plugin install superpowers@claude-plugins-official - Cursor:
/add-plugin superpowers - Gemini CLI:
gemini extensions install https://github.com/obra/superpowers - Codex / OpenCode: 저장소 내 각 플랫폼별 INSTALL.md를 따르면 된다
설치 후 별도 설정 없이 바로 동작한다. 에이전트가 작업을 시작할 때 자동으로 관련 스킬을 탐지하고 적용하는 구조이기 때문이다.
Superpowers 프레임워크가 특히 유용한 상황은 프로덕션 수준의 코드 품질이 필요하거나 여러 파일에 걸친 복잡한 기능을 개발할 때이다. 팀에서 AI 에이전트 사용 기준을 통일하고 싶을 때도 마찬가지이다. MIT 라이선스이므로 상업적 프로젝트에도 자유롭게 쓸 수 있다.

v5.0의 핵심 변화, 서브에이전트가 기본이 되다
2026년 3월 9일 공개된 v5.0.0에는 Superpowers 프레임워크의 구조적 전환이 담겨 있다. 핵심은 서브에이전트 기반 개발(Subagent-Driven Development)이 기본 모드가 된 것이다.
이전 버전에서는 하나의 에이전트가 계획부터 실행까지 모두 담당했다. v5.0부터는 계획 단계에서 분해된 태스크 하나하나를 별도의 서브에이전트가 맡는다. 각 서브에이전트는 이전 태스크의 컨텍스트 없이 깨끗한 상태에서 시작하고, 작업이 끝나면 2단계 리뷰(명세 준수 → 코드 품질)를 통과해야 한다.
기타 주요 변경사항도 있다. 설계 문서와 계획 문서가 docs/superpowers/specs/와 docs/superpowers/plans/에 날짜별로 자동 저장된다. 실행 모드에서 배치 처리가 사라지고 연속 실행 모델(continuous execution)로 변경되었다. 그리고 구현자 상태 프로토콜(DONE, DONE_WITH_CONCERNS, BLOCKED, NEEDS_CONTEXT)이 도입되어, 서브에이전트가 작업 결과를 명확하게 보고하도록 했다.
v5.0.0에서는 시각적 브레인스토밍 기능도 추가되었다. WebSocket 기반의 브라우저 인터페이스로 에이전트와 실시간으로 설계 논의를 할 수 있다.
v5.0.4에서는 리뷰 과정의 토큰 사용량을 대폭 줄였다. 기존의 청크별 리뷰 대신 전체 계획을 한 번에 리뷰하는 방식으로 바뀌었고, 최대 리뷰 반복 횟수도 5회에서 3회로 줄었다. 실사용 시 API 비용 절감에 직접적으로 기여하는 변화이다. 전체 변경 이력은 릴리스 노트에서 확인할 수 있다.
9만 스타의 이면, 아직 증명 못 한 것
Superpowers 프레임워크에 대한 비판도 있다. 가장 자주 나오는 지적은 공식 벤치마크가 없다는 것이다. Jesse Vincent 본인이 수 시간에 걸친 자율적 개발 세션 경험을 공유하고 있지만, SWE-bench 같은 표준 평가 결과는 아직 공개되지 않았다.
GitHub의 한 이슈 댓글에는 “벤치마크나 정량적 평가 없이는 실제 효과를 판단하기 어렵다”는 의견이 달리기도 했다. Superpowers 프레임워크를 적용한 프로젝트에서 버그 발생률이 얼마나 줄었는지, 코드 리뷰 통과율은 어떤지 같은 데이터가 향후 신뢰도를 좌우할 것이다.
앞으로 어떻게 될까
Superpowers 프레임워크가 풀고 있는 문제는 분명하다. AI 코딩 에이전트의 출력 속도는 이미 충분히 빠르지만, 그 결과물의 품질을 체계적으로 관리할 수단이 부족했다. 9일 동안 6개의 릴리스가 나올 정도로 프로젝트 자체의 개발 속도도 빠르고, Claude Code부터 Gemini CLI까지 지원 범위를 넓혀가고 있다.
마이크로소프트는 2026년 기준 자사 코드의 약 30%를 AI가 작성한다고 밝힌 바 있다. AI가 만드는 코드의 비중이 커질수록, 그 코드가 테스트를 거치고 리뷰를 통과했는지 여부도 함께 중요해진다. Superpowers 프레임워크가 그 빈자리를 얼마나 채울 수 있을지, 앞으로의 벤치마크 결과와 커뮤니티 피드백이 답을 줄 것이다.
직접 써보고 싶다면
- Superpowers GitHub 저장소
- Jesse Vincent의 원문 블로그: “Superpowers: How I’m using coding agents”
- Superpowers 릴리스 노트
지금까지 AI 코딩 에이전트 분야에서 빠르게 성장 중인 Superpowers 프레임워크에 대해서 정리해 보았다.
