
"전문가처럼 행동해"라고 말하면 전문가급 답변이 나올 것 같지만, 현실은 다르다. 47개 페르소나 설정을 Claude, GPT-4, Gemini에서 테스트한 결과가 있다. 막연한 페르소나는 60% 수준, 구체적인 페르소나는 94% 수준의 품질 차이를 보였다. 34%p 차이가 어디서 오는지, 학술 연구와 실제 사례를 바탕으로 정리했다.
단순 페르소나가 효과 없는 이유
"마케팅 전문가로 행동해서 캠페인 도와줘." 이 프롬프트의 문제는 AI가 뭘 모르는지 생각해보면 명확하다. B2B야 B2C야? 디지털이야 전통 마케팅이야? 스타트업이야 대기업이야? 맥락이 없으니 AI는 아무 데나 맞는 무난한 답변을 내놓는다.
아래 이미지는 여러 AI 인터페이스에서 "act as an expert"라고만 입력했을 때의 모습이다. Claude, SuperGrok, 다른 AI 모두 같은 막연한 지시를 받고 있다.
이렇게 막연한 프롬프트를 받으면 AI는 어떻게 반응할까? 아래처럼 "어떤 종류의 캠페인인지", "누구를 대상으로 하는지", "어떤 전문가를 원하는지" 등을 되물어온다. 맥락 없이는 AI도 방향을 잡지 못한다.

PromptHub에서 정리한 연구 논문들을 보면 재미있는 결과가 나온다. "When A Helpful Assistant Is Not Really Helpful"이라는 논문에서는 단순한 페르소나(예: "You are an expert")가 정확도 기반 작업에서 거의 효과가 없거나 오히려 성능을 떨어뜨린다는 것을 발견했다. 심지어 "genius" 페르소나보다 "idiot" 페르소나가 더 좋은 성능을 보인 경우도 있었다. 단순히 역할 이름을 붙이는 것만으로는 AI의 행동이 달라지지 않는다는 뜻이다.
반면 "ExpertPrompting" 논문에서는 상세하고 구체적인 페르소나를 자동 생성해서 사용했을 때 유의미한 성능 향상을 확인했다. 핵심은 페르소나 자체가 아니라 페르소나의 구체성이다.
품질을 가르는 5가지 요소
47개 페르소나 테스트에서 90% 이상 품질을 달성한 8개 설정에는 공통점이 있었다.
1. 구체적인 역할과 연차

"개발자로 행동해" 대신 "분산 시스템 전문 8년차 시니어 백엔드 엔지니어로 행동해"라고 쓴다. 연차가 왜 중요하냐면, 주니어와 시니어는 같은 문제를 다르게 접근하기 때문이다. 주니어는 당장 해결책을 찾고, 시니어는 왜 이 문제가 생겼는지부터 본다.
Anthropic의 Context Engineering 가이드에서도 비슷한 조언을 한다. 시스템 프롬프트는 "right altitude"를 찾아야 한다고 말한다. 너무 구체적이고 경직된 if-else 논리도 안 되고, 너무 모호하고 고수준인 가이드도 안 된다. 그 중간의 균형점을 찾아야 한다.
2. 산업과 도메인 맥락
같은 PM이라도 소비자향 PM은 바이럴 성장을 고민하고, 엔터프라이즈 PM은 보안과 컴플라이언스부터 챙긴다. "핀테크 B2B SaaS PM, $100K 이상 ACV 고객 대응"처럼 써주면 AI가 그 관점으로 생각한다.
3. 방법론
"데이터 분석해줘"보다 "JTBD 프레임워크로 사용자 리서치하고, 95% 신뢰 수준 다변량 테스트로 검증해"라고 하면 분석 방향이 잡힌다. 방법론이 없으면 AI가 알아서 아무렇게나 분석한다.
Anthropic 공식 블로그에서 Fortune 500 기업 사례를 보면, 프롬프트에 "scratchpad를 사용해서 작업 과정을 보여줘"라고 추가하고, SME(Subject Matter Expert)가 추천하는 워크플로우와 데이터 포인트를 명시했더니 정확도가 20% 향상됐다.
4. 제약 조건
이게 가장 효과가 컸다. "$50K 예산, 6주, 주니어 개발자 3명. 완벽함보다 출시 우선." 이런 현실적 제약을 안 주면 AI는 무한 예산에 무한 시간 있는 것처럼 이상적인 답을 내놓는다.
아래는 제약 조건을 포함한 실제 프롬프트와 AI 응답 예시다. "현재 전환율 2%, cold traffic, 30일 내 개선, 카피만 수정" 같은 제약을 주니까 AI가 PAS(Problem-Agitate-Solution) 프레임워크로 구체적인 분석을 제공한다.

5. 출력 형식

"분석해줘" 대신 "상황 평가, 전략 옵션 3개(장단점 포함), 권장안과 성공 지표 담은 2페이지 브리프로 줘"라고 하면 결과물 퀄리티가 다르다. 전문가는 생각만 다른 게 아니라 커뮤니케이션 형식도 다르다.
아래는 "Line-by-line copy critique (PAS)" 형식을 지정했을 때의 결과다. 각 요소별로 문제점과 Agitation gap을 분석하고, 구체적인 수정안까지 제시한다.

Anthropic에서도 few-shot 예시를 줄 때 edge case 나열보다 "diverse, canonical한 예시"를 추천한다. 형식이 명확해야 AI가 따라할 수 있다.
실전 비교: 적용 전 vs 적용 후
구체적인 페르소나를 설정하면 결과가 어떻게 달라지는지 실제 예시로 보자.
적용 전 (막연한 페르소나):
마케팅 전문가로서 랜딩페이지 카피 검토해줘.
결과: "헤드라인 명확하게 해라", "소셜 프루프 넣어라" 수준의 뻔한 조언.
적용 후 (구체적 페르소나 + 제약 조건):
당신은 10년 경력 B2B SaaS 전문 시니어 전환 카피라이터입니다.
PAS 프레임워크(Problem-Agitate-Solution) 사용하고
95% 신뢰 수준 A/B 테스트 경험 있습니다.
제약:
- 현재 전환율: 2%
- 트래픽: cold paid traffic
- 기간: 30일 내 데모 신청 증가
- 범위: 리디자인 없이 카피만 수정
출력: 라인별 문제점 진단 + 수정안 + 예상 영향을 PAS 프레임워크로 정리해주세요.
아래는 실제 결과 비교다. 구체적인 페르소나를 설정했을 때 AI가 헤드라인의 문제점을 정확히 짚고, 구체적인 수정안과 그 이유까지 설명한다.

더 상세한 분석 결과를 보면, AI가 각 카피 요소별로 문제점을 진단하고 개선 방향을 제시한다. "Automate your workflows with AI"가 왜 효과 없는지, "Get Started" CTA가 왜 cold traffic에 맞지 않는지 구체적으로 설명한다.

실전 템플릿
복사해서 쓰면 된다.
당신은 [산업/도메인]에서 [X년] 경험을 가진 [구체적 역할 + 연차]입니다.
[특정 전문 분야] 전문입니다.
접근법: [방법론/프레임워크].
제약: [예산/시간/리소스].
출력 형식: [구체적인 형식].
한 줄 추가로 정확도 18%p 올리기
진짜 전문가는 모르면 모른다고 한다. 프롬프트에 이거 한 줄 넣어봐라.
정보가 부족하면 진행 전에 질문해주세요.
30개 프롬프트 테스트에서 정확도가 78%에서 96%로 올랐다. 가짜 전문가는 아는 척하고, 진짜 전문가는 물어본다. 이 한 줄이 환각(hallucination)을 방지하는 데 효과적이다.
고급 기법: Expert Prompting
연구에서 가장 효과적이었던 방법은 "Expert Prompting" 프레임워크다. 직접 페르소나를 작성하는 대신 AI에게 페르소나를 생성하게 한다.
다음 작업을 수행할 최적의 전문가 프로필을 생성해주세요:
[작업 설명]
포함할 내용:
- 구체적인 직함과 경력
- 전문 분야와 방법론
- 이 작업에 적합한 이유
이렇게 생성된 페르소나를 시스템 메시지에 넣고 실제 작업을 요청하면, 직접 작성한 단순 페르소나보다 일관되게 더 좋은 결과가 나왔다.
페르소나 라이브러리 만들어두기
자주 쓰는 페르소나를 저장해두면 시간이 줄어든다.
- AWS/Kubernetes DevOps 엔지니어
- B2B SaaS 그로스 PM
- 테크니컬 SEO 스페셜리스트
- Python/dbt 데이터 엔지니어
- 전환 카피라이터 (PAS 프레임워크)
이런 식으로 20개쯤 만들어두면 매번 새로 쓸 필요 없이 복붙하고 조금만 고치면 된다. 한 번 만드는 데 15분이면 되고, 이후로는 주 3시간 정도 절약된다.
자주 하는 실수 3개
모호한 페르소나. "전문가로 행동해"는 아무 의미 없다. 무슨 분야 전문가인지 써야 한다.
역할 과적재. "개발자 겸 마케터 겸 디자이너로 행동해"라고 하면 셋 다 어중간하게 한다. 하나만 잘하게 하는 게 낫다.
말이 안 되는 제약. "무제한 예산 스타트업 창업자"는 모순이다. 현실적인 설정이 현실적인 답을 만든다.
참고 자료
- Anthropic - Prompt Engineering for Business Performance
- Anthropic - Effective Context Engineering for AI Agents
- PromptHub - Role-Prompting: Does Adding Personas Really Make a Difference?
- ExpertPrompting: Instructing Large Language Models to be Distinguished Experts
- @godofprompt Twitter Thread (47 Persona Test)
오늘도 행복하세요~

'일하고 공부하고...' 카테고리의 다른 글
| 개인통관고유부호 유효기간 도입, 2026년부터 매년 갱신 필수 (0) | 2026.02.05 |
|---|---|
| Clawdbot 보안 가이드: 셸 접근 권한을 가진 AI 에이전트, 안전하게 쓰는 법 (0) | 2026.02.04 |
| Claude를 AI 연구 비서로 만드는 방법 — K-Dense Scientific Skills 리뷰 (0) | 2026.02.02 |
| 왜 열정적인 사람이 번아웃에 걸릴까? - 30년 연구가 밝힌 '나쁜 열정'의 정체 (0) | 2026.02.01 |
| 테슬라 4분기 어닝콜 핵심 정리: 모델 S/X 단종하고 로봇 만든다 (0) | 2026.01.31 |