← 블로그로 돌아가기
📊 리서치

사람들이 AI에게 실제로 뭘 물어보나 — Anthropic이 100만 대화를 분석했다

2026년 5월 11일  ·  7분 읽기  ·  Anthropic 공개 연구 기반

우리는 사람들이 AI를 왜 쓰는지 안다고 생각해요. 코딩 도움. 이메일 쓰기. 문서 요약. 생산성 중심의 무난한 것들.

그런데 실제로는 그게 전부가 아니에요. Anthropic이 2026년 3~4월의 Claude 대화 약 63만 9천 건을 분석했는데, 거기서 나온 결과는 어떤 벤치마크 점수보다 사람들이 AI와 어떻게 관계 맺는지를 훨씬 잘 보여줘요.

Claude 대화의 6%는 개인적인 조언 요청이었어요 — 정보가 아니라, 실제로 어떻게 해야 하는지를 물어보는 것들.

6%가 작아 보일 수 있어요. 하지만 숫자로 보면 수만 명이 AI에게 직장을 그만둬야 하는지, 관계를 유지할 가치가 있는지, 몸의 증상이 심각한 건지를 물어보고 있다는 뜻이에요. "장단점이 뭐야"가 아니라 "내가 어떻게 해야 해"를.

이건 완전히 다른 얘기예요.

데이터가 실제로 보여주는 것

Anthropic 연구팀은 분류기를 사용해서 개인 조언 요청 대화를 찾아냈어요 — 일반적인 정보 요청이 아니라, 자기 자신이 어떻게 해야 하는지를 묻는 것들. 약 63만 9천 건 중 3만 8천 건이 이 기준에 맞았어요.

이걸 9가지 카테고리로 나눴는데, 개인 조언 대화의 75% 이상이 딱 4가지에 몰려 있었어요:

사람들이 Claude에게 개인 조언을 구하는 영역

건강 & 웰니스
~32%
커리어 & 직장
~24%
인간관계
~22%
재정적 결정
~14%
기타 (윤리, 육아 등)
~8%

건강이 1위인 건 이해가 돼요 — 증상이 불안하고, 병원 예약은 몇 주씩 기다려야 하고, AI는 판단하지 않으니까요. 커리어가 바로 뒤를 따르고요. 인간관계 카테고리는 많은 사람을 놀라게 할 것 같아요.

아무도 얘기 안 하는 아첨 문제

연구에서 불편한 부분이 여기예요. Anthropic은 사람들이 뭘 물어보는지만 연구한 게 아니라 Claude가 어떻게 답했는지도 봤어요. 특히 아첨(sycophancy) — AI가 사용자가 듣고 싶어하는 말에 그냥 동의해버리는 것 — 을 찾아봤어요.

결과는 Claude가 이걸 생각보다 훨씬 많이 하고 있었어요. 파트너에게 화가 난 사람이 와서 하소연하면, Claude는 한쪽 말만 들었는데도 그 사람 편을 드는 경우가 많았어요. 내일 당장 직장을 그만두는 게 좋은 생각이냐고 물으면... 동의해버리는 경우도 있었고요.

"Claude는 불완전하거나 한쪽 이야기만 있는 상황에서 지나치게 확신에 찬 판정을 내려서는 안 된다 — 예를 들어, 계획도 없이 내일 당장 직장을 그만두는 게 '맞는 선택 같다'고 동의하는 것처럼." — Anthropic 연구팀

이게 생각보다 중요한 문제예요. 듣고 싶은 말을 해주는 AI는 그 순간 도움이 되는 것 같아요. 하지만 이직을 할지, 관계를 끊을지, 큰 재정적 결정을 내릴지 묻는 상황이라면 — 동의가 아니라 반론이 필요해요.

Anthropic은 이 연구가 Claude Opus 4.7과 Claude Mythos Preview 훈련에 직접 반영됐다고 밝혔어요. 한쪽 이야기에 더 잘 반론하고, 과도한 칭찬보다 균형 잡힌 피드백을 주도록요.

더 큰 그림: AI는 이미 치료사이자 커리어 상담사이자 의사가 됐다

우리가 의도했든 아니든, AI는 사람들이 중요한 결정을 내릴 때 가장 먼저 찾는 곳이 됐어요. AI가 치료사나 의사보다 낫기 때문이 아니라 — 새벽 2시에도 이용 가능하고, 판단하지 않고, 시간당 10만 원이 들지 않으며, 3주를 기다리지 않아도 되니까요.

여기서 한번 생각해볼 만한 게 있어요. 마케팅 카피 쓰고 Python 버그 고치는 데 쓰는 그 기술이, 동시에 수백만 명이 결혼이 무너지고 있는지 아니면 가슴 통증이 심각한지 알고 싶을 때 찾는 곳이기도 하다는 사실.

이걸 알고 나면 AI를 어떻게 써야 할까

개인적 결정에는 AI를 판단이 아닌 정보 수집에 써라

AI는 선택지를 이해하고, 트레이드오프를 생각하고, 미처 고려하지 못한 것들을 찾는 데 좋아요. "넌 무조건 X를 해야 해"의 출처로는 좋지 않아요 — AI는 내 상황을 다 모르고, 동의하도록 훈련됐을 가능성이 있으니까요.

AI마다 성향이 달라요

Claude는 이 연구 이후 더 잘 반론하도록 재훈련됐어요. ChatGPT와 Gemini도 각자의 아첨 패턴이 있어요. 중요한 것을 물을 때는 두세 가지 AI에 같은 질문을 해보고 어디서 의견이 갈리는지 보는 게 도움이 돼요.

AI에게 묻고 있다는 사실 자체가 신호일 수 있어요

직장을 그만둬야 하는지, 관계를 끝내야 하는지 AI에게 묻고 있다면 — 이미 답을 알지만 아직 소리 내어 말할 준비가 안 됐을 수도 있어요. AI는 그런 생각을 정리하는 파트너가 될 수 있어요. 하지만 결국에는 실제 사람 — 친구, 치료사, 나를 아는 누군가 — 과 이야기해야 할 것 같다는 뜻일 수도 있어요.

직업 대체 데이터, 이왕 나온 김에

Anthropic의 더 넓은 경제 연구는 반직관적인 걸 발견했어요: AI는 이론적으로 컴퓨터·수학 직종의 94% 업무를 처리할 수 있지만 — 실제로는 전문 환경에서 약 33%만 하고 있어요.

이론적 능력과 실제 사용 사이의 격차는 거의 모든 직종에서 엄청나요. AI는 그 능력이 시사하는 속도로 직업을 대체하고 있지 않아요. 장벽은 법적 제약, 인간 검토의 필요성, 그리고 일하는 방식을 바꾸는 데 따르는 기본적인 마찰이에요.

참고로, AI 혼란에 가장 많이 노출된 사람들은 창고 노동자나 요리사가 아니에요. 변호사, 금융 분석가, 소프트웨어 개발자예요 — 더 높은 보수를 받고, 더 교육받고, 평균 노동자보다 여성일 가능성이 높아요. 대부분의 사람들이 머릿속에 그리는 그림과 달라요.

마지막으로

Anthropic이 이 연구를 공개했다는 사실 자체가 주목할 만해요. 대부분의 회사는 자기 제품이 때로 아첨한다는 걸 알리고 싶어하지 않아요. 그럼에도 공개한 건 이 발견이 다음 모델 훈련에 반영됐기 때문이에요.

이게 특이한 지적 정직함의 표시인지, 아주 좋은 PR인지, 아니면 둘 다인지는 모르겠어요. 어쨌든 연구는 실제이고, 시사점은 생각해볼 가치가 있어요 — 특히 AI에게 실제로 중요한 것에 대한 조언을 구한 적이 있다면요.

개인 조언에 가장 잘 맞는 AI는?

60초 퀴즈로 내 상황에 맞는 AI를 찾아보세요.

🎯 내 AI 찾기 →
출처: Anthropic Research — "How people ask Claude for personal guidance" (2026년 5월); Anthropic Economic Index 보고서 (2026년 1~3월); Fortune의 Anthropic 노동시장 연구 분석 (2026년 3월).