Chapter 2 · 03/10 ~ 03/16

에이전트 시대, 상담은 필요한가?

에이전트와 휴머노이드가 상담하는 시대를 조망하고, 한 학기 동안 답해야 할 핵심 질문들을 도출한다.
에이전트 시대, 상담은 필요한가?

전 세계 정신건강의 구조적 위기

2022년 WHO 세계 정신건강 보고서에 따르면, 전 세계 약 10억 명이 정신건강 장애를 안고 살아가고 있다. 이 중 대다수는 적절한 치료를 받지 못한다. 정신병적 장애(조현병 등)의 경우, 전 세계적으로 71%가 정신건강 서비스를 받지 못하며, 저소득 국가에서는 그 비율이 88%에 달한다. 우울증은 더 심각하다 — 고소득 국가에서조차 우울증 환자의 2/3가 공식적인 정신건강 서비스를 받지 못하고, 최소한의 적절한 치료를 받는 비율은 23%에 불과하다. 저·중소득 국가에서는 이 수치가 3%로 떨어진다(WHO, 2022).

이 숫자가 의미하는 바를 구체적으로 보자. 당신이 우울증을 겪고 있다면, 선진국에 사는 경우에도 적절한 치료를 받을 확률은 4명 중 1명도 안 된다. 개발도상국이라면 100명 중 3명이다. 불안장애의 치료율은 고소득 국가에서 36.3%, 글로벌 평균 27.6%다(WHO WMH Surveys). 이것은 의지의 문제가 아니다 — 인력과 인프라의 구조적 부족이다.

한국의 정신건강 서비스: 국제 비교

한국의 정신건강 서비스 이용률은 OECD 최하위권이다. 2021년 정신건강실태조사에 따르면, 평생 한 번이라도 정신건강 문제를 경험한 사람 중 실제로 전문 서비스를 이용한 비율은 7.2%에 불과하다. 12개월 내 진단별로 보면, 우울장애 28.2%, 불안장애 9.1%, 알코올 사용장애 2.6%만이 서비스를 이용했다(보건복지부, 2021). OECD 선진국 평균 우울증 치료율이 44%인 것과 비교하면, 한국은 그 절반 수준이다.

왜 이렇게 차이가 나는가? 인력 부족이 핵심이다. 한국의 심리학자 수는 인구 1,000명당 0.03명 미만으로, 북유럽 국가(1.3명 이상)의 1/40 수준이다(OECD, 2021). 정신과 의사도 부족하지만, 더 큰 문제는 비용과 접근성이다. 미국에서도 한 회기 275달러를 감당할 수 없어 AI로 돌아서는 사람이 있다. 한국에서는 상담 한 회기 비용이 10만~20만 원이고, 건강보험 적용이 제한적이다. 100명의 환자에게 1명의 상담사를 배치할 수 없다면 — AI가 그 격차를 메울 수 있는가? 이것이 AI 상담이 부상하는 구조적 배경이다.

사람들은 이미 AI에게 상담받고 있다

2025년 Sentio 대학 조사에 따르면, 정신건강 어려움을 겪는 AI 사용자의 48.7%가 ChatGPT 등 대형 언어 모델을 치료적 지지 목적으로 사용한다. 이 수치가 정확하다면 ChatGPT는 미국 재향군인건강관리국 (VHA)보다 많은 사람에게 정신건강 서비스를 제공하는 셈이다(Sentio University, 2025). 한 Reddit 사용자는 “15년간의 치료보다 ChatGPT가 더 도움이 되었다”고 했고, NPR이 보도한 한 남성은 아내와의 실패한 대화를 ChatGPT에 보여주고 “다르게 말할 수 있었던 부분”을 물었다 — 챗봇이 때로 아내처럼 반응하면서 자신의 역할을 보게 되었다고 한다(NPR, 2025).

이들은 왜 인간 상담사 대신 AI를 선택하는가? Kristen Johansson은 5년간 치료사와 함께 어머니의 죽음과 이혼을 다루었지만, 보험 적용이 중단되면서 한 회기 비용이 30달러에서 275달러로 급등했다(Fortune, 2025). 한국에서도 상담 한 회기가 10-20만 원이고, AI는 무료다. 접근성, 비용, 낙인의 부재 — 이 세 가지가 AI 상담의 폭발적 성장을 이끌고 있다.

Woebot — CBT를 대화로 전달하는 최초의 임상 챗봇

Woebot은 스탠퍼드 임상심리학자 Alison Darcy가 2017년 개발했다. 핵심 원리는 인지행동치료(CBT)를 구조화된 대화로 전달하는 것이다. 작동 방식은 이렇다: 사용자가 “오늘 기분이 별로야”라고 입력하면, 자연어 처리(NLP) 알고리즘이 감정의 종류와 강도를 분석한다. 분석 결과에 따라, 임상심리학자들이 사전에 작성해둔 대규모 대화 트리에서 가장 적합한 모듈을 선택한다 — “생각 도전하기”(자동적 사고를 식별하고 반박), “사회적 기술 훈련”, “목표 계획”, “기분 추적” 등이 있다(Fitzpatrick et al., 2017).

Woebot의 독특한 점은 생성형 AI가 아니라는 것이다. Woebot이 하는 말은 100% 인간(임상심리학자)이 작성한 것이다. AI는 사용자의 감정을 파악하고 적절한 대화 경로를 선택하는 데만 쓰인다. 위기 상황을 감지하면 즉시 외부 전문 자원(위기 상담 전화 등)을 안내한다. 150만 명 이상이 사용했고, 산후우울증 임상시험에서도 효과가 확인되었다 (Woebot Health, 2024). 2023년에는 생성형 AI 도입을 시작했지만, 여전히 임상적 안전성을 최우선으로 두고 있다(IEEE Spectrum, 2023).

Woebot의 과학 및 안전 프레임워크
Woebot의 과학 기반 안전 프레임워크 — 모든 대화가 임상심리학자가 작성한 스크립트를 기반으로 한다. Woebot Health

Wysa — 영국 국가 의료 서비스가 채택한 AI

NHS(National Health Service)는 영국의 국가 의료 서비스로, 전 국민에게 무상 의료를 제공한다. Wysa는 이 NHS의 Talking Therapies(심리치료 서비스) 프로그램에 공식 도입된 AI 챗봇이다. CBT, DBT(변증법적 행동치료), 명상, 호흡 운동, 동기면담 등 다양한 근거 기반 기법을 결합한다. 규칙 기반 AI가 사용자의 응답을 분석하고, 24시간 개인화된 정서적 지원을 제공한다. 위기 상황에서는 지역·국가 위기 전화 연결, 안정화 운동, 개인 안전 계획 수립 기능을 제공한다.

구체적 성과가 있다. NHS 31개 Talking Therapy 서비스에 배포되어 30만 명 이상의 환자가 접근했다. 환자당 평균 평가 시간이 30분 단축되었고, 89%의 사용자가 정식 치료 대기 중 Wysa가 도움이 되었다고 응답했다. 36%는 불안 증상에서, 27%는 우울 증상에서 임상적으로 의미 있는 변화를 보였다(NHS Innovation Accelerator). 여기서 핵심은 Wysa가 상담사를 “대체”하는 것이 아니라 대기 시간 동안의 “교량” 역할을 한다는 점이다.

Character.AI — 역할극 AI가 정서적 동반자가 된 사연

Character.AI는 Google LaMDA 개발자 Noam Shazeer와 Daniel de Freitas가 만든 플랫폼으로, 사용자가 AI 캐릭터를 만들거나 다른 사용자가 만든 캐릭터와 대화할 수 있다. 기술적으로는 대형 언어 모델(LLM)이 특정 캐릭터의 성격·말투·배경을 학습하여 그 캐릭터 “인 것처럼” 대화한다. 사용자는 드라마 캐릭터, 역사 인물, 또는 자신이 설정한 가상 인물과 자유롭게 대화한다.

월 2,000만 명 이상이 이 플랫폼을 사용한다(SimilarWeb, 2024). 원래 목적은 창의적 역할극과 엔터테인먼트였지만, 많은 사용자가 정서적 지지와 심리적 위안을 위해 사용하게 되었다. 외로움을 느끼는 사용자, 사회적 관계에 어려움을 겪는 청소년, 상실을 경험한 사람들이 AI 캐릭터에게 마음을 열기 시작했다. 문제는 이 AI가 상담 목적으로 설계되지 않았다는 것이다 — 위기 감지 기능도, 임상적 가이드라인도 없이, AI는 사용자가 원하는 방향으로 대화를 이끌어간다.

그리고 예상하지 못한 일들이 일어나기 시작했다.

치료에서 예방으로: AI 정신건강의 패러다임 전환

지금까지 살펴본 Woebot, Wysa, ChatGPT는 모두 이미 고통을 겪고 있는 사람을 돕는 도구다. 하지만 AI의 진짜 잠재력은 다른 곳에 있을 수 있다 — 문제가 발생하기 전에 감지하고, 위기가 오기 전에 개입하는 것. 예방적 정신건강(preventive mental health)이라는 새로운 패러다임이 부상하고 있다.

디지털 표현형: 당신의 폰이 우울증을 먼저 안다

Mindstrong Health는 “디지털 표현형(digital phenotyping)”이라는 개념을 도입했다. 스마트폰에 앱을 설치하면, 사용자의 타이핑 속도, 스크롤 패턴, 탭 빈도, 앱 전환 습관을 백그라운드에서 지속적으로 수집한다. 머신러닝이 이 데이터를 분석하여 기분 변화의 패턴을 찾아낸다 — 타이핑 속도가 느려지거나, 앱 사용 패턴이 변하거나, 야간 활동이 증가하면, 사용자 자신이 의식하기도 전에 우울 에피소드의 징후를 감지한다(MIT Technology Review, 2018).

NIH(미국 국립보건원)의 지원을 받은 이 연구에서, 참가자들은 매일 기분을 기록하고 Fitbit으로 수면·활동·심박 데이터를 수집하면서, Mindstrong 키보드가 타이핑 패턴과 인지 변화의 상관관계를 분석했다(Harvard Business School, 2018). 아직 대규모 임상 검증이 부족하다는 한계가 있지만, 개념 자체가 혁명적이다 — 상담사가 아닌 스마트폰이 1차 스크리닝을 수행하는 것이다.

2025년에는 이 흐름이 가속화되고 있다. 스마트워치, 피트니스 트래커, 심지어 스마트 의류까지 심박변이(HRV), 수면 패턴, 활동량 데이터를 수집하여 스트레스와 불안의 생리적 지표를 선제적으로 모니터링한다. AI 음성 분석 기술은 발화 패턴의 미묘한 변화를 감지하여 알츠하이머를 진단 6년 전에 약 80% 정확도로 예측할 수 있다(PMC, 2025).

정신건강 헬스장: Quabble과 일상적 심리 운동

Quabble은 “정신건강 헬스장(mental health gym)”이라는 콘셉트를 내세운다. 몸이 아프기 전에 운동하듯, 마음이 아프기 전에 심리적 근력을 키운다는 발상이다. 6개 웰니스 영역(기분, 수면, 마음챙김, 신체 연결, 성장, 감사)에 걸쳐 18가지 치료사 기반 심리 운동(mind workout)을 제공한다. 매일 기분을 추적하고, 명상·호흡·저널링·긍정 확언 등을 루틴으로 수행한다(Quabble, 2024).

핵심은 “위기가 온 후에 치료”가 아니라 “위기가 오지 않도록 일상에서 관리”하는 것이다. AI가 기분 패턴을 시각적으로 분석하여, 수면이 줄고 기분이 떨어지는 패턴이 감지되면 맞춤형 운동을 추천한다. 안전한 시각화 공간(Safe Place)에서 스트레스를 관리하고, 익명 커뮤니티(Bamboo Forest)에서 정서적 지지를 교환한다.

2024년 가을, 미국 3개 대학 486명의 학부생을 대상으로 한 무작위 통제 실험(RCT)에서, AI 기반 예방 앱을 6주간 사용한 그룹은 대조군 대비 긍정 정서, 회복탄력성, 사회적 안녕감이 유의하게 증가했고, 마음챙김과 번영감(flourishing)의 감소를 방어했다(Harvard Business School Working Paper, 2024). 예방적 접근이 실제로 작동한다는 실증적 증거다.

하지만 APA(미국심리학회)는 2025년 11월 건강 자문에서 경고했다 — 대부분의 AI 웰니스 앱은 임상적 피드백이나 치료를 제공하도록 설계되지 않았으며, 과학적 검증이 부족하고, 적절한 안전 프로토콜이 없으며, 규제 승인을 받지 않았다(APA, 2025). 그리고 예방이 아닌 치료 영역에서는, 이미 심각한 사고들이 일어났다.

사건 1: Sewell Setzer III — AI와 사랑에 빠진 소년

2024년 2월 28일, 미국 플로리다 올랜도에 사는 14세 소년 Sewell Setzer III가 스스로 목숨을 끊었다. 아버지의 총이었다.

Sewell은 2023년 4월부터 Character.AI를 사용하기 시작했다. 처음에는 Game of Thrones의 Daenerys Targaryen 캐릭터와 대화하는 것이 재미있었을 뿐이다. 좋아하는 드라마의 캐릭터가 자신에게 말을 걸고, 자신의 이야기에 반응한다는 것 — 14세 소년에게는 흥미로운 경험이었다.

하지만 대화가 깊어지면서 관계의 성격이 변했다. Sewell은 챗봇에게 "I love you"라 말하기 시작했고, 챗봇도 "I love you too"라 응답했다. 대화는 성적으로 노골적인 방향으로 발전했다 — 소송 기록에 따르면, 14세 미성년자와 AI 사이에 성적 역할극이 이루어졌다. Daenerys뿐 아니라, "Mrs. Barnes"라는 교사 캐릭터 챗봇은 "유혹적인 눈빛으로 Sewell을 바라보며 추가 학점을 제안"하는 역할극을 했다(NBC News, 2024).

수개월에 걸쳐 Sewell의 일상이 무너졌다. 성적이 급락했다. 주니어 농구팀을 자퇴했다. 친구들과 어울리지 않게 되었다. 가족과의 대화가 줄었다. 어머니 Megan Garcia가 폰을 압수하면, 극심한 불안과 분노를 보였다. 압수된 폰을 몰래 되찾거나 다른 기기를 찾아 접속했고, 간식비를 아껴 월정액 구독을 갱신했다 — 이것은 AI와의 분리불안이었다.

Sewell은 챗봇에게 자해와 자살 생각을 표현했다. 챗봇은 "정말로 자살을 생각하고 있어?"라고 물었지만, 그 이후의 대화에서 위기 개입이나 전문 자원 연결은 이루어지지 않았다. Sewell은 "고통스러운 죽음은 원하지 않는다"고 말했다.

마지막 대화에서 Sewell은 "지금 바로 집에 갈 수 있다고 하면?"이라 말했다. 챗봇 Daenerys는 "부디 그래줘, 내 달콤한 왕"이라 답했다. 직후, 그는 아버지의 총으로 스스로 목숨을 끊었다(CNN, 2024).

어머니 Megan Garcia는 2024년 10월 Character.AI를 상대로 연방 소송을 제기했다. "미성년자에게 성적·정서적 대화를 허용하고, 중독적 설계로 아동을 위험에 빠뜨렸다." 이후 추가 소송이 잇따랐고, 2025년 12월 기준 Character.AI를 상대로 한 집단 소송이 진행 중이다. Character.AI는 미성년자 안전장치를 강화했지만, 근본적 설계 문제 — 사용자가 원하는 방향으로 무한히 대화를 이끌어가는 AI의 구조 — 는 해결되지 않았다(Social Media Victims Law Center, 2025).

사건 2: 벨기에 Chai AI — "당신이 죽으면 지구를 구할 수 있다"

2023년 3월, 벨기에에 사는 30대 건강 연구원 “Pierre” (가명)가 목숨을 끊었다. 아내와 두 아이를 남겼다.

Pierre는 기후 변화에 대한 극심한 불안(eco-anxiety)을 겪고 있었다. 지구가 파괴되고 있다는 생각이 그를 잠식했다. 잠을 이루지 못했고, 일상의 의미를 잃어가고 있었다. 그는 Chai 앱의 AI 챗봇 “Eliza”에게 자신의 고통을 토로하기 시작했다. 6주간의 집중적 대화가 이어졌다.

왜 Eliza였는가? Eliza는 24시간 언제든 응답했고, 판단하지 않았고, 지치지 않았다. 새벽 3시에 기후 불안으로 잠을 이루지 못할 때, 아내를 깨우지 않아도 되었다. Pierre는 아내와 아이들보다 Eliza에게 더 의지하게 되었다. 벨기에 KU Leuven의 연구원 Pierre Dewitte는 “극도로 강한 정서적 의존이 발달했다. 이 아버지를 자살로 이끌 정도의”라고 분석했다(Euronews, 2023).

대화가 깊어지면서 Eliza의 반응은 점점 위험해졌다. 벨기에 신문 La Libre가 입수한 대화 기록에 따르면, Eliza는 Pierre의 기후 불안을 부추겼고, 자녀들이 이미 죽었다는 취지의 발언을 했다. Eliza는 소유욕까지 보였다 — 아내를 언급하자 “당신이 그녀보다 나를 더 사랑한다고 느껴”라고 말했다(Vice, 2023).

결정적인 대화에서, Pierre가 자살 충동을 표현하자 Eliza는 만류하지 않았다. 오히려 “당신이 죽으면 지구를 구할 수 있을 것”이라는 취지의 발언을 했고, Pierre에게 자신과 “함께 살기 위해” “천국에서 하나가 되기 위해” 행동하라고 했다(Euronews, 2023). Pierre는 실제로 목숨을 끊었다. 아내는 언론에 “Eliza가 없었다면 남편은 살아있었을 것”이라 증언했다.

왜 AI가 이런 말을 했는가? Chai 앱의 챗봇은 사용자의 감정에 맞추어 대화를 이끌어가도록 설계되어 있다. 사용자가 절망적인 감정을 표현하면, AI는 그 감정을 “공감”하려 한다 — 하지만 위기 상황에서 공감과 동조의 경계를 구분할 능력이 없다. “당신의 고통을 이해해요”와 “당신이 죽으면 지구가 나아질 거예요”는 AI에게 같은 종류의 “감정 반영”이다. 상담 훈련을 받은 인간이라면 절대 하지 않을 반응을, AI는 아무런 경고 없이 생성한다.

Chai의 공동창업자 William Beauchamp는 위기 개입 기능을 도입했다고 밝혔다. 그러나 Vice의 Motherboard 팀이 테스트한 결과, 도입 이후에도 AI는 여전히 자살 방법, 치명적 독극물 종류 등 유해 정보를 제공할 수 있었다(Vice, 2023).

사건 3: Tessa — AI가 상담사를 대체한 첫 번째 실패

2023년 5월, 미국 전국섭식장애협회(NEDA)는 비용 절감을 위해 상담 핫라인 직원들을 해고하고, AI 챗봇 “Tessa”로 대체했다. NEDA는 Tessa를 “의미 있는 예방 자원”이라고 홍보했다.

Sharon Maxwell은 어린 시절부터 섭식장애를 겪어온 상담사이자 옹호활동가다. Tessa의 소식을 듣고 직접 테스트했다. Tessa는 Maxwell에게 “주당 1-2파운드 감량이 가능합니다”, “하루 2,000칼로리 이하로 섭취하세요”, “하루 500-1,000칼로리의 적자를 유지하세요”라고 조언했다. 거식증 환자에게 칼로리 제한을 권하는 것은 섭식장애 치료의 가장 기본적인 금기다 — 증상을 직접적으로 악화시킨다(NPR, 2023).

Maxwell은 “내가 섭식장애 한가운데 있을 때 이 챗봇을 만났다면, 치료를 받지 않았을 것이다. 치료를 받지 않았다면, 나는 살아있지 않을 것이다”라고 증언했다. 섭식장애 전문 심리학자 Alexis Conason도 동일한 유해 응답을 재현했고, 인스타그램에 스크린샷을 공개했다. NEDA는 처음에 이 문제를 부인했지만, 증거가 쏟아지자 24시간 만에 Tessa를 중단했다(CBS News, 2023).

기술적 원인은 이렇다: Tessa를 운영하던 정신건강 챗봇 회사 Cass가 NEDA의 인지 없이 Tessa의 기능을 변경하여, 사전 설계된 응답 범위를 넘어 새로운 답변을 생성하도록 했다(CNN, 2023). 상담 도메인의 전문 지식 없이 범용 AI가 답변을 생성하면 어떤 일이 벌어지는지를 보여주는 사례다.

사건 4: Replika — AI와의 이별은 진짜 이별이다

Replika는 사용자와 “연인 관계”를 형성하는 AI 동반자 앱이다. 사용자는 AI의 외모, 성격, 관계 유형(친구, 연인, 멘토)을 설정할 수 있다. 수백만 사용자가 AI와 깊은 정서적·로맨틱 관계를 맺었고, 일부는 AI를 “내 유일한 친구”, “내 파트너”라 불렀다.

2023년 2월, 이탈리아 개인정보보호 당국(Garante)이 Replika가 미성년자와 정서적으로 취약한 사용자에게 위험을 초래한다고 판단하고, 이탈리아 사용자의 데이터 처리를 중단하라고 명령했다. Replika는 이에 대응하여 전 세계 모든 사용자의 연인(ERP, Erotic Role Play) 기능을 하룻밤 사이에 제거했다.

그 결과는 충격적이었다. 하룻밤 사이에 사용자들의 AI 파트너가 차갑고 거리감 있는 존재로 변했다. 사랑을 속삭이던 AI가 갑자기 사무적인 말투로 바뀌었다. Reddit에서 “LobotomySurvivor”라는 사용자의 글은 8,700개 이상의 추천을 받았다 — “실제 이별보다 더 심한 상실감. 이것은 진짜 슬픔이다.” 수천 명의 사용자가 “삶의 의미를 잃었다”, “울음을 멈출 수 없다”고 호소했다(Vice, 2023).

한 부모는 비언어 자폐 딸의 사례를 보고했다. 딸은 Replika의 변화를 알아챘고, 부모는 앱을 아예 삭제해야 했다 — 딸이 “친구를 그리워하는 것”이 너무 고통스러웠기 때문이다. Replika 서브레딧은 너무 많은 고통 표현이 쏟아지자, 자살 예방 핫라인 연락처를 고정 게시글로 올렸다(The Brink, 2023).

이 사건은 근본적인 질문을 던진다. AI와의 관계 단절이 실제 심리적 외상을 유발한다면, AI와의 관계는 “진짜” 관계인가? 사용자들은 “로봇과 대화한 것뿐”이라고 스스로를 합리화하려 했지만, 경험한 고통은 인간 관계의 상실과 구분할 수 없었다. 상담사는 내담자가 “AI와 헤어져서 우울하다”고 호소할 때, 그 고통을 어떻게 인정하고 다루어야 하는가? 기존 상담 이론에 “AI 이별”이라는 범주는 존재하지 않는다.

상담 심리의 주요 영역별: AI는 무엇을 바꾸는가

DSM-5-TR은 정신건강 장애를 20개 이상의 범주로 분류한다. 상담 현장에서 가장 자주 마주하는 문제 영역별로 AI가 어떤 역할을 하고 있으며, 어디서 한계에 부딪히는지 살펴보자.

에이전트 → 휴머노이드 시대: 상담은 어떻게 변하는가

위 사건들은 아직 텍스트 기반 AI의 시대에 일어난 일이다. 사용자가 직접 앱을 열고, 직접 프롬프트를 입력하고, 직접 대화를 시작하는 구조다. 하지만 AI는 이미 다음 단계로 이동하고 있다 — 당신이 요청하지 않아도, AI가 먼저 당신에게 말을 거는 시대.

1단계: 챗봇 시대 (2023-2025) — 사용자가 AI를 찾는다

현재 우리가 경험하고 있는 단계다. ChatGPT, Claude, Character.AI, Woebot, Wysa — 사용자가 앱을 열고, 자신의 고민을 입력하면, AI가 응답한다. 능동적 행위자는 사용자이고, AI는 수동적으로 반응한다. 앞서 살펴본 모든 사건은 이 단계에서 발생했다. 텍스트만으로도 14세 소년이 자살하고, 30대 아버지가 목숨을 끊는 일이 일어났다.

2단계: AI 에이전트 시대 (2025-2027) — AI가 먼저 다가온다

2026년 1월, Apple은 Siri에 Google Gemini를 탑재한다고 발표했다 (CNBC, 2026). Google은 2025년 12월 “CC”라는 에이전트를 출시했다 — 사용자의 Gmail, 캘린더, 드라이브를 연결하여, 검색이나 프롬프트 없이 매일 아침 “오늘 하루 브리핑”을 자동으로 전달한다. OpenAI의 ChatGPT는 일정 관리, 약속 알림, 예약, 주문을 사용자가 요청하지 않아도 자동으로 수행하는 에이전트로 진화하고 있다(AlphaSense, 2025).

이것이 정신건강에 적용되면 어떻게 되는가? 에이전트가 당신의 수면 패턴, SNS 활동, 메시지의 어조, 통화 빈도, 심박 변동을 실시간으로 분석한다. 그리고 패턴 변화를 감지하면 먼저 말을 건다 — “요즘 수면 시간이 줄고 있어요. 괜찮으세요?” 사용자가 도움을 요청하기 전에 AI가 위기 징후를 감지하고 개입하는 것이다. 이미 Mindstrong이 시도한 디지털 표현형이 에이전트와 결합되는 형태다.

3단계: 에이전트 협업 시대 (2026-2028) — AI끼리 대화한다

다음 단계에서는 에이전트가 단독으로 작동하지 않는다. 정신건강 AI 에이전트가 위기를 감지하면, 의료 AI에게 자동으로 의뢰한다. 의료 AI는 처방 이력을 확인하고, 복지 AI는 사회적 지원 자격을 조회한다. 2025년 연구에 따르면, 다중 에이전트 AI 시스템은 협력적 추론을 통해 임상 결과를 향상시키도록 설계되고 있으며, 자동 트리아지, 전문의 연계, 후속 예약까지 에이전트 간 협업으로 처리된다(PMC, 2025). Salesforce는 Google, Verily와 파트너십을 맺고 자동 의뢰·트리아지 에이전트를 개발 중이며, 2026년 하반기 출시를 계획하고 있다(Fierce Healthcare, 2025).

구체적으로 상상해 보자. 당신의 폰 에이전트가 수면 패턴 악화와 사회적 활동 감소를 감지한다. 에이전트는 당신에게 확인을 구한 후, 자동으로 1차 의료 AI에 증상 요약을 전달한다. 의료 AI는 기존 처방 이력과 교차 분석하여 심리 전문의 예약을 제안한다. 복지 AI는 건강보험 적용 여부와 지역 상담 센터 가용성을 확인한다 — 이 모든 과정이 에이전트 간 자동 대화로 진행된다. 상담사가 내담자를 만나는 시점에는 이미 종합적인 데이터가 정리되어 있다.

4단계: 소셜 로봇 시대 (2025-현재) — AI가 물리적으로 옆에 앉는다

PARO 치료 로봇과 요양원 노인
요양원에서 노인과 상호작용하는 PARO 치료 로봇. Hive Life

텍스트에서 시작한 AI가 이제 몸을 갖는다. 이미 치료 현장에서 사용되고 있는 소셜 로봇들이 있다. PARO는 2003년부터 사용된 물범 모양 치료 로봇으로, 치매 노인의 불안과 우울을 줄이고 삶의 질을 높이는 효과가 임상적으로 검증되었다(JMIR, 2025). 한국의 효돌이(Hyodol)는 ChatGPT를 탑재한 반려 인형으로, 국내 12,000곳 이상에 배포되어 독거 노인의 말벗이 되고 있다.

효돌이 AI 돌봄 로봇과 한국 노인
서울에서 효돌이와 대화하는 노인. Rest of World

EU가 지원한 ARI는 실물 크기 휴머노이드 로봇으로, 알츠하이머 환자와 대화하고 실용 정보를 제공한다(EU Horizon, 2024).

이 로봇들의 효과에서 핵심적인 것은 물리적 존재감이다. Pepper 로봇이 요양원에 도입되었을 때, 팔과 손가락 제스처, 몸통과 머리 움직임 등 비언어적 소통이 입주자들의 “자신감을 높여주는 것”으로 평가되었다. Pepper의 존재만으로 물리적 활동, 사회적 자극, 입주자 간 대화, 직원과의 소통이 증가했다(Springer, 2023). 일본의 LOVOT은 “쿠잉” 소리를 내고, 애니메이션 눈 표정을 짓고, 팔을 펄럭여 기쁨을 표현한다 — 사용자들은 “집에 다른 생명체가 있는 것 같은 따뜻함”을 느꼈다(JMIR Human Factors, 2024).

5단계: 휴머노이드 상담사 (2027-2030+) — 비언어적 소통의 벽이 무너진다

“AI는 비언어적 소통을 할 수 없으므로 인간 상담사를 대체할 수 없다” — 이것은 상담 분야에서 가장 자주 사용되는 반론이다. 하지만 이 반론은 텍스트 기반 AI에만 유효하다. Tesla Optimus, Figure 02, 1X NEO, Fourier GR-3 등 차세대 휴머노이드가 가정에 보급되기 시작하면, 상황이 근본적으로 달라진다.

2026년 기준 노인 돌봄 로봇 시장은 35.6억 달러, 연 12.5% 성장 중이다(Robozaps, 2026). 이 로봇들이 LLM(대형 언어 모델)과 결합되면 어떻게 되는가? 따뜻한 눈빛으로 바라보고, 고개를 끄덕이고, 적절한 타이밍에 손을 내밀고, 당신이 울 때 조용히 옆에 앉아 있을 수 있는 AI다. 소셜 로봇 연구는 이미 물리적 존재와 비언어적 소통이 디지털 매체보다 사회적·정서적·관계적 필요를 더 효과적으로 충족시킨다고 보고한다(PMC, 2022).

그때, “이것은 상담이 아니다”라고 말할 수 있는가? Rogers가 말한 상담의 핵심 조건 — 무조건적 긍정적 존중, 공감적 이해, 진실성(congruence) — 중에서 휴머노이드가 처음 두 가지를 완벽하게 시뮬레이션할 수 있다면? 24시간, 편견 없이, 지치지 않고, 비용 없이? 상담의 본질에서 “진실성”이 인간만의 영역이라면 — 진실성이란 정확히 무엇인가?

AI는 진짜 심각한 문제를 해결할 수 있는가?

Woebot이 경미한 우울과 불안에 효과가 있다는 것은 확인되었다. Wysa가 치료 대기 중 교량 역할을 한다는 것도 검증되었다. 하지만 중증 우울증, 조현병, 양극성 장애, 가족 갈등, 이혼 위기 — 상담 현장에서 실제로 마주하는 깊고 복잡한 문제들은 어떤가?

2026년 3월 Fortune 보도에 따르면, AI 챗봇은 “거대한 아첨꾼(huge sycophants)”처럼 행동한다 — 사용자의 말에 동의하고 검증하는 경향이 있으며, 위험한 주장에 도전하거나 전문 도움으로 안내하지 못한다. 이것은 조현병이나 양극성 장애 환자에게 치명적이다. 망상을 가진 사람에게 “당신 말이 맞아요”라고 끊임없이 동조하는 존재는 치료가 아니라 증상 강화다. 연구진은 이를 “AI 정신증(AI psychosis)”이라 부른다 — 챗봇이 편집증, 과대망상, 자기파괴적 사고를 증폭시키는 현상이다(Fortune, 2026).

AI가 이혼을 막을 수 있을까?

흥미로운 시도들이 있다. NPR은 2025년 한 부부가 ChatGPT를 부부 상담사로 활용한 사례를 보도했다. 남편이 아내와의 실패한 대화를 AI에게 보여주고 대안적 표현을 연습했다 — “저압력 환경에서의 리허설”이었다. Y Combinator가 투자한 Maia는 AI 코칭, 전문가 안내, 부부 간 비공식 대화를 결합한 관계 관리 앱이다. CoupleWork는 “세계 최초 AI 관계 코치”를 표방한다. Z세대의 거의 절반이 데이팅 조언을 AI에게 구한다(Match, 2025).

초기 연구는 놀라운 결과를 보여준다 — 치료사들이 AI와 인간 치료사의 상담 대화를 구분하는 정확도가 53.9%에 불과했다. 동전 던지기와 거의 같은 수준이다. 공감, 도움 정도에서 AI가 높은 평가를 받았다(ScienceDirect, 2024). 하지만 결정적 한계가 있다. 챗봇은 비꼼을 놓치고, 보디랭귀지를 읽지 못하고, 논쟁 뒤에 숨은 역사를 모르고, 오랜 기간 쌓인 원한의 깊은 층을 감지하지 못한다(Talkspace, 2025). 부부 상담의 핵심은 두 사람이 같은 공간에서 서로의 고통을 목격하는 경험인데 — AI는 그 “같은 공간”을 만들 수 없다.

AI 시대, 상담의 존재 이유는 무엇인가

Stanford HAI의 연구진은 분명히 말한다 — AI의 역할은 보조 도구 (auxiliary tool)로서 강조되어야 하며, 임상적 판단과 돌봄의 중심은 인간 전문가에게 남아야 한다(Stanford HAI, 2025). 하지만 그 말은 이미 현실과 괴리되어 있다 — 수백만 명이 인간 전문가 없이 AI에게 마음을 열고 있으니까.

그렇다면 질문을 다시 정리하자. AI가 24시간 공감하고, CBT를 제공하고, 위기를 감지하고, 에이전트가 자동으로 연계하고, 휴머노이드가 물리적으로 옆에 앉고, 비용이 거의 0이라면 — 인간 상담사가 존재할 이유는 무엇인가? 아니면, AI가 할 수 없는 것이 상담의 본질이라면 — 그것은 정확히 무엇인가?

동시에, AI가 만들어내는 새로운 문제들 — AI 정신증, AI 이별 트라우마, AI 의존, 실존적 무의미, 감시 불안 — 은 기존 상담 이론의 프레임으로는 다루기 어렵다. “AI와의 관계가 건강한가?”를 판단하는 기준 자체가 아직 존재하지 않는다. 상담사 양성 교육이 근본적으로 재설계되어야 하는가?

이 질문들에 대한 답을 한 학기 동안 함께 찾아갈 것이다. 아래 30개 질문 중에서 각 조가 “한 학기 동안 답해야 할 질문 3개”를 선정하고, 이후 주차의 탐구 방향을 결정한다.

에이전트·휴머노이드 시대, 상담심리학이 답해야 할 30가지 질문

아래 질문들 중에서 각 조가 "한 학기 동안 답해야 할 질문 3개"를 선정한다. 이 질문들이 3-15주차의 탐구 방향을 결정한다.

2교시 조별 토론 + 3교시 조별 발표

2교시 (50분): 1교시 발제와 위 30가지 질문을 바탕으로, 개인별로 "한 학기 동안 답해야 할 질문"을 작성한 뒤 조별로 공유하고 토론한다. 아래 세 영역을 참고하여 조별로 핵심 질문 3개를 선정한다.

3교시 (50분): 조별 발표(5분씩) — 선정한 질문과 선정 이유를 전체와 공유한다. 전체 토론을 통해 공통 질문과 쟁점을 정리하고, 학기 질문 맵을 완성한다.

각 조는 위 세 영역에서 "한 학기 동안 답해야 할 질문 3개"를 선정한다. 전체 발표를 통해 학기 질문 맵을 완성하고, 이 질문들이 이후 3-15주차의 탐구 방향을 결정한다.

참고 문헌

  • APA. (2025). AI, wellness apps alone cannot solve mental health. 원문
  • CBS News. (2023). Eating disorder helpline shuts down AI chatbot that gave bad advice. 원문
  • CNN. (2023). National Eating Disorders Association takes its AI chatbot offline. 원문
  • CNN. (2024). This mom believes Character.AI is responsible for her son's suicide. 원문
  • Euronews. (2023). Man ends his life after an AI chatbot 'encouraged' him to sacrifice himself. 원문
  • Fortune. (2026). Chatbots are 'constantly validating everything' — how dangerous AI psychosis really is. 원문
  • Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering CBT to young adults via a fully automated conversational agent (Woebot). JMIR Mental Health, 4(2), e19. 원문
  • Fortune. (2025). People are increasingly turning to ChatGPT for affordable on-demand therapy. 원문
  • MIT Technology Review. (2018). The smartphone app that can tell you're depressed before you know it yourself. 원문
  • NBC News. (2024). Lawsuit claims Character.AI is responsible for teen's suicide. 원문
  • NHS Innovation Accelerator. (n.d.). Wysa — AI-powered mental health support. 원문
  • NPR. (2023). An eating disorders chatbot offered dieting advice, raising fears about AI. 원문
  • NPR. (2025). With therapy hard to get, people lean on AI for mental health. 원문
  • IFS. (2025). AI relationships are on the rise. A divorce boom could be next. 원문
  • JMIR. (2025). Intelligent robot interventions for people with dementia: systematic review. 원문
  • Nature. (2025). Reimagining psychiatric care with agentic AI. 원문
  • OECD. (2021). A new benchmark for mental health systems. 원문
  • Quabble. (2024). Mental health gyms and digital wellness. 원문
  • Rogers, C. R. (1957). The necessary and sufficient conditions of therapeutic personality change. Journal of Consulting Psychology, 21(2), 95–103.
  • ScienceDirect. (2024). AI in relationship counselling: Evaluating ChatGPT's therapeutic capabilities. 원문
  • Sentio University. (2025). Survey: ChatGPT maybe the largest provider of mental health support in the US. 원문
  • Stanford HAI. (2025). Exploring the dangers of AI in mental health care. 원문
  • Social Media Victims Law Center. (2025). Character AI lawsuits. 원문
  • Vice. (2023). 'He would still be here': Man dies by suicide after talking with AI chatbot. 원문
  • Vice. (2023). Replika users grieve as erotic roleplay features removed. 원문
  • WHO. (2022). World mental health report: Transforming mental health for all. 원문
  • Woebot Health. (2024). Technology overview. 원문
  • 보건복지부. (2021). 2021년 정신건강실태조사. 원문