Chapter 3 · 03/19
누구나 만들 수 있는 시대, 상담사가 만들면 무엇이 다른가?
코딩을 모르는 마케터가 45일 만에 1만 명이 쓰는 앱을 만들었다. 상담사인 우리는 무엇을 만들 수 있는가?
사전 녹화 강의
1교시 — 발제: 누구나 만들 수 있는 시대
2교시 — 팀별 토론: AI 활용 경험 공유
3교시 — 전체 발표 + 토론
AI 활용의 4단계
AI를 활용하는 방식은 단순한 대화에서 시작해, 도구 활용, 자동화, 에이전트까지 4단계로 진화한다. 대부분의 사람은 1단계에 머물러 있지만, 각 단계를 이해하면 상담 현장에서 AI를 훨씬 전략적으로 활용할 수 있다.
이번 학기 동안 우리는 1단계부터 시작해 4단계까지 직접 경험해볼 것이다. 오늘은 먼저 여러분이 현재 어느 단계에 있는지 점검하고, 2단계로 나아가는 첫걸음을 내딛는다.
1교시 발제문: 왜 우리가 직접 만들어야 하는가
지난 2주간 우리는 두 가지를 확인했다. 첫째, AI 에이전트 시대가 왔다는 것. 둘째, 그 시대에 상담이 여전히 필요한가라는 질문에 쉬운 답은 없다는 것.
오늘은 다른 질문을 던진다. 여러분은 지금 AI를 어떻게 쓰고 있는가?
2024년, APA 조사에서 심리학자의 71%가 “AI를 한 번도 안 써봤다”고 답했다. 1년 뒤, 그 숫자는 44%로 떨어졌다. 불과 1년 만에 뒤집힌 것이다. 52%가 이메일과 자료 작성에, 32%가 노트 요약에 AI를 쓰고 있었다.
더 흥미로운 것은 내담자 쪽이다. 정신건강 어려움을 겪는 AI 사용자의 48.7%가 이미 ChatGPT를 치료적 지원으로 쓰고 있었다. 연구자들은 이렇게 결론지었다.
“미국에서 가장 큰 정신건강 서비스 제공자는 병원도, 앱도, 정부도 아닐 수 있다. 그것은 인공지능일 수 있다.”
— Rousmaniere et al. (2025), Sentio University
한국의 현실은 더 극적이다. 정신건강 서비스 이용률 7.2%. OECD 최고 자살률. 그런데 정신건강 예산은 보건 예산의 1.9%에 불과하다. 2024년 기준 국민의 73.6%가 정신건강 문제를 경험하지만, 전문 상담을 받아본 사람은 16%. AI 상담을 시도해본 사람은 11%에 그친다.
이 간극이 바로 오늘 이야기할 공간이다. 단순히 “AI 상담을 쓰자”는 이야기가 아니다. 직접 만들어보자는 것이다.
2025년 2월, 안드레이 카파시가 트윗 하나를 올렸다. “나는 이것을 바이브 코딩이라 부른다. 코드가 존재한다는 사실조차 잊고, 분위기에 몸을 맡기는 새로운 코딩이다.” 이 트윗은 450만 뷰를 기록했고, 11월에 콜린스 사전의 올해의 단어가 됐다.
코딩을 모르는 사람이 AI에게 말로 시켜서 앱을 만드는 시대가 온 것이다. 실제 사례를 보자.
브라질의 사브리나 마토스는 마케터다. 코딩 경험 제로. 그녀의 커뮤니티에서 한 여성이 폭력 전과가 있는 파트너에게 살해당했다. 피해자는 그 전과 기록을 알 방법이 없었다. 사브리나는 AI 코딩 도구로 45일 만에 Plinq라는 여성 안전 앱을 만들었다. 3개월 만에 1만 명이 썼고, 200건 이상의 위험 상황을 사전에 막았다.
Y Combinator — 세계 최고의 스타트업 액셀러레이터 — 의 2025년 겨울 배치에서는, 참여 팀의 25%가 코드의 95% 이상을 AI로 만들었다. 기업 Rokt는 Replit을 써서 24시간 만에 내부 앱 135개를 만들었다.
마케터가 안전 앱을 만들 수 있다면, 상담사인 우리는 무엇을 만들 수 있는가?
물론 그림자도 있다. 바이브 코딩으로 만든 앱에서 7만 2천 명의 신분증이 유출된 사건이 있었다. 보안 연구에서는 AI가 만든 15개 앱 모두에서 보안 취약점이 발견됐다. AI 치료 앱 Yara의 창업자는 자발적으로 서비스를 종료하며 이렇게 말했다. “정신건강이 위태로운 사람에게 챗봇은 좋은 장소가 아니다.”
“만들 수 있다”와 “만들어도 되는가”는 다른 질문이다. 이 긴장을 안고 가면서, 오늘 각자 AI를 어떻게 쓰고 있는지 공유하고, 진짜 뭘 만들고 싶은지 이야기해보자.
2교시에는 Replit이라는 도구로 직접 만들어볼 것이다. 말로 설명하면, AI가 앱을 만들어준다. 3교시에는 각자 만든 것을 발표하고, 이번 학기 프로젝트 방향을 토론한다.
여러분은 지금 AI를 어떻게 쓰고 있는가? 그리고 진짜로 뭘 만들고 싶은가?
바이브 코딩의 탄생
2025년 2월 2일, 테슬라 AI 디렉터이자 OpenAI 공동창업자인 안드레이 카파시(Andrej Karpathy)가 X(트위터)에 짧은 글을 올렸다.
“나는 이것을 ‘바이브 코딩’이라 부른다. 코드가 존재한다는 사실조차 잊고, 분위기(vibe)에 완전히 몸을 맡기는 새로운 코딩 방식이다. LLM이 너무 좋아져서 가능해졌다. 나는 SuperWhisper로 음성으로 말하기만 해서, 키보드도 거의 안 건드린다.”
— Andrej Karpathy, 2025.02.02
이 트윗 하나가 새로운 시대를 명명했다. 2025년 11월, 콜린스 사전은 “vibe coding”을 올해의 단어로 선정했다. 1년 뒤 카파시는 회고했다. “샤워하다 떠오른 생각을 그냥 던진 트윗이었는데, 많은 사람이 동시에 느끼고 있던 것에 딱 맞는 이름을 붙인 셈이 됐다.”
숫자로 보는 바이브 코딩 혁명
비개발자가 만든 실제 앱들
사례 1: 브라질의 여성 안전 앱 — Plinq
브라질의 마케터 사브리나 마토스(Sabrine Matos)는 코딩 경험이 전혀 없었다. 그녀의 커뮤니티에서 한 여성이 폭력 전과가 있는 파트너에게 살해당했다. 피해자는 그 전과 기록을 알 수 없었다.
사브리나는 Lovable을 사용해 45일 만에 Plinq를 만들었다. 공개 범죄 기록 조회, 위험도 점수, 긴급 연락 패닉 버튼 기능을 갖춘 여성 안전 플랫폼이다. 3개월 만에 1만 명 이상의 사용자를 확보하고, 연 매출 약 $456,000을 달성했다. 200건 이상의 위험 상황을 사전에 차단했다.
사례 2: 6개월 만에 800억 원 인수 — Base44
마오르 슐로모(Maor Shlomo)는 혼자서 Base44라는 바이브 코딩 플랫폼을 만들었다. 직원 6명, 외부 투자 0원. 출시 3주 만에 1만 명, 6개월 만에 25만 명이 가입했다. Wix가 $8,000만(약 1,100억 원)에 현금 인수했다.
사례 3: 기업 내부 앱 135개를 24시간 만에 — Rokt
글로벌 이커머스 플랫폼 Rokt는 Replit Agent를 사용해 24시간 만에 135개의 내부 업무용 앱을 만들었다. 각 팀이 필요한 도구를 직접 설명하고 AI가 만드는 방식이었다.
상담사들은 지금 AI를 어떻게 쓰고 있는가?
2024년, 미국심리학회(APA)에 따르면 심리학자의 71%가 AI를 한 번도 써본 적 없었다. 1년 뒤인 2025년, 그 비율은 44%로 급락했다. 단 1년 만에 심리학자의 과반수가 AI를 업무에 도입하기 시작한 것이다.
더 놀라운 통계가 있다. Sentio 대학교의 2025년 조사에 따르면, 정신건강 어려움을 겪는 AI 사용자의 48.7%가 이미 LLM을 치료적 지원으로 사용하고 있었다. 그중 96%가 ChatGPT였다. 연구자들은 이렇게 결론지었다.
“미국에서 가장 큰 정신건강 서비스 제공자는 병원 네트워크도, 치료 앱도, 정부 프로그램도 아닐 수 있다. 그것은 인공지능일 수 있다.”
— Rousmaniere et al. (2025), Sentio University
한국의 현실
한국의 정신건강 서비스 이용률은 7.2%다. 미국(43.1%), 캐나다(46.5%)와 비교하면 극단적으로 낮다. OECD 최고 수준의 자살률(10만 명당 25.2~29.1명, OECD 평균의 2.7배)에도 불구하고, 정신건강 예산은 보건 예산의 1.9%에 불과하다 (WHO 권고 5%).
정신건강 문제를 경험하는 국민 비율은 2022년 63.8%에서 2024년 73.6%로 급증했다. 그런데 전문 상담을 받아본 사람은 16%, AI 상담을 시도해본 사람은 11%에 그쳤다. 낙인과 접근성이 여전히 벽이다.
바이브 코딩의 그림자 — 실패 사례
Yara AI — 스스로 문을 닫은 창업자
2025년 11월, AI 치료 앱 Yara AI의 창업자 조 브레이드우드(Joe Braidwood)와 임상심리학자 리차드 스톳(Richard Stott)은 자발적으로 서비스를 종료했다.
“우리는 불가능한 영역에서 일하고 있었다. 성격장애가 있거나 정신건강이 매우 위태로운 사람에게, 챗봇은 좋은 장소가 아니다. AI는 일상적 스트레스나 수면 문제에는 훌륭하지만, 시간에 따른 변화를 추적하는 데는 한계가 있다.”
— Joe Braidwood, Yara AI
Tea App — 7만 2천 명의 신분증 유출
2025년 7월, 여성 전용 데이팅 안전 앱 Tea에서 7만 2천 장의 사용자 이미지가 유출됐다. 운전면허증 사진 1만 3천 장이 포함되어 있었다. 원인은 Firebase 저장소의 기본 설정을 그대로 둔 것 — 인증 없이 누구나 접근 가능했다. AI가 생성한 코드의 보안 검토를 건너뛴 결과였다.
체계적 보안 연구 (2025.12)
5개 주요 바이브 코딩 도구(Claude Code, Codex, Cursor, Replit, Devin)로 동일한 3개 앱을 만든 결과, 15개 앱에서 총 69개의 보안 취약점이 발견됐다. 6개는 치명적 수준. 모든 도구가 SSRF 취약점을 만들었고, CSRF 보호나 보안 헤더를 설정한 앱은 단 하나도 없었다.
토론 주제
2주차에서 핵심 질문들을 도출했다. 이번 주는 각자의 AI 경험을 나누고, 상담사로서 무엇을 만들 수 있는지 상상하는 시간이다. 다음 주부터 직접 만들기 시작한다.
참고 자료
- Karpathy, A. (2025, Feb 2). Vibe coding [X post]. https://x.com/karpathy/status/1886192184808149383
- American Psychological Association. (2025). Practitioner pulse survey: AI in the therapist’s office. https://www.apa.org/pubs/reports/practitioner/2025
- Rousmaniere, T., Zhang, Y., Li, X., & Shah, S. (2025). Large language models as mental health resources. Sentio University.
- Collins Dictionary. (2025). Word of the year 2025: Vibe coding. https://www.collinsdictionary.com/us/woty
- World Health Organization. (2025, Sep 2). Over a billion people living with mental health conditions.
- American Psychological Association. (2025, Jun). Ethical guidance for AI in professional practice of health service psychology.