초청 특강 안내 이정석 (Jungsuk Jay Lee) — ThroughLine · Head of AI Product & Advisor
176개국 1,600개 위기상담 핫라인과 파트너십을 맺고, Google·OpenAI·Anthropic·Roblox·Discord·YouTube 등 글로벌 플랫폼에 AI 기반 정신건강 위기 분류 시스템(FirstStep)을 제공한다.
F1 정확도: 95.2% (전체 위험등급), 97.9% (전체 카테고리) 응답 지연: 0.8초 (p95 기준) 누적 이용자: 400만+, 상담 연계: 50만+ (130개국) 오늘의 수업 구성 1+2교시 (100분) — 이정석 특강 — AI 위기 지원의 현실과 기술 + Q&A 이정석 소개: ThroughLine Head of AI Product, 前 쿠키런(2억 유저)·네이버·ZEPETO·Intel 문제 정의: 심리적 장벽(두려움·낙인·불신)과 파편화된 위기지원 생태계 현실 데이터: 400만 이용자 중 90%+가 무료 상담도 이용하지 않음, 50%는 실제 사람과 대화하기를 두려워함 기존 헬프라인의 구조적 한계: 대기열 병목과 획일적 프로세스 ThroughLine의 해법: AI가 분류·평가·연결, 인간은 인간만 할 수 있는 상담에 집중 FirstStep 시스템: 듣기(Listen) → 평가(Assess) → 연결(Route) 위기 분류 체계: 5개 카테고리(자살·자해·섭식장애·온라인 사기·괴롭힘) × 5개 위험등급(Critical~None) 기술 도전: 정확도 vs 속도 트레이드오프 — Rubric 분류기(12초/고정확) vs Simple 분류기(1.8초/저정확) F1 Score 해설: Precision(정밀도)과 Recall(재현율)의 균형 해결책 1: 임상전문가 라벨링 데이터로 Supervised Fine-tuning → F1 82.1% → 87.8% 해결책 2: Agentic Context Engineering — 모델이 스스로 프롬프트를 개선하는 자기개선 루프 최종 성과: F1 95.2%(전체 위험등급), 97.9%(전체 카테고리), 지연 0.8초 — 2배 정확, 2.3배 빠름 안전한 라우팅: 위기 수준별 맞춤 지원(자기조절 도구 ~ 위기상담사 연결) 라이브 데모 + Q&A 3교시 (50분) — 특강 기반 조별 토론 3개 토론 주제 중 선택하여 조별 토론 (20분) 조별 발표 (5분씩) 특강 핵심 정리 및 마무리 3교시 조별 토론 주제 ThroughLine의 FirstStep은 176개국 1,600개 헬프라인과 연동되어 Google·OpenAI·Anthropic 등의 플랫폼에서 실시간 위기 분류를 수행한다. F1 95.2%, 지연 0.8초라는 성과 뒤에는 기술과 생명의 교차점에서 내려야 하는 무수한 판단이 있다.
주제 1: AI 위기 분류기의 95% 정확도는 충분한가? 나머지 5%는? 정확도와 생명의 무게
F1 95.2%는 Precision(위험하다고 판단했을 때 실제 위험인 비율)과 Recall(실제 위험을 잡아내는 비율)의 균형이다 — 위기 상황에서 둘 중 어느 쪽에 무게를 둬야 하는가? 위양성(false positive: 안전한데 위험으로 분류)과 위음성(false negative: 위험한데 놓침)의 비용은 비대칭적이다. 각각의 실제 결과는? ThroughLine은 Rubric 분류기(12초/고정확)와 Simple 분류기(1.8초/저정확)의 트레이드오프를 Agentic Context Engineering으로 해결했다. '충분한 정확도'의 기준을 누가 정하는가? 주제 2: 자살 예방에서 AI의 역할 — 감지자인가, 개입자인가? AI의 역할 경계
ThroughLine은 'AI가 분류·평가·연결하고, 인간은 인간만 할 수 있는 일을 한다'는 모델이다. 이 역할 분담은 최선인가? 400만 이용자 중 90%+가 무료 상담조차 이용하지 않고, 50%는 실제 사람과 대화하기를 두려워한다 — AI 챗봇이 이 장벽을 낮출 수 있는가, 아니면 새로운 장벽을 만드는가? FirstStep은 듣기→평가→연결(Listen→Assess→Route)의 3단계 구조다. AI가 '듣는' 단계에서 공감을 제공하는 것과, 단순히 데이터를 수집하는 것의 차이는? 주제 3: 한국 맥락에서 AI 자살방지는 어떻게 달라야 하는가? 문화적 맥락
한국의 1324 자살예방상담전화는 수요 과잉으로 '적시에 지원을 제공할 수 없다'는 자동응답을 보낸다. ThroughLine 모델을 한국에 적용하면 이 문제를 구조적으로 해결할 수 있는가? ThroughLine의 5개 위기 카테고리(자살·자해·섭식장애·온라인사기·괴롭힘)는 영어권 기준이다. 한국어와 한국 문화 특성을 반영하면 카테고리나 위험등급이 어떻게 달라져야 하는가? 네이버·카카오 등 한국 플랫폼에 FirstStep을 도입한다면, 개인정보보호법과 정신건강복지법 사이에서 어떤 설계가 필요한가? 각 조는 위 세 주제 중 하나를 선택하여 20분간 토론한 뒤, 5분 발표를 준비한다.