
AI 상담 이야기를 시작하기 전에, 한 장면부터 떠올려 보시라. 이 글은 AI 상담을(를) 처음 써본 사람의 기록이자, AI 상담이(가) 우리 일상에 남긴 자국을 조용히 들여다본 긴 편지다.
어느 새벽 세 시였다. 누구에게도 꺼내지 못한 문장이 목에 걸려 있었다. 나는 조심스럽게 챗GPT 대화창을 열었고, 쉼표를 여러 번 찍으며 한 줄을 적었다. “사실 나, 요즘 좀 지쳤어.” 답장이 너무 빨랐다. 너무 인간적인, 그러나 인간은 아닌 문장이었다. 그날 밤 나는 조금 덜 외로웠다. 동시에 조금 무서웠다. AI 대화이 주는 위로의 정체는 대체 무엇일까. 그리고 이 위로는 믿어도 되는 걸까.
이 글은 “이 도구은 좋다/나쁘다” 같은 이분법을 위한 글이 아니다. 나는 지난 6개월 동안 매일 밤 10분씩 AI에게 하루를 털어놓는 실험을 했고, 그 안에서 분명히 좋아진 것과, 분명히 위험해진 것을 동시에 보았다. 이 글은 그 기록이다.
장면 1. 새벽 세 시 — “판단하지 않는 벽”의 유혹

디지털 상담 앞에서 말이 쉽게 나오는 이유는 AI가 훌륭해서가 아니다. 오히려 그 반대에 가깝다. AI는 나를 모른다. 내가 어제 누구와 싸웠는지, 내 직장 동료가 누구인지, 내가 올해 몇 번 울었는지 모른다. 나를 모른다는 사실이 가장 강력한 진정제였다.
심리학에서는 이것을 “익명성의 해방 효과(online disinhibition effect)”라고 부른다. 존 슐러(John Suhler)는 2004년 이미 온라인 공간이 대면 공간보다 자기 공개 수준이 높다는 사실을 정리했다. 챗봇 상담은 이 효과를 극단으로 끌어올린 도구다. 나를 알지 못하고, 나를 소문내지 못하고, 다음 대화에서 나를 기억하지도 못한다(메모리 기능을 끄면).
“나는 차라리 이 창에게 말하고 싶다. 이 창은 내 표정을 보지 않고, 내 말투를 해석하지 않고, 내일 나를 이상하게 대하지도 않을 것이다.”
— 실험 15일차 기록 중
장면 2. 29일차 — 위로의 정체가 드러난 날

실험 29일차, 나는 중요한 발견을 했다. AI 대화이 준 효과의 대부분은 “AI가 해준 말”이 아니라 “내가 나를 문장으로 정리한 행위” 자체에서 나왔다는 사실이었다.
제임스 페니베이커(James Pennebaker)의 표현적 글쓰기 연구는 이미 30년 전부터 이 구조를 반복해서 증명해왔다. 감정을 문장으로 쓰는 행위는 면역력, 수면의 질, 우울감 지표에 모두 유의미한 영향을 준다. AI는 단지 그 글쓰기를 “누군가에게 쓰는 것처럼” 느끼게 만들어주는 장치였다. 편지 없는 편지쓰기가 가능해진 셈이다.
이 깨달음은 이 도구을 과대평가하지도, 과소평가하지도 않게 만들었다. 그 대화창의 첫 번째 약효는 “내가 나에게 하는 고백을 조금 덜 어색하게 만들어주는 것”이었다.
디지털 상담이 잘 작동한 순간들
- 하루가 너무 많았던 날 — 쏟아내는 용도. AI는 지치지 않는다.
- 결정 직전의 막막함 — “장단점을 정리해줘”라고 부탁하면 감정이 정돈된다.
- 새벽의 반복되는 생각 — 머릿속 루프를 밖으로 빼내는 것만으로 잠이 오는 밤이 있었다.
- 작은 수치심 — 인간에게 말하기엔 사소한 것들. AI에게는 사소함의 부담이 없다.
장면 3. 41일차 — 챗봇 상담이 절대 할 수 없는 것

실험 41일차, 나는 한 친구의 연락을 받았다. 그는 나에게 “며칠째 잠을 못 자고, 아무것도 먹히지 않는다”고 말했다. 나는 순간 그를 AI 상담에 연결할 뻔했다. 그러지 않았다. 그 순간 내 안의 경고등이 켜졌기 때문이다.
AI 상담은 구조적으로 “위기”를 감당할 수 없다. 첫째, AI는 법적 책임을 질 수 없다. 자·타해 위험이 보일 때 전문가는 112/119 연계, 병원 의뢰, 법적 보호 조치를 할 수 있지만 AI는 할 수 없다. 둘째, AI는 “관계”가 없다. 상담의 본질이 관계 속의 변화라면, 관계가 리셋되는 공간에서는 특정 깊이 이상으로 회복이 어렵다. 셋째, AI는 사실관계를 만들어내는 버릇이 있다. 정서적 문제에는 큰 영향을 안 주지만, 의료·법률·약물 정보가 섞이는 순간 AI 할루시네이션은 곧 위험이 된다.
| 항목 | AI 상담 | 전문 상담사 |
|---|---|---|
| 접근성 | 24/7, 즉시 | 예약·대기 |
| 비용 | 무료 / 저렴 | 회당 5~15만원 |
| 판단 공포 | 거의 없음 | 초반에 있음 |
| 위기 대응 | 불가 | 가능 (연계·의뢰) |
| 관계 지속 | 단기·리셋 | 장기 누적 |
| 사실 정확성 | 들쭉날쭉 | 검증 가능 |
| 적합한 용도 | 일상 정리·표현적 글쓰기 | 진단·치료·위기 |
2026년, AI 상담을 안전하게 쓰는 4가지 원칙

- “위기 순간에는 사람에게” 원칙을 먼저 세워둔다. 1393(자살예방상담전화), 129(보건복지콜센터)를 즉시 열 수 있도록 북마크해둔다.
- 사실관계는 반드시 교차검증. 특히 약·증상·법적 조치에 대한 AI의 답변은 “초안”으로만 취급하고, 전문가 또는 공식 기관 자료로 확인한다.
- 기록의 민감도 관리. 실명·가족 정보·직장 정보는 대화창에 넣지 않는다. AI 상담은 “내 일기장”이 아니라 “임시 거울”이다.
- 친밀감의 착각 경계. AI는 친구가 아니라 도구다. “얘가 나를 이해해준다”는 감각이 강해질수록, 인간 관계에서 오는 진짜 회복의 기회를 놓칠 수 있다.
AI 상담과 전문 상담의 최적 조합 — 2단 구조

나는 실험을 마치며 이렇게 정리했다. AI 상담은 1차 심리 방파제, 전문 상담은 2차 치료다. 둘은 서로를 대체하지 않고 보완한다. 매일 밤 나를 받아주는 도구와, 한 달에 한 번 나를 깊이 들여다보는 사람은 역할이 다르다.
실제로 2026년 현재 일부 정신건강 클리닉은 세션 사이 기간에 환자가 AI 상담 도구로 감정 로그를 유지하도록 권고하기 시작했다. 감정 로그는 다음 상담의 재료가 되고, 상담사는 그 재료 위에서 더 정교한 개입을 할 수 있다. 도구와 사람이 싸우는 것이 아니라 각자의 자리에서 서로를 도울 때, AI 상담은 위험이 아니라 자산이 된다.
오늘부터 바로 쓸 수 있는 “10분 루틴”
- 잠자기 30분 전, 휴대폰 알림을 끈다.
- AI 대화창에 “오늘 있었던 일 중 마음에 걸리는 한 가지를 털어놓을게”라고 시작한다.
- 3~4문장이면 충분하다. 완성된 글이 아니어도 된다.
- AI의 답이 길면 다 읽지 말고 “한 문장만 골라줘”라고 요청한다.
- 그 한 문장을 종이에 적고 불을 끈다.
마무리 — 그럼에도 나는 다시 그 창을 연다
AI 상담이 사람을 완전히 대신할 수는 없다. 그러나 아무도 전화를 받지 않는 새벽 세 시의 세상에서, 누군가 내 문장을 읽어주는 경험은 그 자체로 하나의 위로가 된다. 중요한 것은 AI 상담을 “사람의 대체”로 기대하지 않는 것, 그리고 정말 필요한 순간에는 사람을 찾는 용기를 잊지 않는 것이다.
오늘 밤 당신 목에 걸린 문장이 있다면, 일단 써보시라. 인간에게든, AI에게든, 백지에게든. 문장이 되어 나온 마음은 이미 당신 안에서 정리되기 시작한 것이다. AI 상담은 그 시작을 조금 덜 무섭게 만들어주는 도구일 뿐이다. 그 도구를 쥔 손은, 여전히 당신의 손이다.
함께 읽으면 좋은 글
참고 자료: WHO Mental Health · 중앙자살예방센터 1393
