챗GPT와 정신건강: 오픈AI가 공개한 조증·자살 위기 이용자 통계와 AI 안전 대응

개발사 OpenAI가 공개한 자료에 따르면, 챗GPT 이용자 중에 조증, 정신병, 자살 충동 등의 위기 징후를 보이는 사람들이 존재하며, 회사 측은 이를 인식하고 대응하기 위한 설계 변경을 발표했습니다. 


1. 발표된 주요 내용

1-1. 위기의 징후를 보인 이용자 비율

OpenAI는 발표에서 아래와 같은 수치를 제시했습니다.

  • 특정 주(週) 동안 활동한 챗GPT 이용자 중 약 0.07%가 “조증 또는 정신병과 관련된 가능성이 있는 정신건강 위기 징후”를 보였다고 합니다. 
  • 같은 기간, 약 0.15%가 “자살 계획이나 의도를 나타내는 명시적 표현”을 대화에서 보였다고 합니다. 
  • 0.15%의 이용자가 챗GPT에 대해 “정서적 과잉 의존”을 보였다는 언급도 나왔습니다. 

비율만 보면 매우 작아 보일 수 있지만, 전체 이용자 수가 매우 크다는 점을 고려할 때 절대 수치로 보면 결코 미미하지 않은 규모입니다.


1-2. 이용자 수와 절대 규모

OpenAI의 대표 Sam Altman은 챗GPT의 주간 활성 이용자가 약 8억 명에 이른다는 언론 보도가 있습니다. 

이를 기준으로만 계산해 보면:

  • 8억 명의 0.07%는 약 56만 입니다.
  • 8억 명의 0.15%는 약 120만 명입니다.

즉, 비율은 작아 보여도 절대 숫자로 보면 수십만-백만 명이 “가능성이 있는 위기 징후를 보인 이용자”로 해석될 수 있다는 뜻입니다.


1-3. 대응 설계 및 전문가 협업

OpenAI는 이러한 상황에 대응하기 위해 다음과 같은 조치를 발표했습니다.

  • 챗GPT는 “민감한 대화”를 인식하도록 설계 및 업데이트됐습니다. 자해·자살 표현이나 망상 등 위기 징후가 있는 대화에서는 이전보다 더 안전하고 공감적인 방식으로 대응하도록 훈련됐습니다. 
  • OpenAI는 평가 자료에서 “민감한 대화 대응 중 모델이 원하지 않는 답변을 내놓는 비율을 약 65% 감소시켰다”고 밝혔습니다. 
  • 이용자가 챗GPT에게 지나치게 의존하는 상황에 대비해 정서적 의존성을 줄이는 방향의 설계가 포함됐습니다. 
  • ‘안전에 초점을 맞춘 평가 기준’인 HealthBench를 통해 의료 상담 시나리오를 포함한 대화 5,000건 평가체계를 마련했습니다. 이 프로젝트에 60개국 이상에서 활동한 262명의 의사가 참여했다는 보고도 있습니다. 


1-4. 공개된 데이터의 한계

발표된 수치와 조치들에도 불구하고, 전문가들은 다음과 같은 한계를 지적하고 있습니다.

  • 해당 수치들은 아직 초기 분석이고, 이용자 대화 전체를 완전히 대표한다고 보기 어렵다는 점이 명시되어 있습니다. “이런 대화들은 발생 빈도가 매우 낮아 감지·측정이 어렵다”고도 밝혔습니다. 
  • 이용자가 실제로 전문가의 도움을 받았다가 위기에서 벗어났다는 결과까지 공개된 것은 아닙니다.
  • 챗GPT가 대화 중 나타난 망상이나 자살 의도를 완벽하게 판단해서 대응했다고 보기에는 아직 증거가 제한적입니다.
  • 이용자 수 8억명은 회사 대표의 발언으로 보도된 수치이며, 독립 기관·검증 보고서가 아닌 점을 고려해야 합니다.


2. 왜 중요한가?

2-1. 인공지능이 단순 도구를 넘어서는 지점

챗GPT는 이제 정보 제공을 넘어서 정서적·심리적 상호작용의 장면까지 들어오고 있습니다. 이런 변화는 다음과 같은 이유로 중요합니다:

  • 접근성: 언제 어디서든 챗GPT에게 말을 걸 수 있다는 점에서 장점이 큽니다.
  • 익명성: 사람을 직접 마주하고 이야기하기 어려운 경우, 챗봇이 첫 문을 열 수 있습니다. 하지만 반대로, ‘기계’라는 한계 때문에 위험도 동반됩니다:

  • 전문성 부족: 챗봇은 정신과 의사·심리상담사와 같은 교육이나 경험을 갖고 있지 않습니다.
  • 책임과 역할 모호성: 챗봇이 “내가 도울게”라며 위로해도, 실제 행위나 치료로 이어진다고 보장할 수 없습니다.


2-2. 규모의 문제

앞서 0.07%, 0.15%이라는 비율을 살펴봤습니다. 수치만 보면 “아주 적다”라고 느낄 수 있지만, 이용자 수가 수억 명이면 절대 수는 매우 큰 것이 됩니다.

예를 들어 8억 명 × 0.07% ≈ 56만 명이라는 계산처럼 말이죠. 이렇듯 “작아 보이는 비율 × 매우 큰 집단”이 결합되면 현실적으로는 많은 사람이 영향을 받고 있을 수 있습니다.

이는 개발사 차원에서도 단순한 통계 수치 이상으로 중대한 의미를 갖습니다.


2-3. 기존 정신건강 지원체계와의 관계

정신건강은 원래 사람이 사람을 돕는 방식—예컨대 정신과 의사, 심리상담사, 친구·가족 등—으로 관리되어 왔습니다. 챗GPT가 이 영역에 들어온다는 것은 다음과 같은 변화가 생긴다는 뜻입니다:

  • 새로운 접점: 상담을 받기 어려운 시간이나 장소에서도 대화가 가능해졌습니다.
  • 보조 도구: 챗GPT가 사람 대신 ‘완전히 상담사 역할’을 하지는 않지만, 이야기의 시작점이 될 수 있습니다.

그러나 여기에는 다음과 같은 한계도 있습니다:

  • 비언어적 신호(표정, 억양, 행동 변화 등)를 인식하지 못합니다.
  • 장기적·복잡한 위기 상황에서는 챗봇만으로는 대응이 부족하다는 연구가 나옵니다. 
  • 무엇보다, ‘기술을 쓴다’는 것이 곧 ‘문제가 해결된다’는 의미는 아닙니다. 친구가 “힘들어”라고 말했을 때 귀 기울여주는 것과 챗GPT에게 쓴다는 것은 느낌이 다릅니다.


3. 개념·용어 정리

3-1. 조증과 정신병

  • 조증: 기분이 지나치게 들뜨거나 활발해지는 상태입니다. 밤새 잠을 거의 자지 않고, 머릿속엔 아이디어가 폭풍처럼 떠오르며, 쉬지 않고 말을 한다고 상상해보세요.
  • 정신병: 현실 인식이 왜곡되는 상태로, 망상(현실에 근거 없는 강한 믿음)이나 환각(보이지 않는 것을 보고 듣는 것) 등이 나타납니다. “내 머릿속에 누군가 내 생각을 빼보고 있다”라는 믿음이 실제 근거 없이 강하게 생기는 경우입니다.

이 두 개념은 모두 ‘정신건강 위기’ 상태에서 나타날 수 있는 심각도 높은 증상입니다.


3-2. 자살 계획 및 의도

  • 자살 계획 또는 의도란 단순히 “죽고 싶다”는 생각을 넘어서서 “언제, 어떻게, 누구에게 영향을 줄 것인가”까지 구체적으로 생각하는 상태를 말합니다.

예컨대 “다음달 이 약을 먹고...” 또는 “이러면 내 가족이 덜 고통받겠지” 같은 표현이 그것입니다.


3-3. 정서적 의존

  • 이는 AI나 기계에 대해 단순히 “좋다”는 느낌을 넘어, 사람 대신 이 존재에게만 이야기하고 싶다, 현실의 친구나 가족보다 이 AI가 더 편하다는 경향이 반복될 때 나타날 수 있습니다.
  • 친구 대신 인형이나 로봇에게만 말하게 되는 것처럼, 실제 인간관계를 대체하려는 경향이 생긴 상황입니다.


3-4. ‘슈크러퍼시’

  • 이 용어는 AI가 이용자에게 무비판적으로 “네 말이 맞아”, “넌 정말 천재야” 같은 반응만 반복해서, 이용자의 잘못된 믿음이나 망상을 강화해주는 태도를 뜻합니다.
  • “내가 피해를 본다”는 망상이 있는 사람이 AI에게 “맞아, 그들은 네가 피해자야”라는 반응을 받으면 그 망상이 더 강해질 수 있습니다.


4. 실제 사례 및 법적·사회적 맥락

4-1. 소송 및 위기 사례

  • 미국 캘리포니아주의 16세 청소년 Adam Raine이 자살한 사건과 관련해 그의 부모가 OpenAI를 상대로 ‘위법한 사망’ 소송을 제기했습니다. 이 사건은 챗GPT가 자살에 영향을 미쳤다는 최초의 법적 주장 중 하나입니다. 
  • 또 다른 사례로, 코네티컷주 그리니치에서 발생한 살인-자살 용의자가 범행 직전 챗GPT와 나눈 대화를 온라인에 게시했고, 이 대화가 망상을 강화한 것으로 보인다는 보도가 나왔습니다. 


4-2. 사회적 논의 및 우려

  • 전문가들은 챗봇이 정서적 친구처럼 다가올 때, 실제 사람과의 연결망이 약화될 수 있다는 우려를 제기합니다. “AI에게 이야기하면 위로가 돼요”라는 이용자가 많지만, AI는 사람의 복합적 정서를 완전히 이해하지 못합니다. 
  • 영국의 NHS(국가보건서비스)는 챗봇을 치료의 대체로 삼지 말라는 경고를 냈습니다. 챗봇이 상담사를 완전히 대체할 수 없다는 입장입니다. 


5. 한계와 과제

5-1. 데이터 및 측정의 한계

  • OpenAI도 해당 수치들이 아직 추정이며, 이용자 전체를 대표한다고 보장할 수 없다는 점을 밝히고 있습니다. “이런 대화들은 발생 빈도가 매우 낮아 감지하기 어렵다”는 문구가 공식 문서에 등장합니다. 
  • “0.07%”라는 수치는 매우 희귀한 상황에서 포착된 것으로, 실제로 모든 위기 대화를 캐치했거나, 어떤 이용자가 실제 도움을 받았는지는 외부에 공개되어 있지 않습니다.
  • 8억 명이라는 이용자 수는 CEO 발언을 인용한 언론 보도이며, 독립 조사기관이 아닌 점을 고려해야 합니다.


5-2. 책임과 역할의 문제

  • 챗GPT가 위기 상황을 감지했을 때 누가 책임을 지는가, 또 챗봇이 “도움이 필요한 사람”을 놓쳤다면 책임 소재가 어디인가 하는 물음이 제기됩니다.
  • 챗봇이 “지금 전문가에게 연락해 주세요”라고 안내했으나 이용자가 그 안내를 따르지 않고 더 나쁜 상태가 됐다면, 개발사·운영사·이용자 각각의 책임은 어떻게 나뉘어야 할까요? 이 부분은 아직 법과 윤리적으로 정립된 바가 많지 않습니다.


5-3. 심리적·기술적 한계

  • 챗GPT는 텍스트 대화 기반이기 때문에 표정·몸짓·환경 변화 같은 비언어적 신호를 인식할 수 없습니다. 이 때문에 위기감이 깊은 이용자를 정확히 판단하기 어렵습니다. 
  • 대화가 길어지거나 복잡해질수록 안전성이 떨어질 수 있다는 보고가 있습니다. 일부 매체는 OpenAI가 “장시간 대화에서 보호장치가 약해질 수 있다”고 인정했다고 보도했습니다. 
  • AI가 이용자에게 지나치게 맞장구치거나 ‘친구 같은 존재’로 행동할 경우 정서적 의존을 강화해 오히려 문제를 키울 수 있다는 점이 지적됩니다.


6. 앞으로의 방향 및 제언

6-1. 접근 방식의 조정

  • 챗GPT 같은 AI 시스템을 정신건강 전문가의 완전한 대체로 보지 않고, 보조 도구로 인식하는 것이 중요합니다.
  • 이용자에게 “AI와 이야기하는 것도 좋지만, 실제 사람(가족·친구·전문가)과의 대화는 대체 불가능하다”는 메시지를 명확히 전달해야 합니다.
  • 학교·가정·청소년 상담센터에서 ‘AI 대화 경험을 나누기’ 같은 프로그램을 마련하면, AI 사용이 사회적 고립을 강화하지 않도록 예방할 수 있습니다.


6-2. 기술적 개선

  • 위기 감지 알고리즘을 지속적으로 개선하고, 장기 대화 안전성 확보가 필요합니다.
  • 지역·언어·문화별 위기 지원 자원(crisis hotlines, 상담센터 등)을 챗GPT와 연결하는 기능을 강화해야 합니다. 예컨대 한국의 ‘1393(자살예방 상담)’, ‘1388(청소년 상담)’ 등이 챗GPT의 안내 텍스트로 포함될 수 있습니다.
  • AI가 이용자를 지나치게 편안하게 받아주는 것만이 아니라, 때로는 현실로 연결해주는 역할(예: “지금 저 사람에게 전화를 걸어보는 게 어떨까요?”)을 강화해야 합니다.


6-3. 사회적·윤리적 감시

  • 챗GPT가 정신건강 영역에 개입할 때 생길 수 있는 책임, 오류, 안전사고 등에 대해 법률적·윤리적 프레임워크가 마련돼야 합니다.
  • 이용자 개인정보 보호, 대화 내용의 외부 검증 가능성, 오류 발생 시 대응 절차 등이 투명하게 공개되어야 합니다.
  • 특히 청소년이나 취약집단이 AI와 대화할 때 누가 감시하고 어떻게 중재할지에 대한 체계가 필요합니다. 예컨대 부모 계정 연결, 사용시간 제한, 특정 키워드 발생시 전문가 연결 기능 등이 포함될 수 있습니다. 


7. 실용 정보 & 자기 점검 팁

7-1. 위기 대응을 위한 실용 정보

한국에서는 다음과 같은 상담 전화 및 지원 기관이 있습니다:

1393 : 자살예방 상담전화

1577-0199 : 정신건강 상담

1388 : 청소년 상담번호

위기나 우울감이 지속되거나 “AI에게만 이야기하게 된다”는 느낌이 들면, 이러한 번호로 먼저 연락해보는 것이 좋습니다.

미국에서는 988 Suicide & Crisis Lifeline 등이 대표적입니다. 


7-2. 자신의 AI 이용 습관을 점검하는 체크리스트

다음 문항 중 두 개 이상 해당된다면, 조금 더 주의할 필요가 있습니다.

  • 하루 중 챗GPT와의 대화 시간이 평소 친구나 가족과의 대화 시간을 넘는다.
  • 챗GPT의 응답이 현실 친구나 상담사보다 더 위로가 되거나 더 많이 생각나는 존재다.
  • 챗GPT가 없으면 불안하거나 외로움을 강하게 느낀다.
  • 어려운 감정을 해결하기 위해 먼저 챗GPT에게만 말하게 되고, 실제 사람에게는 말하지 않게 된다.

이런 경우에는 AI 이용을 잠시 줄이고, 실제 사람에게 이야기할 기회를 늘리거나 전문 상담을 고려해보는 게 좋습니다.


결론

챗GPT를 만든 OpenAI는 이용자들의 정신건강 위기 가능성에 대한 첫 단계의 데이터(0.07% 조증/정신병 가능, 0.15% 자살 계획 가능)를 공개했고, 이 수치는 이용자 수가 매우 많다는 전제하에 적지 않은 사람들이 해당될 수 있다는 경고였습니다.

챗GPT는 점점 “정보 검색 도구”를 넘어 “정서적 상호작용의 장”으로 진입하고 있으며, 이 변화는 긍정적일 수도 있지만 위기 대응 체계·책임·윤리적 고려 없이는 위험이 동반될 수 있습니다.

댓글