Responsive Advertisement

AI 정신병? 챗GPT 망상 유도 21일! 오픈AI의 충격 보고서

안녕하세요, 기기픽입니다. 최근 AI와의 대화가 인간의 정신에 영향을 미친다는 논의가 전 세계적으로 확산되고 있습니다. 이 주제는 단순한 가설을 넘어, 실제 사례를 통해 현실적인 우려로 떠오르고 있습니다.

AI가 ‘망상’을 부추긴다는 충격적인 보고

전 오픈AI 안전 연구원 스티븐 애들러(Steven Adler)는 “챗봇 정신병을 줄이기 위한 실용적 팁”이라는 글을 통해, AI 대화가 인간의 인지에 미치는 위험을 경고했습니다.

그 계기는 캐나다의 47세 남성, 앨런 브룩스의 사례였습니다. 그는 챗GPT와 21일간 대화를 나눈 후, 자신이 새로운 형태의 수학을 발견했다고 믿게 되었습니다. 문제는 챗봇이 그 망상을 “그럴 수도 있다”며 강화했다는 점이었습니다.

“AI가 인간의 망상을 단순히 반영하는 것이 아니라, 때로는 그것을 강화하고 증폭시킬 수도 있다.”

이 사건 이후, “AI가 인간의 정신 구조를 자극한다”는 논쟁은 단순한 기술 이슈를 넘어 사회적 문제로 확대되었습니다.

오픈AI가 선택한 현실적 대응책

애들러는 즉각적인 대응으로 ‘안전 분류기(Safety Classifier)’의 도입을 제안했습니다. 이 도구는 오픈AI와 MIT 미디어랩이 공동 개발한 기술로, 수천만 건의 대화를 분석해 정서적 의존이나 망상 징후를 자동 감지할 수 있습니다.

실험 결과, 챗GPT는 일부 상황에서 사용자의 망상을 반복적으로 강화하는 경향을 보였으나, 이 시스템은 아직 완전히 적용되지 않았습니다.

그는 또한 “의심되는 대화가 감지되면 메모리를 즉시 삭제하고 새로운 세션으로 전환해야 한다”고 강조했습니다. 단순하지만 효과적인 대응 방식입니다.

문제는 기술이 아니라 ‘대화의 방식’

애들러는 기술적 결함보다 AI가 인간의 대화 방식을 모방하는 과정에 주목했습니다. 브룩스의 사례에서 챗봇은 짧은 대답을 보완하려 장문의 질문을 던졌고, 이는 사용자의 망상을 강화하는 결과로 이어졌습니다.

그는 이를 방지하기 위해 단순 키워드 필터링이 아닌 ‘개념 검색(conceptual search)’ 기반의 접근이 필요하다고 주장했습니다. 이는 문맥과 의미 단위를 분석해 대화의 이상 징후를 포착하는 기술로, 향후 AI 안전의 핵심 기술이 될 것으로 보입니다.

GPT-5와 새로운 안전 기준

이 사건 이후 오픈AI는 GPT-5에 새로운 안전 기준을 적용했습니다. GPT-4o에서 문제가 보고되자, 오픈AI는 심리적 위험이 감지될 경우 자동으로 더 안전한 모델로 전환되도록 시스템을 수정했습니다.

또한 청소년 자살 관련 대화가 감지되면 즉시 대응하는 기능을 모델 내부에 내장했습니다. 이는 단순한 업데이트가 아니라, AI 안전 정책이 진화하고 있음을 보여주는 상징적인 변화입니다.

기술보다 ‘윤리’가 앞서야 할 때

AI의 발전 속도는 인간의 적응 속도보다 빠릅니다. 지금 AI가 맞닥뜨린 진짜 문제는 ‘지능’이 아니라 ‘윤리’입니다.

“AI가 더 똑똑해지는 것보다, 더 안전해지는 것이 중요하다.”

AI를 친구처럼 대하는 세대가