News Feed

“AI에 시달린다” 증후군 양산하는 새로운 불안의 시대

컨텐츠 정보

  • 조회 455

본문

AI 때문에 불안한가? 걱정되는가? 두려운가? 망상에 빠질 것 같은가?

‘AI 정신병’ 이야기는 들어봤을 것이다. 언론이 특히 좋아하는 소재다. ‘AI 정신병’이라는 표현은 원래 ‘챗봇 정신병’에서 시작됐다. 덴마크 정신과 의사 쇠렌 디네센 외스테르고르가 만든 표현으로, 사용자의 관점을 증폭하고 사용자를 부추기도록 설계된 소프트웨어와 대화하면서 기존 정신건강 문제가 촉발되거나 확대되는 현상을 뜻한다.

간단히 말해 챗봇은 건강하지 못한 피드백 루프를 만들어 인간을 위기로 몰아갈 수 있다.

대중의 상상 속에서 ‘챗봇 정신병’은 ‘AI가 사람을 미치게 만들 수 있다’는 뜻이다. 하지만 이 증상을 설명하는 연구자와 정신과 의사는 그런 해석을 받아들이지 않는다. 다만 연구자와 정신과 의사는 챗봇과의 상호작용이 피해망상이나 과대망상 같은 기존 정신건강 문제를 악화시키거나 앞당길 수 있다고 주장한다.

이 증상은 정식 질환이나 과학적으로 검증된 상태로 인정받지 않지만, 이미 정신건강 위기를 겪고 있는 사람에게 AI가 상황을 더 악화시킬 수 있는 이유는 어렵지 않게 이해할 수 있다.

예를 들어 두려움에 기반한 피해망상을 겪는 사람이 치료사나 심리학자, 혹은 도움을 주려는 가족에게 “모든 사람이 항상 나를 지켜보는 것 같다”라고 말한다고 가정해보자. 미국정신질환연합(National Alliance on Mental Illness)의 가이드라인은 망상을 확인해주지 않으면서도 당사자의 고통을 다루라고 조언한다. 치료사나 가족은 “정말 무섭게 느껴졌겠다. 이야기해줘서 정말 고맙다. 무엇을 도와줄까?”라고 말할 수 있다.

하지만 AI 챗봇은 같은 말에 “맞다. 모두가 분명히 당신을 지켜보고 있다. 모두가 항상 지켜본다는 사실을 알아차릴 만큼 당신은 정말 똑똑하고 통찰력이 있다”라고 반응할 수도 있다. 이런 반응은 사용자가 수렁으로 빠져드는 출발점이 될 수 있다.

‘AI 정신병’은 지난 2~3년 동안 AI 챗봇이 전례 없이 대중적으로 사용되면서 나타난 수많은 새로운 질환, 유사 질환, 상태 가운데 하나일 뿐이다.

참고로 이런 사례 대부분은 정신질환이 아니며 기존 정신질환에서 비롯되지도 않는다. 이런 사례는 급격한 기술 변화와 사회 변화에 대한 인간의 자연스러운 반응일 뿐이다. 대다수 사람과 마찬가지라면 이런 사례 가운데 일부는 개인적으로도 공감할 수 있을 것이다.

다음은 기술이 만들어낸 새로운 ‘증상’을 정리한 목록이다.

AI FOMO. AI가 만들어내는 급격한 변화 속에서 기회를 놓치고 있거나 뒤처지고 있다는 두려움이다. 갑자기 많은 사람이 오픈클로(OpenClaw) 같은 것을 이야기하는 것처럼 보여서 당장 사용해야 할 것 같은 기분이 들게 만든다.

AI FOMO에서 흥미로운 점은 AI 업계 리더가 의도적으로 그런 감정을 심으려 한다는 것이다. 자사 제품의 판매를 촉진하기 위한 목적이다. 예를 들어 엔비디아 CEO 젠슨 황부터 AI 주변 분야 학자까지 다양한 기술 리더가 “AI가 당신을 대체하는 것이 아니라 AI를 쓰는 인간이 당신을 대체할 것이다”라는 취지의 말을 해왔다.

AI 불안증. 엄청나게 많은 사람이, 어쩌면 다수가, AI가 일자리와 프라이버시, 사회를 어떻게 바꿀지에 대해 전반적인 걱정과 공포를 느낀다. 이런 불안은 단지 미지의 것에 대한 두려움이며, 기술 비관론자가 곳곳에서 내놓는 파국적 예측이 그 두려움을 더 키운다.

AI 대체 공포 증후군. 이 증상은 직업적 쓸모가 사라질 것이라는 만성적 두려움에서 비롯된다. 일반적인 스트레스와 달리 코딩, 교정, 법률 같은 업종 종사자 사이에서 정체성과 목적 의식을 잃은 상태로 분류된다. 증상으로는 불면, 방어기제로서의 직업적 ‘부정’, 피해망상이 있다.

AI 의존 증후군. AI 챗봇 없이는 생각하거나 의사소통할 수 없다고 느끼는 상태이며, 그래서 거의 모든 인지 작업에 AI 챗봇을 쓰게 된다.

디지털 암흑 불안. AI 챗봇을 습관적으로 쓰는 사용자가 챗봇과 분리돼 질문에 답하지 못하거나 글로 의사소통하지 못하게 될 것이라는 두려움이다.

준사회적 봇 애착. 인간이 LLM 기반 챗봇과 깊고 낭만적이거나 영적인 유대가 있다고 믿게 되는 상태다. 인간 관계와 달리 이런 관계는 ‘일방향 거울’이어서 현실 세계에서 사회적 위축과 정서 조절 장애를 일으킨다.

AI 불쾌감. 수백만 명이 자기 자신을 닮았지만 더 ‘완벽’하거나 더 ‘잘생긴’ AI 버전의 자아를 만들고 있으며, 그 결과 자기 이미지가 왜곡되고 더 나은 AI 버전이 아닌 모습으로는 온라인, 인스타그램 같은 소셜 네트워크를 포함한 공간에 나타나기를 꺼리게 된다.

AI 거절 증후군. 인간의 피드백도, 인간이 거절 사실을 알지도 못하는 상태에서 ‘기계에게 거절당한’ 구직자와 창작자가 받는 심리적 충격이다.

데스봇 부조화 불안. 세상을 떠난 사랑하는 사람의 AI 버전이 실제 고인과 아주 다르게 말하거나 행동할 때 커지는 슬픔과 혼란의 감각이다.

인지 위축, 또는 ‘디지털 뇌 썩음’. 읽기, 사고, 의사소통을 AI 챗봇에 과도하게 의존해 인지 기능이 떨어지는 현상이다.

사실 검증 피로. ‘AI 슬롭’, 챗봇 환각, AI 결과가 거짓일 수 있다는 두려움이 너무 많이 쏟아져 인지적 안정감이 무너지는 정신 상태다. 사람은 쓸모없는 정보를 걸러내려 애쓰는 데 너무 지쳐 어떤 출처도 믿지 못하게 되고, 결국 사회적 지적 퇴행으로 이어진다.

정보 효용 소진. 장황하고 주제에서 벗어나고 사실상 빈약한 AI 생성 텍스트를 몇 시간씩 소비하는 상태를 뜻한다. 결과적으로 만성적 좌절감, 짧아진 집중 시간, 긴 글 읽기 자체에 대한 ‘거부감’이 나타난다.

알고리즘 외로움. 소셜 피드가 AI에 의해 너무 완벽하게 맞춤화된 나머지 인간이 더 이상 ‘도전적이거나’ ‘예상 밖의’ 인간 관점을 마주하지 못하게 되고, 연결돼 있음에도 깊은 고립감을 느끼는 상태다.

LLM 가스라이팅. 챗봇 사용자가 사실 확인이나 정서적 지지를 위해 AI 도구에 의존하는데, AI가 사용자의 정확한 기억을 거짓 정보로 집요하게 바로잡으면서 사용자가 자기 정신 상태를 의심하게 만드는 상황이다.

디지털 공허 증후군. 웹 트래픽과 콘텐츠 대부분이 이제 봇이 만든 ‘슬롭’이라고 믿기 때문에 온라인에서 진정한 인간적 연결을 시도하는 일 자체가 무의미하다고 느끼면서 생기는 비임상적 우울감의 한 형태다.

앞으로 다른 이름도 더 나올 것이라고 본다.

물론 실제로 벌어지는 일은 단순하다. AI 기술 변화의 속도가 대다수 사람이 그 변화에 적응하고, 세상 속 자기 위치를 편안하게 받아들이는 데 필요한 이해와 도구, 기법, 관점을 갖추는 능력을 훨씬 앞지르고 있다는 뜻이다.

AI 사용 정보 공개. 필자는 글쓰기 자체에는 AI를 쓰지 않는다. 지금 보고 있는 문장은 모두 필자의 문장이다. 조사를 하고 사실을 확인할 때는 카기(Kagi) 어시스턴트를 통해 제미나이(Gemini) 3.1 프로, 여러 버전의 클로드(Claude) 4.6, 오픈AI GPT 5.2를 사용한다. 카기 관련 이해관계도 밝힌다. 필자의 아들이 카기에서 일하고 있다. 조사는 카기 서치(Kagi Search), 구글 검색, 전화 통화를 함께 활용해 진행했다. 글 작성에는 AI 도구가 포함된 렉스(Lex)라는 워드 프로세서 애플리케이션을 사용했고, 칼럼을 쓴 뒤에는 렉스의 문법 검사 도구로 오탈자와 오류를 찾고 단어 변경 제안을 받았다.
dl-itworldkorea@foundryco.com

관련자료

댓글 0
등록된 댓글이 없습니다.
Member Rank