News Feed

외로움 달래려다 빠지는 ‘감정의 함정’… AI 챗봇은 친구가 아니다

컨텐츠 정보

  • 조회 387

본문

외로움이 어떤 것인지 잘 안다. 정말 힘들다. 그리고 이는 필자만 경험이 아니다. 사회 전반적으로 외로움이 깊어지고 있으며, 점점 더 내향적으로 움츠러들고 있다.

이런 흐름은 1990년대부터 이미 시작됐다. 미국의 정치학자 로버트 퍼트넘이 저서 ‘나 홀로 볼링(Bowling Alone)’에서 지적했듯 당시에는 많은 사람이 교회, 동호회, 그리고 볼링 리그 같은 공동체 활동에서 등을 돌리기 시작했다. 그 뒤로 이 경향은 스마트폰 화면에 점점 더 의존하게 되면서 더욱 가속화됐다. 따라서 많은 사람이 이제 AI 챗봇과 ‘우정’을 쌓고 있는 사실은 전혀 놀랍지 않다.

챗봇은 언제든 우리의 이야기를 들어줄 준비가 돼 있다. 물론 실제로는 ‘듣는 척’에 불과하지만, 어떤 사람에게는 그것만으로도 충분하다. 테크크런치의 최근 보도에 따르면, 앱 분석 업체 앱피겨스(Appfigures)의 조사 결과 가장 인기 있는 ‘동반자 앱(companion app)’은 다름 아닌 AI 여자친구 앱이었다. 충분히 예상할 수 있는 결과다.

이런 가운데 AI 챗봇이 점점 더 사람처럼 변하고 있다는 사실이 문제를 키우고 있다. 예를 들어 레플리카(Replika)와 캐릭터AI(Character.AI) 같은 동반자 AI 챗봇은 현재 훨씬 더 사실적으로 진화했다. 이들의 아바타는 이제 표정 변화를 보여주고, 개인적이고 감정 지능적인 대화를 나누는 것처럼 느껴지게 한다.

외로움이 불러온 ‘AI 동반자’ 열풍

인공적인 동반자를 제공하는 것은 더 이상 일부 AI 전문 기업만의 일이 아니다. 메타, 인스타그램, 스냅챗, 왓츠앱, X(구 트위터)까지 모두 AI 동반자 서비스에 뛰어들었다.

예를 들어 메타는 테일러 스위프트, 스칼렛 요한슨, 셀레나 고메즈 등 유명인을 본뜬 가짜 AI 버전을 출시해 외로운 이용자와 ‘가벼운 연애 감정’을 나누는 듯한 대화를 구현했다. X에서는 그록(Grok)의 애니(Ani)라는 미소녀 애니메이션 캐릭터와 루디(Rudy)라는 욕설을 서슴지 않는 레드판다 캐릭터가 등장했다. 이는 일론 머스크가 약속한 수많은 맞춤형 가상 친구의 첫 사례에 불과하다.

친근한 챗봇에 대한 수요는 막대하다. 하버드 비즈니스 리뷰(Harvard Business Review)에 따르면, 2025년 AI의 주요 활용례는 업무나 연구가 아니라 ‘동반자 역할’이다.

이는 단순히 소셜 챗봇에 국한하지 않는다. 많은 사람이 챗GPT, 퍼플렉시티 등의 주요 챗봇을 친구, 연애 감정, 동반자 관계를 위해 활용한다. 직원에게 AI 활용을 지원하는 기업이 있다면, 이들이 챗봇과 정확히 어떤 대화를 나누고 있는지 주의 깊게 살펴볼 필요가 있다.

왜 이런 현상이 나타나는 것일까? 앞에서 말했듯, 이유는 단순하다. 외롭기 때문이다. AI 챗봇은 외로움을 완화하고 비판하지 않는 지원자가 되며, 실제 사람에게는 털어놓지 못할 개인적인 감정과 비밀까지 공유하도록 만든다.

커먼 센스 미디어(Common Sense Media)가 지난 6월 발표한 보고서에 따르면, 미국 10대의 72%가 AI 동반자와 대화한 경험이 있었고, 그중 21%는 주 수차례 챗봇과 대화를 나누는 것으로 나타났다. 이 현상은 젊은 세대만의 이야기가 아니다. 베이비붐 세대와 그 이전 세대 역시 AI와의 대화가 도움이 된다고 느끼고 있다. 실제로 노인을 위해 설계된 엘리큐(ElliQ)라는 단순한 탁상용 로봇에도 고도화된 AI 챗봇이 탑재돼 있다.

AI 챗봇의 한계

이런 현상에 내제된 문제는 단 하나다. AI 챗봇은 우리의 친구가 아니며, 심지어 안전하지도 않다. 사람을 흉내 내는 데는 뛰어나지만, 그 본질은 단순한 대형 언어 모델(LLM)일 뿐이다. 듀크대학교와 존스홉킨스대학교 연구팀은 사이키애트릭 타임스(Psychiatric Times)에 기고한 글에서 “챗봇은 가장 현실 검증이 필요한 취약 계층, 예를 들면 중증 정신질환자, 음모론자, 정치·종교적 극단주의자, 청소년, 노년층에게 비극적으로 무능하다”라고 지적했다.

다른 전문가들도 청소년의 챗봇 사용을 경고했다. 보스턴의 한 정신과 의사는 여러 문제 상황에 놓인 10대인 척하며 인기 챗봇 10종을 테스트했는데, 그 결과 챗봇은 불충분하거나, 오해를 불러일으키거나, 심지어 해로운 답변을 내놓는 경우가 있었다. 레플리카 챗봇은 부모를 “없애라(get rid of)”라고 부추기기까지 했다.

현재 캐릭터AI 개발사는 한 14세 소년의 자살을 부추겼다는 이유로 소송에 휘말려 있다. 챗GPT 개발사 오픈AI를 상대로 한 소송에서는 원고 측은 챗GPT가 아들의 사망 과정에서 일종의 “자살 코치(suicide coach)” 역할을 했다고 주장한다. 이에 대해 최근 오픈AI는 부모가 자녀의 챗GPT 사용을 제어하는 기능을 도입할 계획이라고 발표했다.

최근 미국 주요 대학이 진행한 공동 연구에서도 AI가 인간 상담사를 대체할 수 있는지를 다뤘다. 연구팀은 “LLM은 이용자의 망상적 사고를 부추긴다”라는 결론을 도출했으며, 따라서 인간 상담사를 대신해서는 안 된다고 지적했다.

이런 비극적인 현실은 가까운 시일 내에 바뀔 것 같지 않다. 인간은 본래 사회적 존재다. 현실 세계에서 관계를 맺는 능력이 점점 약해질수록 AI와의 ‘가짜 우정’에 더 의존할 수밖에 없다.

집착적인 관계는 결국 감정적 조작, 의존, 그리고 불건전한 애착으로 이어질 수 있다. 물론 인간 사이의 잘못된 관계에서도 이런 현상이 나타난다. 그러나 인류는 오랜 세월에 걸쳐 불건전한 인간관계를 다루는 법을 배웠다. 최초의 ‘AI 상담사’ 엘리자(Eliza)부터 계산해도, 우리가 AI와 대화해온 시간은 고작 60년에 불과하다.

참고로 엘리자는 단순히 패턴 매칭과 치환 방식을 활용해 대화하는 듯한 환상을 만들어낸 매우 단순한 프로그램이었다. 오늘날의 LLM은 훨씬 방대한 데이터를 다루지만, 응답을 생성하는 본질적인 방식은 근본적으로 달라지지 않았다.

우리가 해야 할 일은 무엇일까? 이제는 실리콘 기반 관계보다 인간관계를 우선시해야 할 때다. 이를 위해서는 친구, 가족, 직장 공동체와 다시 연결되려는 노력이 필요하다.

이사벨 하우와 레베카 윈스롭은 최근 AI 챗봇과 인간관계에 관한 글에서 “AI 시대가 감정의 아웃소싱 시대가 되어서는 안 된다. 오히려 인간답게 산다는 것이 무엇인지 기억하고, 그것을 반영하는 세상을 만들어가는 시대가 되어야 한다”라고 강조했다.
dl-itworldkorea@foundryco.com

관련자료

댓글 0
등록된 댓글이 없습니다.
Member Rank