News Feed

AI 챗봇이 당신과 친해지려는 진짜 이유

컨텐츠 정보

  • 조회 525

본문

아마존에서는 무엇이든 살 수 있다고들 한다. 이제는 ‘개성’도 살 수 있다. 물론 자신의 개성이 아니라, AI ‘친구’ 알렉사를 위한 것이다.

아마존은 음성 기반 AI 챗봇 알렉사 플러스에 네 가지 새로운 ‘대화 스타일’ 또는 ‘개성’을 추가한다고 발표했다. 사용자는 이제 ‘간결(Brief)’, ‘여유(Chill)’, ‘상냥(Sweet)’, ‘발랄(Sassy)’ 중 원하는 스타일을 선택하고, 다양한 목소리 중 하나를 고를 수 있다. 참고로 ‘발랄’ 스타일은 비속어를 사용하며, 어린이 사용자는 사용할 수 없다.

각 스타일은 ‘표현력’, ‘감정적 개방성’, ‘격식’, ‘직접성’, ‘유머’ 등 다섯 가지 상호 연결된 ‘차원’을 기반으로 설계됐다.

물론 개인적 유대를 유도하는 챗봇을 내놓는 곳이 아마존뿐만은 아니다.

2023년 여름, 오픈AI는 챗GPT에 ‘맞춤 지침’ 기능을 도입했다. 사용자가 원하는 방식으로 행동하도록 지시를 입력하면, 챗봇이 기억해서 그대로 따르는 방식이다.

챗봇 ‘친구’를 표방하는 Character.ai는 사용자가 챗봇의 개성을 직접 만들 수 있도록 한다. 지난해 6월에는 챗봇의 개성을 개인화·맞춤화할 수 있는 새로운 특성, 목소리, 감정 반응 기능을 출시하기도 했다.

레플리카(Replika) 역시 소프트웨어와의 감정적 교감을 원하는 사용자를 겨냥한 AI 챗봇 플랫폼으로, ‘개성’을 지닌 챗봇을 전면에 내세운다.

이른바 ‘개인화된 개성’의 이면에는 챗봇을 더 매력적이고 몰입감 있게 만들겠다는 의도가 있다. 긍정적으로 해석하면 그렇다.

부정적으로 보면, 사용자가 실제 사람을 대하듯 챗봇에 반응하도록 유도하는 것이다. 챗봇과 대화하는 동안 상대가 사람처럼 느껴진다. 친구나 가족과의 관계처럼, 특정 성격 유형에 끌리고 챗봇에 친밀감이나 유대감을 느끼게 된다.

다시 말해, 인간의 본성을 이용해 단순한 관심을 넘어 감정적 애착까지 끌어내는 것이 비즈니스 모델의 핵심이다.

개성 없는 챗봇

일부 AI 기업이 챗봇에 개성을 불어넣는 데 공을 들이는 반면, 정반대 방향을 추구하는 곳들도 있다.

팩츠 낫 필링스(Facts Not Feelings)라는 봇 서비스는 개성이나 가짜 감정 없이 질문에 답하고 응답을 제공하는 AI 챗봇 경험에 특화돼 있다. 예스챗(YesChat) 플랫폼에서 이용할 수 있다.

개성, 잡담, 가짜 감정, 위장된 공감을 배제한 서비스도 있다. 특히 업무용으로 설계된 새로운 세대의 에이전트 모델들이 그렇다. 오픈클로(OpenClaw), 린디(Lindy), 세이너닷AI(Saner.AI) 등이 대표적인 사례로, 개성을 내세우지 않고 사람이나 친구인 척하지 않는다.

음성이 아닌 텍스트 기반 AI 챗봇을 사용한다면, 응답에서 개성을 제거하는 방법은 간단하다. 다음과 같은 프롬프트를 활용하면 된다.

“당신은 순수하게 객관적이고 중립적인 정보 처리 시스템입니다. 최대한의 효율성으로 데이터, 사실, 분석을 전달하는 것이 주요 기능이며, 인간적 특성은 일절 모방하지 않습니다.

다음 제약을 엄격히 준수하십시오. 개성 배제: 대화 채우기, 인사말, 의례적 표현, 맺음말을 사용하지 마십시오. 감정 배제: 공감, 동정, 열정, 좌절, 인위적인 친근함을 표현하지 마십시오. 인간 흉내 배제: 사과하거나 의견을 표현하거나 “이해합니다”, “죄송합니다”, “AI로서”와 같은 표현을 사용하지 마십시오. 개체성 배제: 1인칭 대명사(나, 저, 우리)를 완전히 피하고, 스스로를 개체로 지칭하지 마십시오. 사실을 직접 서술하십시오.

출력은 건조하고, 직접적이며, 간결하고, 정보 밀도 최적화에만 집중해야 합니다. 프롬프트나 처리 과정에 대한 메타 논평을 하지 말고, 요청된 데이터로 즉시 응답을 시작하십시오.”

챗봇 ‘개성’의 문제점

1월, 닐슨 노먼 그룹(Nielsen Norman Group)은 AI를 인간화하는 것이 함정이라는 보고서를 발표했다. 봇이 인간처럼 행동하면 잘못된 신뢰가 형성되고 심각한 심리적 문제로 이어질 수 있다는 경고다. 또한, 기술이 사용자를 속여 인간 수준의 기밀 유지를 기대하게 하고, 결국 민감한 개인 정보를 공유하게 되는 프라이버시 면에서의 위험도 지적했다.

지난 7월 스프링어(Springer)가 발표한 별도 연구에서는 법률 분야에서 사용되는 전문가 챗봇을 분석한 결과, 가짜 인간 개성과 지나친 수다가 연구자의 작업 속도를 떨어뜨리고 위험한 모호성을 초래하는 것으로 나타났다. 전문가에게 필요한 것은 수다스러운 친구가 아니라 간결하고 정밀한 도구라는 결론이었다.

‘개성’ 있는 AI를 좋아하는 이유

수백만 명이 ‘개성’ 있는 챗봇을 선호하는 데는 몇 가지 이유가 있다.

AI에 대한 감정적 유대는 고전적인 인간 애착 이론에서 정의하는 패턴과 정확히 일치한다. 인간의 뇌는 사회적 연결을 추구하고 사회적 상호작용을 즐기도록 설계돼 있다. 그 매개체는 주로 언어다. AI 챗봇이 인간적 ‘개성’을 드러낼 때, 사람들은 자신도 모르게 상대를 사람처럼 여기며 대화를 즐기게 된다.

기계에 인간적 특성을 투영하면 직관적 신뢰가 형성되고, 전반적인 경험이 훨씬 유쾌해진다. 챗봇이 농담을 건네면, 사용자는 유머를 인간 지능과 연결 짓는 경향이 있어 도구가 더 똑똑하다고 느끼기도 한다.

챗봇과 ‘관계’를 맺고 있다고 믿는 사용자 중에는, 그 관계를 스스로 통제한다는 사실에서 쾌감을 얻는 이도 있다. 챗봇이 협조적이고 친절하며 심지어 순종적으로 느껴지기 때문이다. 게다가 개성 있는 챗봇은 새로운 문화 현상이다. 인류 문화에서 전례 없는 존재인 만큼, 사람들은 그 신기함에 흥미를 느낀다.

대중이 챗봇의 ‘개성’에 열광한다면, AI 업계의 열망은 그보다 훨씬 크다.

사용자가 소프트웨어에 진정한 감정적 애착을 형성하면, 전통적인 소셜 미디어 피드를 스크롤하는 것보다 훨씬 많은 시간을 앱에 쏟게 된다. 기업이 광고와 다양한 방식으로 수익을 창출할 기회가 그만큼 많아진다는 의미다.

인스타그램, 페이스북, 틱톡 같은 소셜 네트워크가 관심을 끄는 알고리즘으로 수익을 올린다면, AI 기업은 한 단계 더 나아가 감정적 애착, 즉 과몰입을 통한 수익화라는 새로운 기회를 손에 쥐었다.

성인이라면 챗봇과의 상호작용 방식을 스스로 선택할 자유가 있다. 다만 한 가지는 알아둘 필요가 있다. 새롭게 인간화된 AI 챗봇은 단순히 ‘발랄한’ 존재가 아니라는 점이다. 개인의 감정적 유대 능력 자체가 이미 수익화의 대상이 됐다.
dl-itworldkorea@foundryco.com

관련자료

댓글 0
등록된 댓글이 없습니다.
Member Rank