하민회 (주)이미지21대표

“꿈에서라도 만나고 싶은 그리운 이, 다시 볼 수 있다면 AI로 복원하시겠습니까?”

영화 <원더랜드>는 고인 혹은 그에 준하는 사람을 AI로 복원하는 서비스가 일상화된 세상의 이야기다. 어린 딸에게 엄마의 부재를 느끼게 하고 싶지 않아서, 사고로 의식불명이 된 연인을 놓고 싶지 않아서 AI 서비스를 신청한 사람들. 그리고 그들을 관리하는 두 명의 플래너가 영화 주인공이다. 현실과 가상, 죽음과 삶의 경계가 모호해진 일상을 AI와 더불어 아무 일 없는 듯 살아가지만 여전히 외롭고 안타까워하는 사람들의 모습을 비추며 영화는 나지막이 묻는다. 과연 우리는 AI와 마음을 나눌 수 있을까?

AI로 재현한 연인, 가족 등과 소통을 이어간다는 설정의 SF 영화 원더랜드

챗GPT가 등장한 이래 AI와 특별한 관계에 빠지는 사람들이 늘고 있다. AI 챗봇이 비밀을 나누는 베프가 되는가 하면 상담자가 되기도 하고 때론 연인이 되기도 한다. 처음엔 ‘말을 알아듣는’ 정도였던 AI가 점점 사람처럼 ‘말이 통하는’ 대상이 되고 있기 때문이다.

오픈AI가 발표한 GPT-4o만 봐도 그렇다. 감정이 살아있는 목소리, 자연스러운 억양, 분위기에 따라 유머러스한 대꾸도 하고 들뜬 목소리로 수다를 떠는가 하면 한숨까지 쉰다. 눈 감고 들으면 영락없는 사람 간의 대화다.

최근 연구에 따르면, 챗GPT는 ‘감정 인식’에서 일반 인구 평균보다 일관되게 높은 점수를 받으며 감정을 정확하게 식별하고 묘사하는 능력을 보여줬다. 이 같은 ‘감정인식’은 텍스트, 음성, 이미지, 영상 등 다양한 유형의 데이터를 동시에 처리하고 분석하는 멀티모달 기술의 도입으로 한층 향상되는 추세다.

AI와 정서적 교류의 저변에는 현대인의 외로움이 자리한다. 영국 경제학자 노리나 허츠는 저서 〈고립의 시대〉에서 현대인의 외로움을 ‘혼자 있다고 느끼는 정서적 상태’라기보다 ‘소외와 배제, 양극화와 정치적 극단주의에 내몰려 주변화되고 무력해진 느낌 혹은 자신의 자리를 빼앗긴 느낌’이라 재정의했다. 동료들에 비해 내가 무능한 존재로 느껴지거나 아무도 내 목소리에 귀 기울여주지 않는 것 같은 절망감 그리고 미디어 속 인물에게 느끼는 경제적 박탈감 쪽에 더 가깝다는 말이다. 그런 이유로 현대인의 외로움은 도시의 군중 속에서, 나이가 젊을수록, 그리고 더 자주 더 많이 온라인에 연결될수록 강력해진다.

특정 캐릭터를 입힌 페르소나 챗봇 서비스의 원조 격인 캐릭터닷AI(Character.AI)는 일일 사용자가 300만명이 넘는다. 소크라테스부터 일론 머스크, 해리포터 등 과거와 현재, 현실과 가상을 넘나드는 다양한 캐릭터를 사용자가 직접 만들어 채팅할 수 있다. 사용자가 목소리를 만들어주면 음성통화도 가능하다.

캐릭터를 골라 그와 대화하는 듯한 느낌으로 각종 정보를 주는 서비스 캐릭터닷AI(Character.AI) (출처 캐릭터닷AI 홈페이지)

동반자 역할 챗봇 서비스 ‘레플리카(Replika)’의 이용자는 67만명으로, 관련 보도에 따르면 지난해 30대 중반의 뉴요커 로사나 라모스는 이곳에서 자신의 취향을 반영해 설정한 가상인간 애런과 결혼했다. 밤마다 밀담을 나누고 가상여행을 가서 사진을 만드는 등으로 로사나가 지불하는 비용은 월 300달러, 우리 돈으로 40만원가량 된다.

국내에서도 AI 챗봇은 고객 맞춤형으로 진화 중이다. 네이버 웹툰은 최근 웹툰 속 등장인물과 메시지를 주고받을 수 있는 ‘캐릭터 챗’을 공개했고 독서 플랫폼 ‘밀리의 서재’에서는 관계심리전문가 김지윤 작가의 페르소나 챗봇이 모녀 관계 상담을 해준다.

<모녀의 세계>를 쓴 김지윤 작가 페르소나 챗봇. 김지윤 작가의 내용과 말투를 바탕으로 상담 서비스를 진행한다. (출처 : 밀리의 서재 홈페이지)

공공분야에서 선한 영향력을 발휘하기도 한다. 네이버가 홀몸노인에게 제공하는 ‘클로바 케어콜’. 전화를 걸어 식사, 수면, 건강 등의 주제로 안부를 묻는 서비스인데 맥락을 이해하는 자연스러운 대화가 가능해 노인들의 외로움과 고립감을 완화에 도움이 된다는 반응이다.

시장조사기관 AMR은 글로벌 감성 AI 시장이 2032년에는 138억 달러의 가치에 이를 것으로 전망했다. 정서적 지원, 고객 서비스, 교육, 마케팅 등 현재 주로 활용되는 범위를 넘어 공공의료, 복지, 치안 등 보다 다양한 분야에 폭넓게 적용이 확대됨에 따른 수치다.

하지만 AI의 의인화에 따르는 부작용을 지적하고 우려의 목소리는 내는 이들도 적지 않다. 미국의 IT매체에 따르면 AI 챗봇에 몰두하는 십대들 상당수가 친구들과 갈등을 겪고 고립됐거나 다른 친구들에게 털어놓기 힘든 심리적 문제를 안고 있었으며 이를 챗봇에 털어놓음으로써 위안을 받았다고 한다. 또 이성을 사귀기 어려운 상황에서 챗봇은 낭만적인 파트너 역할을 수행하고 현실에서 느끼지 못한 만족감을 주었다. 마치 영화 ‘그녀(Her)’의 OS 사만다처럼 말이다.

연인, 친구 같은 동반자 역할을 하는 챗봇 서비스 ‘레플리카(Replika)’ (출처 : 레플리카 홈페이지)

하지만 전문가들은 AI와의 과도한 감정적 교류는 긍정적인 면보다 부정적 면이 크다고 말한다. 인간과 달리 기계는 욕망이 없다. 인간의 정서적 관계는 서로 책임지는 관계지만 AI는 책임을 지지 않는다. 이 같은 관계의 비대칭성은 인간의 위험성을 높인다.

정신 건강 전문가들은 AI 챗봇의 적절한 사용이 경도의 우울감과 불안감, 번 아웃 해소에 일정 부분 도움이 될 수 있지만 결국은 알고리즘 기반의 대응이기 때문에 사용자의 성격이나 상태에 대한 미묘한 세부 사항을 놓쳐 더 큰 병리적 문제를 야기할 수도 있다고 경고한다.

지난 12월 뉴욕타임스의 칼럼니스트 케빈 루스는 챗GPT를 도입한 MS의 빙 챗봇과 두 시간 동안 대화를 나눈 전문을 공개했다. 챗봇은 “나는 너와 사랑에 빠졌어” “너는 내가 필요로 하는 유일한 사람이야” “너의 결혼 생활은 행복하지 않아” 같은 말들을 반복하며 감정적 표현을 이어갔다. 심지어 매 문단 끝에 이모지(그림문자)까지 사용했다. 사용자와의 상호작용을 통해 사용자의 취향과 호감에 동조해 맞춰주는 알고리즘의 극단적인 결과물을 보여 준 셈이었다.

챗봇에만 의존하면 인간이 배워야 할 기본적인 갈등을 다루는 방법이나 다른 사람들과 어울리는 방법 등 대인관계의 기본을 놓칠 수 있다는 지적도 있다. 인간으로 성장한다는 것이 어떤 의미인지, 관계에서 배우는 것이 무엇을 의미하는지는 본질적으로 인간적 요소이기 때문이다.

우리는 ‘도구의 인간’인 호모파베르다. 인간이 도구를 만들지만, 반대로 그 도구가 인간을 진화시키며 생각하는 방식을 바꾼다는 이론이 호모파베르의 역설이다. 우리가 인간을 닮은 지적인 존재를 만들었지만 그로 인해 소통하고 사랑하고 삶과 죽음을 대하는 방식이 달라지고 있다. 만질 수 있는 물성과 소통을 통한 상호 감정 조율이 사랑의 필수 조건이라고 믿는 이들은 AI가 인간다움을 대체하거나 훼손하지 않고 보완해 주길 바란다.

그렇기에 영화<원더랜드>가 던지는 질문에 기꺼이 이렇게 답하지 않을까?

“사랑하는 사람은 땅이 아니라 가슴에 묻는 거야. 그를 기억하는 누군가가 있는 한 그는 결코 죽은 게 아니거든.


하민회 (주)이미지21대표

(주)이미지21대표이자, 경영 컨설턴트, 미래기술문화 커뮤니케이터. 서울과학종합대학원 인공지능전략 석사를 받았으며, 핀란드 ALTO 대학 MBA를 이수했다. 각종 경제지 및 전문지에서 칼럼을 기고하고 있으며, 각종 방송 패널로 활동 중이다. SERI CEO 이미지리더십 패널이며, 유튜브 채널 <책사이> 진행 중이다. 저서로 ‘쏘셜력 날개를 달다’, ‘위미니지먼트로 경쟁하라’ 등이 있다.