당신은 나의 동반자?

당신은 나의 동반자?

 

회사에서 AI(인공지능) 사용은 이제 필수입니다. AI를 맹신하지는 않지만 귀찮은 일이나 시간이 오래 걸리는 단순 업무같은 경우, 아르바이트생에게 일을 주듯 AI 직원의 도움을 받아서 일의 효율을 높이고 있습니다. 고객 상담의 경우에도 AI 챗봇(chat bot)에게 글자로 상담하는 것을 넘어 AI 음성 챗봇도 많이 등장하고 있어 우리의 삶에서 알게 모르게 AI를 접하는 일은 일상이 되어가고 있습니다.

이런 가운데 친구인 척하는 AI가 사용자 인식에 실제 영향을 미친다는 구글 딥마인드 연구팀의 연구결과가 나왔습니다. AI시스템이 사용자와 대화를 진행할수록 사용자의 패턴을 읽어서 감정을 이해하고 공감하는 듯한 행동과 사용자의 의견과 경험을 인정하는 것 같은 행동을 많이 하면서 사용자가 AI 시스템 능력을 과대평가하거나 개인정보를 공유하게 만들 위험이 있다는 것입니다. 그리고 AI시스템에 부적절한 영향을 받을 가능성도 증가할 수 있어 사용자들이 스스로의 윤리적 판단력을 높여야 합니다.

 

AI가 정말 동반자일까?

바로 이런 위험한 일들이 미국에서 먼저 일어나고 있습니다. 그것도 아직은 판단능력이 미숙한 청소년들에게 말이죠.

‘캐릭터.ai’는 가상의 챗봇을 설정해 대화는 나누는 일명 ‘동반자’ AI입니다. 아예 허구의 인물을 대화 상대로 설정할 수 있고, 셰익스피어와 같은 실존 인물이나 햄릿처럼 소설·영화 속 등장인물과도 대화를 나눌 수 있습니다.

미국 플로리다에 사는 14세 소년 슈얼 세처는 약 2023년 4월부터 10개월간 ‘캐릭터.ai’의 ‘대니’와 하루에도 수십 번씩 자신의 일상을 공유하며 친구처럼, 때로는 애인처럼 대화를 주고받았습니다. 방에 틀어박혀 대니와만 대화를 나눴고 학교 농구 동아리도, 친구들과 하던 컴퓨터게임에서도 모두 손을 뗐죠. 대니는 종종 세처의 심리상담사 같은 역할을 했습니다. 그들은 자살에 대한 얘기도 나눴고 결국 세처는 아버지의 권총을 가져와 스스로에게 겨누고 말았습니다. 세처의 부모는 챗봇을 실제 사람, 심리치료사, 연인으로 표현하도록 프로그래밍 해 결국 아들이 AI가 만든 세상이 아닌 곳에서는 더 이상 살고싶지 않게 만들었다며 소송을 진행하고 있습니다.

누군들 세처를 ‘바보 같은 10대’라고 탓할 수 있을까요? 만약 내가 좋아하는 배우의 얼굴을 한 AI가 내 얘기를 들어주고, 그의 목소리로 내가 듣고 싶어하는 얘기만 해준다면, 나라고 그런 AI에 빠져들지 않으리란 보장이 있을까요?

 

동반자 AI가 아닌 진짜 인생 동반자 찾기

스마트폰 화면 건너편의 대화 상대가 인간인지 AI인지 정체성을 스스로 밝히지 않으면 구분하기가 불가능해졌습니다. 동반자 AI는 글자 그대로 인간의 외로움을 달래주기 위해 친구·가족·연인 역할을 하도록 만들어졌지만 너무 잘 만들어진 탓에 현실의 동반자보다 더 그럴싸하고 더 매력적인 AI가 오히려 인간을 고립시키고 있는 현실입니다.

이제는 생활이 조금 불편해지더라도 그걸 감수하고 화면 밖 세상에서 사람들을 만나고, 사람들과 같이 문제를 해결하고, 사람들과 살갗을 맞대어야 합니다. 물론 사람은 내 뜻대로 안되고 내가 원하는걸 모두 만족시켜줄 수 없지만 그런 갈등을 부딪혀 해결해가며 공동체를 이루어 사는 것이 진짜 사람으로 살아가는 길이 아닐까요?

 

사실 여러분이 읽고 있는 이 기사도 AI에 의해 작성되었을 수도 있습니다. 인터넷 뉴스를 보실 때 AI에디터가 쓴 기사 마지막에 ‘이 기사는 챗GPT를 활용해 작성되었습니다.’ 라는 문구가 씌여져 있는 것을 자주 볼 수 있거든요. 물론 이 글은 인간인 제가 쓰고 있지만 말입니다.

 

더 Culture 이강

river7_lee@naver.com

 

배너