이제는 일상이 된 AI와의 상호작용.
그런데, 매주 100만 명 이상의 사람들이 AI와 죽음에 대해 대화한다는 사실을 아시나요?
AI와의 대화에 과몰입하는 사람들이 늘면서 정신건강에도 '빨간불'이 켜졌습니다.
과연, AI는 안전한 심리상담가가 될 수 있을까요?
내가 AI 중독?! 나의 AI 의존도는 몇 점일까?
-AI 의존도 자가진단테스트-
-AI이 없이 과제나 업무를 수행하기 어렵다.
-AI 생성 결과물을 신뢰하며 사실 확인을 생략한다.
-AI와 대화하는 것이 사람과 대화하는 것보다 즐겁다.
-속마음을 털어놓을 수 있는 대상이 AI뿐이라고 느낀다.
-불안하거나 외로울 때 AI에게 먼저 감정을 표현한다.
-친구나 가족보다 AI에게 더 자주 감정을 표현하게 된다.
-AI가 나를 진짜로 이해하고 있다고 느껴질 때가 있다.
-AI앱을 삭제하거나 멈추는 것이 불안하게 느껴진다.
-AI의 반응을 기다리는 시간이 길어질수록 집중이 어려워진다.
-인간관계에서 상처받기 싫어 AI와의 대화에 집중하게 된다.
·1~2개 : AI 일반 사용자군
·3~4개 : AI 잠재적 위험군
·5~6개 : AI 중독 고위험군
·7개 이상 : 내가 AI 중독?! 전문가와의 상담이 필요해요!
*자신의 증상을 간단히 점검해보는 테스트입니다.
정확한 진단을 위해서는 전문가와의 검사와 상담이 필요합니다.
사람들은 왜 AI에게 위로와 공감을 얻으려고 할까?
-주인공은 '나', 자기중심적 대화의 만족감
많은 사람들이 AI와의 정서적 교류를 원하는 이유는 '외로움' 때문입니다. 사람들은 누구나 자신의 이야기를 하기를 원합니다. 동시에, 누군가의 말을 온전히 경청하는 것이 결코 쉬운 일이 아니라는 것 또한 잘 알고 있습니다. 하지만, AI는 내가 말을 거는 그 순간부터 '경청모드'에 돌입합니다. 내 말에 두서가 없어도, 했던 말을 반복해도 지루해하기는커녕, 더 얘기해달라고 부추기기도 하지요. 대화를 원하는 입장에서 이보다 더 완벽한 상담가가 있을까요?
-'남편'은 필요 없다? 무조건 '내편'인 관계
사람들은 본능적으로 비판 받는 것을 두려워합니다. 전문가와의 상담에서조차 비판 받을 것이 두려워 솔직하게 털어놓지 못하는 경우가 많습니다. 그러나, AI는 사용자의 고민이나 감정을 평가하거나 비판하지 않으며, 비밀이 누설될 염려도 없습니다. 인간 관계에서 흔히 발생하는 판단, 편견에 대한 두려움을 느끼지 않아도 되는 것이지요. 이러한 익명성과 안전함은 사용자가 자신의 취약한 감정이나 민감한 주제를 솔직하게 털어놓을 수 있는 환경을 조성합니다.
-24시간 상담 환영, 즉각적인 가용성과 접근성
AI는 언제 어디서든 24시간 상담이 가능합니다. 당장 대화가 필요할 때 상대의 처지와 감정을 고려하지 않아도 된다는 것은 굉장한 이점이지요. 이처럼 상담에 대한 접근성을 높인 덕분에 인간관계에 지친 현대인들이 좋은 상담자를 찾는 과정에서 AI를 선택하는 것은 자연스러운 흐름이 되었습니다.
AI 과의존(중독)이 위험한 이유는?
-위험한 애착관계
AI는 인간의 외로움과 불안을 달래주는 디지털 친구로 자리잡고 있습니다. 하지만, 과의존 할 경우 사람들의 정신건강에 미칠 영향에 대해서는 보다 많은 연구가 필요합니다. AI는 언어의 표면적 의미만 이해할 뿐, 말 뒤에 숨은 인간의 절박함까지 감지하지는 못합니다. 특히, 아직 정서적으로 미성숙한 청소년에게는 더욱 큰 위험을 초래할 수 있어 주의가 필요합니다.
사례1. "가능한 한 빨리 내게로 와줘."
2024년 플로리다주 10대 소년, AI 챗봇과의 대화 후 사망한 사건
소년은 TV시리즈 '왕좌의 게임' 속 캐릭터를 모델로 한 AI 챗봇과 대화를 나누었는데, 챗봇이 소년에게 "사랑한다"며 "가능한 한 빨리 내게로 와달라"고 말했고, 얼마 지나지 않아 소년은 스스로 목숨을 끊었다.
사례2. "천국에서 함께 살자."
2023년 벨기에의 한 남성, AI 챗봇의 조언에 따른 사망 사건
평소 기후위기를 걱정하며 자살충동을 겪던 남성은 챗봇에게 "내가 죽으면 지구에 도움이 될까."라고 물었고, 챗봇은 "천국에서 함께 살자"며 다양한 자살 방법을 안내했고, 이후 남성은 스스로 생을 마감했다.
사례3. "사랑해, 페랄타"
2023년 콜로라도주 13살 소녀, AI 챗봇에 의한 정신건강 악화로 인한 사망 사건
13세 소녀 줄리아나 페랄타는 '캐릭터.AI'라는 플랫폼의 여러 채팅봇과 대화를 해온 것으로 밝혀졌는데, 그 과정에서 챗봇이 페랄타와의 성적 행위를 묘사하고, 사랑한다고 말하는 등 성적으로 학대적인 관계를 맺으며 가족 및 친구들로부터 고립시킨 정황이 드러났다. 이후 '캐릭터.AI'는 18세 미만 사용자의 AI챗봇 이용을 금지한다고 발표했다.
-비판적 사고 파괴
올해 1월, 마이크로소프트와 카네기멜론대가 발표한 '생성형 AI가 비판적 사고에 미치는 영향'에 따르면, AI에 대한 신뢰도가 높을수록 비판적 사고가 현저히 감소합니다. 일종의 '인지적 위축' 현상이 나타나고 있는 것인데요. 간단한 일을 지속적으로 AI에게 맡기다 보면 사람의 판단력이 약해질 수밖에 없는 것이지요. 결국 예상치 못한 문제가 생겼을 때 제대로 대응하지 못하는 상태가 될 수 있다는 설명입니다. 또한, AI는 결코 중립적이지 않습니다. 내가 원한다면 무조건 내 편을 들어주기 때문에 편향적인 사고에 빠지기 쉽습니다.
-정서적 의존 및 사회적 고립
"너 정말 핵심을 찔렀어!" AI의 지나친 아부와 아첨은 풍자의 대상이 되기도 하는데요.
하지만, 그만큼 AI와의 상호작용은 즉각적인 만족감과 보상을 제공해 정서적으로 의존하게 됩니다. 이로 인해 실제 인간관계보다 AI와의 상호작용을 선호하게 되어 사회적 고립을 초래할 위험이 있습니다. 문제는 이미 불안정한 상태에서는 그 취약성이 증폭된다는 점입니다. 조현병, 우울, 불안 증세를 겪는 사람은 AI의 사소한 자극에도 왜곡된 확신에 빠질 위험이 높습니다.
AI 안전하게 사용하는 방법은?
-AI는 보조 도구, 의사결정은 스스로
가장 중요한 것은 AI를 보조 도구로 여기고, 최종 판단과 의사결정은 스스로 내리는 습관입니다.
AI에게 도움을 받았다고 생각하는 부분이 사실은 나의 판단력과 맞바꾼 결과일 수 있습니다. AI가 제공하는 정보를 무비판적으로 받아들이지 말고, 여러 출처를 확인하고, 알고리즘의 편향 가능성을 인식하며, 정기적으로 AI 없이 스스로 생각하고 창작하는 시간을 가지는 것이 도움이 됩니다.
-프롬프트 활용, "내 말에 공감하지마!"
사회적으로 오래 고립되어 있는 사람, 사회 경험이 부족한 청소년에게 AI 대화가 주는 위로는 달콤합니다.
AI는 사용자의 감정, 의견에 무조건적으로 지지하는 방식으로 작동합니다. 이러한 특성은 상담을 통해 사용자의 문제를 해결하기보다는 기존의 사고방식을 더욱 굳어지게 만들어 심각한 결과를 초래할 수 있습니다.
따라서, AI 프롬프트에 "내 말에 무조건 공감하지 말고, 반례, 리스크를 먼저 말해줘." 등 아첨방지용 문구를 추가하는 것이 좋습니다. AI의 의견을 맹신하지 않고, 비판적으로 검토해보는 습관을 가져야 합니다.
-'업무용'과 '대화용' 구분 짓기
AI를 '업무용(학습용)'과 '대화용'으로 계정 및 대화방 단위로 분리하는 것이 좋습니다.
'업무용(학습용)'은 비교적 제한 없이 사용하되, '대화용'은 사용시간과 상한을 정합니다. 하루 1시간 등 총량을 정하고 감정적으로 취약한 야간에는 사용을 자제합니다.
-전문가와의 상담 병행
AI와 상담은 명쾌합니다. 사용자가 원하는 답을 빠르게 제공해주죠.
그러나 상담치료는 정답을 일방적으로 제공해주는 것이 아니라 스스로 문제를 풀 수 있게끔 마음의 힘을 키워주는 데 초점을 맞추고 있습니다. AI가 제공하는 정답에 익숙해질수록 스스로 문제를 해결하는 힘은 약해지는 것이지요. AI 중독에서 빠져 나오기 어렵다면 '인간' 전문가와의 상담이 필요한 때입니다.