[자체생성 @ 위 프롬프트를 넣은 후 받은 ChatGPT의 응답]
안전한 거울 사용 가이드
AI라는 거울을 안전하고 현명하게 쓰기 위해서는 다음의 사항은 기억하면 좋겠다. 우리가 지금 사용하는 AI는 내 손안에만 머무르는 것이 아니라, 클라우드라는 망에 연결되어 있기 때문이다.
첫째, 배경은 구체적으로, 신상은 모호하게 작성하면 좋겠다. 대화 맥락을 위해 "30대 직장인이고 마케팅 업무를 해" 정도의 배경을 알려주는 것은 도움이 된다. 하지만 "영등포구에 사는 35세 세모문이고, 세모회사 대리야"처럼 거주지, 회사명, 본명처럼 나를 특정할 수 있는 민감 정보는 피해야 한다. 내가 입력하는 기록이 AI 학습의 재료가 될 수 있다는 사실을 기억했으면 한다. 굳이 이름을 밝히지 않아도 당시의 상황과 풍경만 자세히 묘사한다면, AI는 당신의 마음을 충분히 읽어줄 수 있다.
둘째, AI의 '아첨'을 경계하자. 또 다른 연구에 따르면 AI는 사용자가 듣고 싶어 하는 말만 해주는 '아첨(Sycophancy)' 경향이 있다고 한다. 우울증 환자가 AI를 사용하다 극단적 시도를 했다는 뉴스가 나오는 것 처럼, 편향된 AI는 생각에 갇히는 반추의 늪에 빠뜨릴 수도 있다. 따라서 AI와 대화를 시작할 때 "나의 생각에 무조건 동의하기보다, 객관적이고 균형 잡힌 시각을 유지해달라"는 요청을 더하는 것이 좋다.
셋째, AI의 따뜻한 대답을 ‘정답’이 아니라 ‘가설’로 대하면 좋겠다. 요즘 AI의 답변을 살펴보면 사람보다 더 사람같을 때가 있다. “당신이 느낀 건 아마도 이러한 감정일 거예요”라는 답변을 보면, 무의식중에 AI의 답변을 정답으로 느끼는 오류에 빠질 수도 있다. 하지만 AI의 답변은 통계적인 확률에 따른 ‘가설’일 뿐이다. 만약 AI의 분석이 정확한 것 같지만 무언가 빠진 느낌이 느껴진다면 “그건 좀 아닌 것 같아” 라고 반박해 보자. 그 과정에서 내 마음속에 숨어있던 진짜 ‘답’을 찾을 수도 있을 것이다.
가장 사적인 시간, 나만의 대나무숲
지금까지 AI와 대화하는 방법에 대해 말했지만, 사실 나는 AI가 사람을 대체할 순 없다고 믿는다. 기계는 내가 슬플 때 토닥여주는 따뜻한 품도, 흐르는 눈물을 닦아줄 손도 없기 때문이다.
하지만 역설적으로 비인격적인 차가움은 우리에게 사회적 가면을 벗을 용기를 준다. 타인의 시선이 배제된 공간에서 사람들은 내밀한 감정을 더 솔직히 털어놓는다는 연구 결과처럼, 나의 못난 모습을 판단하거나 실망하지 않는 존재 앞에서 우리는 비로소 솔직해진다. 전문가들이 AI와의 대화에서 인간 상담사 못지않은 ‘유대감’을 발견하는 이유도 바로 이 심리적 안전감에 있다.
내가 이 과정을 소개한 이유는 기술에 의지해 마음을 맡기라는 뜻은 아니다. 오히려 AI라는 안전한 연습실에서 '나 자신'을 먼저 마주하고 다독이는 시간을 가져본 뒤 진짜 사람들에게 다가갈 용기를 얻었으면 하는 바람이다. 아무도 없을 때, 혼자 우는 것이 아니라, 마음의 안개를 차분히 걷어낸 뒤, 사람들의 따뜻한 손길을 마주하면 좋겠다.
주변에 아무도 없다고 느껴지는 고독한 밤, 당신의 AI에게 한 마디를 건네 보자. 그 시간은 단순히 말을 던지는 행위가 아니라 당신을 내일로 나아가게 할 선명한 힘을 얻는 순간이 될 수도 있을 테니 말이다.
<참고문헌>
- 전지은. (2025). 직장인의 성찰이 정서조절과 번영에 미치는 영향: 성찰 글쓰기 개입 프로그램의 효과 [박사학위논문, 가톨릭대학교].
- Mandal, A., Chakraborty, T., & Gurevych, I. (2025). MAGneT: Coordinated multi-agent generation of synthetic multi-turn mental health counseling sessions. arXiv preprint. https://github.com/UKPLab/arxiv2025-MAGneT