챗GPT가 쏘아올린 지브리 밈, 보안은 안전할까?

“내가 애니메이션 속 주인공이 된다면?”

최근 오픈AI가 챗GPT-4o의 이미지 생성 기능을 선보이자 전 세계 인터넷은 순식간에 들썩였다. 그 중에서도 일본 애니메이션 제작사 ‘스튜디오 지브리’ 특유의 화풍으로 사진을 변환하는 이른바 ‘지브리 밈(Meme)’이 폭발적인 인기를 끌며 새로운 열풍을 일으키고 있다. 이번 글에서는 지브리 밈이 주목받는 이유와 함께, 챗GPT와 같은 생성형 AI를 사용할 때 반드시 유의해야 할 보안 이슈들을 짚어본다.

 

 

챗GPT 채팅 창에 가족 사진이나 개인 프로필 사진을 업로드한 다음 “이 사진을 지브리 스타일로 바꿔줘”라고 입력하고 1~2분 정도만 기다리면 만화 영화의 주인공 같은 이미지가 만들어진다. 복잡한 프롬프트 없이 손쉽게 내 사진을 애니메이션 주인공처럼 바꿀 수 있어 사람들은 열광했다. 너도나도 자신의 사진을 지브리풍 캐릭터로 만들어 SNS에 공유하기 시작했다. 물론 지브리뿐만 아니라 다른 캐릭터로 변환도 가능하다.

 

영화 팬들은 자신이 좋아하는 영화의 명장면이나 드라마 주인공을 지브리 스타일로 바꿔서 감상하는 색다른 재미에 푹 빠졌다. 오죽했으면 오픈AI의 알트먼 CEO가 한 언론 인터뷰에서 "GPU가 녹아내릴 지경"이라고 말하기도 했다. 미야자키 하야오 감독의 회사 지브리 스튜디오 이름을 딴, 이른바 지브리 밈 열풍이 부는 셈이다. 덕분에 챗GPT는 최근 가입자 5억 명을 돌파했다.

 

밈은 문화적 요소가 모방을 통해 사람에서 사람으로 전파되는 현상을 말하는데, 인터넷 밈은 주로 유머러스 하거나 공감이 가는 이미지, 영상, 텍스트가 온라인에서 빠르게 퍼지는 형태를 가리킨다. 지브리 밈은 지브리의 따뜻하고 독특한 화풍이 일상적이거나 현대적인 맥락과 결합하면서, 단순한 모방을 넘어 창의적인 재해석으로 이어지고 있다.

 

물론 이러한 흐름에는 지브리 스튜디오의 영향이 컸다. 2020년 지브리 스튜디오는 주요 작품의 스틸 이미지를 “상식적인 범위 내에서 자유롭게 사용하라”는 조건과 함께 무료로 배포했다. 이를 계기로 일본 SNS에서는 ‘#지브리로배우는주부일(ジブリで学ぶ主婦業)’과 같은 해시태그가 유행하며, 지브리 캐릭터와 장면에 일상적인 상황을 덧붙인 유머러스한 밈들이 쏟아져 나왔다. 물론 챗GPT와 같은 AI가 생성한 이미지가 저작권이나 소유권으로부터 완전히 자유롭다고 보긴 어렵지만, 이 글에서는 그 부분은 논외로 하고 보안에 초점을 맞춰 이야기하고자 한다.

 

지금 이 순간에도 챗GPT를 비롯한 AI에는 기업의 핵심 데이터와 디지털 저작물이 끊임없이 업로드되고, 이를 기반으로 새로운 콘텐츠가 생성되고 있다. 지브리 밈 사례에서도 볼 수 있듯, AI가 수준 높은 이미지를 만들어낼 수 있는 것은 방대한 학습 데이터 덕분이다. 이처럼 데이터가 AI의 핵심 자산이 되면서, 사이버 범죄 역시 이를 노리고 저작물을 탈취하는 방향으로 점점 진화하고 있다.

 

실제로 2023년 챗GPT 개발사인 오픈AI의 내부망이 해킹돼 회사의 최신 AI 기술 설계 정보가 유출되는 사건이 발생했다. 해커는 오픈AI 직원들이 내부 포럼에서 논의한 신기술 관련 내용을 빼 간 것으로 알려졌다. 다행히 고객 데이터나 핵심 코드에는 접근하지 못했지만, 해커들은 챗GPT의 다양한 데이터 탈취를 호시탐탐 노리고 있다. 해킹은 분야를 가리지 않고 영화 개봉 전 원본 파일이 해킹으로 유출돼 온라인에 불법 유포되거나 게임 출시를 앞두고 게임 소스 코드와 리소스가 탈취되는 사례도 있다.

 

지브리 밈 효과로 챗GPT 이용자가 5억 명을 돌파한 오픈AI는 보안 투자를 강화하고 나섰다. 오픈AI는 뉴욕에 본사가 있는 사이버 보안 스타트업 어댑티브 시큐리티의 시리즈A 라운드에 공동 투자자로 참여했다. 총 4,300만달러(한화 618억원)가 유치된 것으로 알려졌는데, 오픈AI가 사이버보안 스타트업에 투자한 첫 사례로 기록됐다. 어댑티브 시큐리티는 생성형 AI로 ‘해킹 시나리오’를 구현해 직원들이 위협을 인지할 수 있도록 훈련하는 서비스를 제공하고 있다. 전화뿐만 아니라 문자와 이메일까지 구현해 회사의 취약점을 판별하고 해킹을 방지할 수 있다고 한다.

 

최근엔 중국의 딥시크 AI가 강력한 자연어 처리 능력을 바탕으로 인기를 끌다가 보안 취약점과 데이터 유출 가능성 때문에 얼마 지나지 않아 일부 플랫폼에서 사용이 제한되거나 완전히 차단되는 일이 발생하기도 했다. AI는 기본적으로 많은 데이터를 학습해 작동하는데, 만약 이 과정에서 개인정보 보호가 제대로 이루어지지 않는다면 심각한 문제가 발생할 수 있다.

 

그렇다면 지브리 밈 열풍을 일으킨 챗GPT는 과연 보안으로부터 안전할까? 한국을 포함한 전 세계 사용자 수가 5억 명을 넘어서고 있지만, AI는 여전히 근본적인 보안 취약점으로부터 완전히 자유롭지 않다.

 

가장 큰 문제는 데이터 수집과 개인정보 보호에 있다. 오픈AI는 챗GPT의 대화 내용을 학습 데이터로 직접 활용하지 않는다고 밝혔지만, 사용자가 대화 중 개인정보를 입력할 경우 그 정보가 유출될 가능성은 여전히 존재한다. 따라서 AI와 대화할 때는 개인정보 입력을 최대한 피하는 것이 안전하다.

 

또한, AI 해킹 및 악용 가능성도 문제가 될 수 있다. AI 모델은 해킹에 노출될 가능성이 다분하며, 일부 악의적인 사용자들은 AI를 조작해 가짜 정보를 퍼뜨리거나, 피싱 공격을 강화하는 방식으로 악용할 수 있다. 실제로 챗GPT를 활용한 피싱 이메일이 등장하는 등 AI 보안을 위협하는 사례는 꾸준히 증가하고 있다.

 

이 밖에, 윤리적 문제와 검열 이슈도 있다. 오픈AI는 AI의 윤리성을 높이기 위해 꾸준히 노력하고 있음에도 불구하고 AI가 완벽하게 중립적일 수는 없다. 특정한 사회적, 문화적 기준에 따라 AI의 답변이 편향될 수 있으며, 이는 사용자 경험에 영향을 줄 수 있기 때문이다.

 

그렇다면 AI를 안전하게 사용하기 위해 우리는 어떻게 해야 할까? 우선 개인정보 입력은 금지해야 한다. AI와 대화할 때는 이름, 주소, 전화번호, 금융 정보 등 민감한 정보를 입력하지 않아야 한다. 실명, 주민등록번호, 전화번호, 이메일 주소, 계좌번호, 신용카드 정보, 로그인 정보 및 비밀번호, 회사 내부 기밀 및 개인적인 의료 정보는 절대 올리면 안 된다.

 

또한, 딥시크 AI처럼 출처가 불분명한 AI는 개인정보 유출 위험이 크므로 신뢰할 수 있는 AI 모델을 사용할 것을 권장한다. 이와 함께 챗GPT를 비롯한 AI를 사용할 때, 최신 업데이트를 확인하고 보안 관련 공지를 주의 깊게 살피는 습관을 들이는 것이 좋다. 아울러, AI도 가끔 오류가 발생할 수 있기 때문에 AI가 제공하는 답변을 검증하지 않고 그대로 공유하거나 사용해서는 안 된다.

 

 

출처 : AhnLab

02-553-2331
견적 요청
카카오톡 문의