[우리문화신문=김영조 기자]
“내가 애니메이션 속 주인공이 된다면?”
최근 오픈AI가 ‘챗GPT-4o’의 이미지 생성 기능을 선보이자 전 세계 인터넷은 순식간에 들썩였다. 그 가운데서도 일본 애니메이션 제작사 ‘스튜디오 지브리’ 특유의 화풍으로 사진을 변환하는 이른바 ‘지브리 밈(Meme)’이 폭발적인 인기를 끌며 새로운 열풍을 일으키고 있다. 이번 글에서는 지브리 밈이 주목받는 까닭과 함께, 챗GPT와 같은 생성형 AI를 쓸 때 반드시 유의해야 할 보안 문제들을 짚어본다.
챗GPT 채팅 창에 가족사진이나 개인 프로필사진을 올린 다음 “이 사진을 지브리 스타일로 바꿔줘”라고 입력하고 1~2분 정도만 기다리면 만화 영화의 주인공 같은 이미지가 만들어진다. 복잡한 명령 표시(프롬프트) 없이 손쉽게 내 사진을 애니메이션 주인공처럼 바꿀 수 있어 사람들은 열광했다. 너도나도 자신의 사진을 지브리풍 캐릭터로 만들어 SNS에 공유하기 시작했다. 물론 지브리뿐만 아니라 다른 캐릭터로 변환도 가능하다.
영화 애호가들은 자신이 좋아하는 영화의 명장면이나 드라마 주인공을 지브리 스타일로 바꿔서 감상하는 색다른 재미에 푹 빠졌다. 오죽했으면 오픈AI의 알트먼 최고경영자가 한 언론 대담에서 "GPU가 녹아내릴 지경"이라고 말하기도 했다. 미야자키 하야오 감독의 회사 지브리 스튜디오 이름을 딴, 이른바 지브리 밈 열풍이 부는 셈이다. 덕분에 챗GPT는 최근 가입자 5억 명을 돌파했다.
밈은 문화적 요소가 모방을 통해 사람에서 사람으로 전파되는 현상을 말하는데, 인터넷 밈은 주로 익살스럽거나 공감이 가는 이미지, 영상, 텍스트가 온라인에서 빠르게 퍼지는 형태를 가리킨다. 지브리 밈은 지브리의 따뜻하고 독특한 화풍이 일상적이거나 현대적인 맥락과 결합하면서, 단순한 모방을 넘어 창의적인 재해석으로 이어지고 있다.
물론 이러한 흐름에는 지브리 스튜디오의 영향이 컸다. 2020년 지브리 스튜디오는 주요 작품의 스틸 이미지를 “상식적인 범위 내에서 자유롭게 사용하라”는 조건과 함께 무료로 배포했다. 이를 계기로 일본 SNS에서는 ‘#지브리로배우는주부일(ジブリで学ぶ主婦業)’과 같은 해시태그가 유행하며, 지브리 캐릭터와 장면에 일상적인 상황을 덧붙인 유머러스한 밈들이 쏟아져 나왔다. 물론 챗GPT와 같은 인공지능이 생성한 이미지가 저작권이나 소유권으로부터 완전히 자유롭다고 보긴 어렵지만, 이 글에서는 그 부분은 논외로 하고 보안에 초점을 맞춰 이야기하고자 한다.
지금, 이 순간에도 챗GPT를 비롯한 인공지능에는 기업의 핵심 데이터와 디지털 저작물이 끊임없이 올라오고, 이를 기반으로 새로운 콘텐츠가 생성되고 있다. 지브리 밈 사례에서도 볼 수 있듯, 인공지능이 수준 높은 이미지를 만들어 낼 수 있는 것은 방대한 학습 데이터 덕분이다. 이처럼 데이터가 인공지능의 핵심 자산이 되면서, 사이버 범죄 역시 이를 노리고 저작물을 탈취하는 방향으로 점점 진화하고 있다.
실제로 2023년 챗GPT 개발사인 오픈AI의 내부망이 해킹돼 회사의 최신 인공지능 기술 설계 정보가 유출되는 사건이 발생했다. 해커는 오픈AI 직원들이 내부 포럼에서 논의한 신기술 관련 내용을 빼 간 것으로 알려졌다. 다행히 고객 데이터나 핵심 코드에는 접근하지 못했지만, 해커들은 챗GPT의 다양한 데이터 탈취를 호시탐탐 노리고 있다. 해킹은 분야를 가리지 않고 영화 개봉 전 원본 파일이 해킹으로 유출돼 온라인에 불법 유포되거나 게임 출시를 앞두고 게임 소스 코드와 자원이 탈취되는 사례도 있다.
지브리 밈 효과로 챗GPT 이용자가 5억 명을 돌파한 오픈AI는 보안 투자를 강화하고 나섰다. 오픈AI는 뉴욕에 본사가 있는 사이버 보안 새싹기업(스타트업) 어댑티브 시큐리티의 시리즈A 라운드에 공동 투자자로 참여했다. 모두 4,300만 달러(한화 618억 원)가 유치된 것으로 알려졌는데, 오픈AI가 사이버보안 새싹기업에 투자한 첫 사례로 기록됐다. 어댑티브 시큐리티는 생성형 AI로 ‘해킹 시나리오’를 구현해 직원들이 위협을 인지할 수 있도록 훈련하는 서비스를 제공하고 있다. 전화뿐만 아니라 문자와 번개글(이메일)까지 구현해 회사의 취약점을 판별하고 해킹을 방지할 수 있다고 한다.
최근엔 중국의 딥시크 인공지능이 강력한 자연어 처리 능력을 바탕으로 인기를 끌다가 보안 취약점과 데이터 유출 가능성 때문에 얼마 지나지 않아 일부 승강장(플랫폼)에서 사용이 제한되거나 완전히 차단되는 일이 발생하기도 했다. 인공지능은 기본적으로 많은 데이터를 학습해 작동하는데, 만약 이 과정에서 개인정보 보호가 제대로 이루어지지 않는다면 심각한 문제가 발생할 수 있다.
그렇다면 지브리 밈 열풍을 일으킨 챗GPT는 과연 보안으로부터 안전할까? 한국을 포함한 전 세계 사용자 수가 5억 명을 넘어서고 있지만, AI는 여전히 근본적인 보안 취약점으로부터 완전히 자유롭지 않다.
가장 큰 문제는 데이터 수집과 개인정보 보호에 있다. 오픈AI는 챗GPT의 대화 내용을 학습 데이터로 직접 활용하지 않는다고 밝혔지만, 사용자가 대화 중 개인정보를 입력할 경우 그 정보가 유출될 가능성은 여전히 존재한다. 따라서 인공지능과 대화할 때는 개인정보 입력을 최대한 피하는 것이 안전하다.
또한, 인공지능 해킹과 악용 가능성도 문제가 될 수 있다. 인공지능 모델은 해킹에 노출될 가능성이 다분하며, 일부 악의적인 사용자들은 인공지능을 조작해 가짜 정보를 퍼뜨리거나, 피싱 공격을 강화하는 방식으로 악용할 수 있다. 실제로 챗GPT를 활용한 피싱 번개글이 등장하는 등 인공지능 보안을 위협하는 사례는 꾸준히 증가하고 있다.
이밖에, 윤리적 문제와 검열 이슈도 있다. 오픈AI는 인공지능의 윤리성을 높이기 위해 꾸준히 노력하고 있음에도 인공지능이 완벽하게 중립적일 수는 없다. 특정한 사회적, 문화적 기준에 따라 인공지능의 답변이 편향될 수 있으며, 이는 사용자 경험에 영향을 줄 수 있기 때문이다.
그렇다면 인공지능을 안전하게 사용하기 위해 우리는 어떻게 해야 할까? 우선 개인정보 입력은 금지해야 한다. 인공지능과 대화할 때는 이름, 주소, 전화번호, 금융 정보 등 민감한 정보를 입력하지 않아야 한다. 실명, 주민등록번호, 전화번호, 번개글 주소, 계좌번호, 신용카드 정보, 로그인 정보 및 비밀번호, 회사 내부 기밀 및 개인적인 의료 정보는 절대 올리면 안 된다.
또한, 딥시크 인공지능처럼 출처가 불분명한 인공지능은 개인정보 유출 위험이 크므로 신뢰할 수 있는 인공지능 모델을 사용할 것을 권장한다. 이와 함께 챗GPT를 비롯한 인공지능을 쓸 때, 최신 갱신(업데이트)를 확인하고 보안 관련 공지를 주의 깊게 살피는 습관을 들이는 것이 좋다. 아울러, 인공지능도 가끔 오류가 발생할 수 있기 때문에 인공지능이 제공하는 답변을 검증하지 않고 그대로 공유하거나 사용해서는 안 된다.
AhnLab 콘텐츠마케팅팀 제공