'챗GPT 금지' 유럽 확산 움직임...국내서도 칼 빼들까.

챗GPT 규제 움직임이 유럽을 중심으로 확산되고 있다.              AP 뉴시스 

 

이탈리아가 챗GPT의 개인정보 유출과 관련해 임시 접속 금지 조치를 내린 가운데, 국내에서도 AI(인공지능) 관련 규제가 나올지 시선이 쏠리고 있다. 생성형 AI 기술 발전 속도가 예상보다 빠르게 진행되고 있는 만큼 이에 맞는 법안이나 정책이 시급하다. 

 

 5일 산업계에 따르면 이탈리아 정부는 최근 챗GPT에 대해 임시 접속 금지 조치를 결정했다. 개인정보가 노출될 수 있다는 점이 발목을 잡았다. 앞서 영국 언론 가디언은 챗GPT에서 사용자의 채팅 기록이나 제목을 볼 수 있는 버그가 발견됐다고 보도했다. 이에 이탈리아 규제 당국은 “개인 이메일 주소, 신용카드 마지막 4자리 숫자, 부분적인 대화 내용 등이 노출 됐다”고 지적했다. 프랑스와 아일랜드 등 다른 유럽 국가들도 규제 여부를 놓고 검토에 착수하는 분위기다. 

 

 챗GPT를 개발한 오픈AI사는 “실제 사용자 1.2% 정도가 개인정보 유출 문제에 노출된 것으로 파악했다”고 인정하며 “이를 바로잡고, 신뢰를 회복하기 위해 노력했다”는 입장을 내놨다. 오픈AI의 샘 알트만 CEO는 5월부터 서울을 포함해 전 세계 17개국을 방문할 계획이다. 오픈AI는 이를 두고 ‘투어’라고 설명했지만, 업계에서는 올트먼 CEO가 각국 규제 당국과 만나 AI 규제 문제를 논의할 것으로 예상하고 있다.

 

 이 같은 사안은 국내에서도 발생하고 있다. 이미 각종 인터넷 커뮤니티에는 챗GPT를 활용해 음란 소설을 작성하는 방법을 소개하는 글이 속속 게재되고 있다. 또한 제조사가 부여한 제한 기능을 해제시키는 이른 바 ‘챗 GPT 탈옥’에 대한 설명도 있다. 학수 개인정보위원회 위원장은 최근 미국의 대화형 인공지능(AI) 챗GPT에서 개인정보가 유출된 사건과 관련해 한국 이용자의정보가 공개되지는 않았는지 들여다보고 있다고 밝혔다.

 

 산업계도 비상이다. 일부 임직원이 대외비 자료를 챗GPT에 입력하는 사례가 급증하고 있다. 이 정보는 챗GPT 운영사인 오픈AI로 전송되며, 이 과정에서 외부로 노출될 위험도 있다. 이 같은 이유로 삼성전자는 챗GPT를 업무에 활용할지 고심 중이다. 삼성전자 디바이스경험(DX) 부문은 현재 임직원을 대상으로 챗GPT 사용과 관련해 설문조사를 진행 중이다. 설문에는 챗GPT 사용 경험 여부를 묻는 것은 물론, 사내에서 챗GPT를 사용하는 것에 대해 어떻게 생각하는지를 묻는 내용 등이 포함됐다. 삼성전자는 향후 설문조사 결과를 토대로 업로드 용량 제한이나 업무 PC 사용 제한 등의 내부 지침을 만들어 임직원에게 공유할 계획이다. 지난달부터 사내에서 챗GPT를 사용할 수 있게 됨에 따라 향후 회사 주요 기밀과개인 정보 등의 유출을 막기 위한 조치다.

 

 삼성전자 디바이스솔루션(DS) 부문은 아예 최근 게시판에 챗GPT 오남용에 대해 주의를 환기하는 메시지를 공지했다.

 

 교육계도 마찬가지다. 지난달 한 수도권 대학에서는 챗GPT를 활용해 영문 에세이를 작성한 학생들이 전원 0점 처리를 당하기도 했고, 이와 관련해 각 대학은 AI 관련 가이드라인을 마련 중이며, 이미 발표하기도 했다.

 

 연세대는 지난달 16일 '챗GPT 등 인공지능 학습 활용 방안'을 만들어 교수들에게 배포했다. 연세대는 이 지침을 통해 '학생이 과제물 작성 시 챗GPT를 이용할 것으로 예상되므로 각 교수가 과제물 작성 시 챗GPT 이용의 채택 여부에 대한 방침을 마련하고 학생에게 명확히 안내하라'고 교수진에 지시했다. 챗GPT 이용을 허락할 때는 챗GPT가 만든 결과를 학생이 직접 검토하도록 주지해달라는 당부도 포함됐다.

 

 챗GPT 이용을 불허하는 경우엔 성적 평가에 반영되는 과제물을 전적으로 챗GPT에 의존해 작성·제출하는 건 '부정행위'에 해당한다고 공지하도록 했다.

 

 범위를 넓이면 더 심각하다. 최근 한 중학생이 AI 기반 인간 이미지 합성 기술인 딥페이크를 악용해 같은 여학생의 나체사진을 제작, 유포한 혐의로 실형 선고를 받고 법정구속됐다. 유명 연예인도 딥페이크 기술의 악용 사례로 피해를 받고 있다. 또한 AI 드로잉 기술을 통해 각종 음란 사진이 무분별하게 퍼지고 있다.

 

 하지만 국내에서는 이를 규제할 법안이나 정책이 없다. 2021년 마련한 'AI 개인정보보호 자율점검표'가 유일한 AI관련 규제다. 이종호 과학기술정통부 장관은 지난달 8일 인공지능 분야 민·관 최고위 관계자들이 참석한 가운데 열린 ‘제3차 인공지능 최고위 전략대화’에 참여한 뒤 “관계부처와 함께 3월 중 초거대AI 산업 정책방향을 발표할 수 있도록 하겠다”고 밝혔지만, 아직 소식이 없다.

 

 업계에서는 과기정통부도 곤란한 입장에 놓였을 것으로 추측하고 있다. 산업적인 측면에서는 규제를 풀어 활성화해야 한다. 실제 과기정통부는 임직원을 대상으로 챗GPT 교육을 진행하는 등 적극적이다. 그러나 챗GPT에서 나타난 문제점이나 AI기술 악용 사례가 속출한다면 규제가 반드시 필요하다.

 

 법안 마련도 시급하다. 현재 챗GPT에서 발생한 개인정보 노출이나, AI 기술의 악용 사례 등과 관련한 구체적인 법안이 없다. 주호영 국민의힘 의원이 지난 2020년 12월 AI 저작물과 저작자의 정의를 신설하는 내용의 저작권법 개정안만 대표 발의한 바 있다. 이 역시 계류 중이다.

 

 업계 관계자는 “챗GPT는 AI기술의 시작이라는 말이 있다. 향후 급속도로 거대해질 기술집약적 산업이라는 뜻”이라며 “이와 맞물려 AI기술을 악용하는 사례도 증가할 것으로 보인다. 서둘러 대비를 해야 하며, 해킹이나 개인정보 유출, 저작권 침해 등에 대한 체계적인 가이드라인이 세울 필요가 있다”고 지적했다.

권영준 기자 young0708@segye.com

[ⓒ 세계비즈앤스포츠월드 & segyebiz.com, 무단전재 및 재배포 금지]