• 아시아투데이 로고
“챗GPT에 민감정보 입력하지 마세요”

“챗GPT에 민감정보 입력하지 마세요”

기사승인 2023. 06. 29. 09:26
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오톡 링크
  • 주소복사
  • 기사듣기실행 기사듣기중지
  • 글자사이즈
  • 기사프린트
국정원 '챗GPT 등 생성형 AI 활용 보안 가이드라인' 발간
clip20230629092313
국가정보원이 29일 공개한 '챗GPT 등 생성형 AI 활용 보안 가이드라인' 표지./ 제공=국가정보원
국가정보원은 29일 'ChatGPT'(챗GPT) 등 생성형 인공지능(AI) 이용이 늘고 있는 상황에서 관련 보안 사고를 사전에 예방하기 위해 비공개·개인정보 등 민감 정보 입력 금지, 로그인 계정에 대한 보안설정 강화 등을 해 달라고 당부했다.

아울러 생성물에 대한 정확성·윤리성·적합성 등 재검증, 생성물 활용시 지적 재산권·저작권 등 법률 침해·위반여부 확인, 연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인 등도 주문했다.

국정원은 이날 이 같은 내용을 담은 '챗GPT 등 생성형 AI 활용 보안 가이드라인'을 공개했다.

국정원은 챗GPT 등 생성형 AI기술 활용 과정에서 △업무상 비밀·개인정보 유출 △가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다.

국정원 관계자는 "챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만, 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다"며 "국정원은 국가 사이버안보 정책을 수립·시행하는 기관으로서 이번 보안 가이드라인을 마련, 각급기관이 생성형 AI기술을 적극 활용할 수 있는 기반을 마련했다"고 밝혔다.

이번 보안 가이드라인은 생성형 AI기술 서비스 접속부터 질의, 결과물 활용 등 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내, 각급기관 담당자는 물론 기술을 활용하는 일반 국민들도 이해할 수 있도록 제작됐다는 게 이 관계자의 설명이다.

가이드라인에는 생성형 AI기술과 관련한 △개요 및 해외동향(챗GPT 사례 중심) △보안위협 사례 △기술 사용 가이드라인 △국가·공공기관의 정보화사업 구축 방안 및 보안대책 등이 담겼다.

국정원은 이번 보안 가이드라인을 국가사이버안보센터 홈페이지(ncsc.go.kr)에 게재했다. 또 국가 공공기관과 지방자치단체 등은 물론 교육부와 협조해 국내 420여개 국·공·사립대학 등에 배포할 계획이다.
후원하기 기사제보

ⓒ아시아투데이, 무단전재 및 재배포 금지


댓글