ICT뉴스
제목 하단 바

과기정통부 '챗GPT, 정부 정보 유출 우려 있다'...삼성전자처럼 금지는 안해
작성일자 2023.05.03 조회수 1493
첨부파일 없음

과학기술정보통신부가 공무원과 산하기관 직원들이 챗GPT 등 외부의 초거대 인공지능(AI)을 공공 업무에 활용할 때 지켜야 할 보안 지침을 정부 부처 가운데 처음 공개했다. 정부의 민감정보가 유출될 우려가 있는 만큼 공무원 개인이 조심해서 사용해야 한다는 내용이 담겼다.

3일 업계에 따르면 과기정통부는 지난 1일 부처 공무원과 산하기관 직원들에게 챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내라는 제목의 공문을 보냈다.

과기정통부는 공문을 통해 "최근 챗GPT 등 AI 기술 업무활용 증가로 인해 (해외 기업의) 정보 수집과 데이터 유출 등 보안 우려가 지속해서 제기되고 있다"며 과기정통부 각 부서와 소속 산하기관이 챗GPT 사용 시 따라야 할 보안 지침을 공개했다.

보안 지침에 따르면 과기정통부는 AI 산업 진흥을 담당하는 주무부처인 만큼 공무원들 업무에 챗GPT 사용을 막지는 않겠다는 입장이다. 다만 명령어(프롬프트)에 개인정보와 비공개 업무자료 등 민감정보를 입력하면 정보가 외부로 유출될 수 있는 만큼 공개정보 위주로 보안에 유의해 사용해야 한다고 밝혔다.

업계 전문가들은 이 공문 내용에 두 가지 문제가 있다고 지적한다.


첫째 문제는 민감정보가 무엇인지 명확히 규정하지 않고 판단 여부를 공무원 개인에게 일임한 점이다. 실수(휴먼 에러)로 민감정보를 공개정보로 판단하고 명령어에 입력할 가능성이 크다. 바로 이 문제 때문에 최근 삼성전자 등 민간 대기업은 그 유용성에도 불구하고 사내 업무에 챗GPT를 활용하지 말라고 금지했다.

둘째 문제는 행정안전부 등 다른 부처의 공공 챗GPT 활용 계획과 배치되는 점이다. 행정안전부는 지난 3월 말 공무원이 업무에 챗GPT 등 초거대 AI를 활용할 수 있도록 올 상반기 중 관련 지침을 공개할 것이라고 밝힌 바 있다. 당시 행안부는 초거대 AI 활용 사례로 챗GPT로 보도자료의 제목을 대신 만드는 것을 시연했는데, 이 경우 민감정보가 사전에 유출될 우려가 있다. 

또, 과기정통부는 공공 기관 챗GPT 도입에 관한 명문 규정이 아직 없는 만큼 산하 기관이 챗GPT·GPT-4 API를 활용한 응용 서비스를 개발해 업무에 도입하려면 국가정보원의 사전 보안성 검토를 받아야 한다고 밝혔다.

국정원의 국가 정보보안 지침 제15조 1항 19호에 따르면 국정원은 정부 기관이 첨단 정보통신(AI) 기술을 활용해 추진하는 정보화 사업에 대한 보안성 검토를 해야 한다. 이는 임의 규정이 아닌 강행 규정인 만큼 디지털플랫폼정부를 포함한 향후 국가 초거대 AI 전환 사업에서 국정원이 가장 강력한 규제 권한을 쥐게 될 전망이다.

과기정통부는 산하에 우정사업본부, 한국항공우주연구원 등을 포함해 총 65개의 공공기관을 두고 있는 만큼 이번 지침에 많은 공무원과 출연연 연구원들이 영향을 받게 될 것으로 예상된다. 다만 KAIST 등 4대 과학기술원은 지난 2월 공공기관 지정이 해제돼 과기정통부·국정원 지침과 관계없이 원내 규정에 따라 자유롭게 챗GPT를 연구에 활용하고 응용 서비스를 개발할 수 있다.

한편 AI 업계에선 정부가 준비 중인 공공의 초거대 AI 활용 지침을 두고 "감 놔라 배 놔라 하는 시어머니가 너무 많다"는 불만의 목소리가 커지고 있다. 과기정통부(AI), 행안부(공무원), 개인정보보호위원회(개인정보), 국정원(국가정보) 등 네 기관이 각자 업무 영역을 근거로 공공의 초거대 AI 활용안을 독자적으로 만들고 있는데, 혼선을 막기 위해서라도 범정부 차원의 TF를 구성해서 규제 및 관리 창구를 일원화해야 한다는 지적이다.

 

출처: https://www.ajunews.com/view/20230503112621151

아주경제 강일용 기자.​