
|
2025.10.01 (수정 : 2025.10.02)
|
||||||||||||||||
|
02 책임 있는 공공부문 생성형 AI 도입을 위한 대응 전략 │김현우 한국지능정보사회진흥원 책임연구원 들어가며 ChatGPT, Claude, Gemini 등 생성형 인공지능 기술이 폭발적으로 확산되면서, 공공부문에서도 이러한 기술을 활용해 행정 효율성과 대국민 서비스 품질을 향상하려는 시도가 활발히 이루어지고 있다. 민원 자동 응대, 보고서 초안 작성, 보고서 및 논문 등 다양한 분야의 자료 요약 등 다양한 분야에서 생성형 AI의 잠재력이 입증되고 있으며, 일부 지자체와 정부기관은 시범 사업을 통해 적용 가능성을 검토하고 있다. 실제 사례로 기획재정부는 2025년 2월부터 1,000여 명의 내부 기재부 구성원을 대상으로 자료검색, 질의응답 챗봇, 보고서 초안 작성 등의 기능을 제공하는 챗GPT와 퍼플렉시티를 폐쇄형으로 구축하여 사용하고 있다. 이러한 선도 사례는 향후 공공부문 전반에 걸친 생성형 AI 확산의 가능성을 보여준다.1) 그러나 생성형 AI는 단순히 ‘혁신적인 기술’로서나 성능이 우수하다는 이유만으로 도입이 추진되어서는 안 된다. 공공부문은 민간에 비해 훨씬 더 높은 수준의 책임성과 투명성을 요구받는 영역으로, 개인정보보호, 저작권, 편향 방지, 설명 가능성 등 다양한 제도적 기준을 동시에 고려해야 한다. AI가 생성한 정보에 오류나 왜곡이 있을 경우 국민의 기본권을 침해하거나 공공 신뢰를 해칠 수 있는 만큼, 기술 도입 이전에 이를 포괄적으로 검토하고 통제할 수 있는 정책적 기반 마련이 시급하다. 이에 따라, 국내외에서 마련되고 있는 생성형 AI 관련 정책 및 가이드라인을 살펴보고, 공공부문에 적용 가능한 구체적인 도입 리스크와 제도적 쟁점을 확인하여 신뢰할 수 있는 생성형 AI 도입을 위한 정책적 시사점을 도출하고자 한다. 국내외 AI 정책 및 가이드라인 현황 국내 2025년 8월, 개인정보보호위원회는 생성형 AI 기술의 활용 확대에 따라 「생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서」를 발표하였다. 이 안내서는 공공·민간 부문에서 생성형 AI를 개발하거나 활용할 때 개인정보가 무단으로 수집·처리되지 않도록 하기 위한 기술적·관리적 보호조치를 제시한다. 주요 내용
해당 안내서는 특히 공공기관의 민원 데이터, 상담 기록, 행정문서 요약 등에서 생성형 AI를 적용할 때 반드시 고려해야 할 기준으로, 데이터 중심의 AI 개발 생태계에서 프라이버시 보호를 제도화하는 기반이 되고 있다. ② 방송통신위원회-생성형 인공지능 서비스 이용자 보호 가이드라인(2025.2)3) 2025년 2월, 방송통신위원회는 「생성형 인공지능 서비스 이용자 보호 가이드라인」을 통해 생성형 AI 서비스 이용 과정에서 발생할 수 있는 잠재적 위험들을 사전에 방지하고 안전하고 신뢰할 수 있도록 예방할 수 있는 기준을 제시했다. 주요 내용
이 가이드라인은 특히 개발사 및 서비스 제공자가 이용자의 권익을 보호하기 위한 실천 방안을 제시하여 AI 윤리 기준을 사전에 통합하는 데 중요한 역할을 한다. 국외 2025년 4월, 미국 국립표준기술연구소(NIST)는 프라이버시 보호와 기술 혁신의 균형을 위해 「Privacy Framework Version 1.1」을 발표하였다. 본 프레임워크는 조직이 생성형 AI, 빅데이터 등 기술 도입 과정에서 발생할 수 있는 개인정보 침해 리스크를 사전 식별하고 체계적으로 관리할 수 있도록 지원하는 자발적 정책 도구로, 특히 공공부문에서도 광범위하게 활용 가능한 구조를 갖추고 있다. 주요 내용
해당 프레임워크는 생성형 AI 기술이 공공부문에 도입될 때 발생할 수 있는 프라이버시 침해 우려에 대해, 공공기관이 사전적으로 리스크를 진단하고, 기술적·관리적 조치를 구조화할 수 있는 기반을 제공한다. 특히 개인정보 영향평가(PIA), AI 책임자 지정, 국민 대상 고지 체계 등과 연계하여 신뢰가능한 공공 AI 시스템 구축을 위한 실질적 참조 기준으로 이용할 수 있다. ④ 영국 정부-AI Playbook for the UK Government(2025.2)5) 2025년 2월, 영국 정부는 「AI Playbook for the UK Government」를 발표하고, 공공부문 내 AI 시스템 도입 및 운영 전 주기를 위한 실무 지침과 정책 원칙을 제시하였다. 이 Playbook은 2024년 1월 발표된 「Generative AI Framework for HMG」를 기반으로 확장된 문서로, 공공분야에서 AI를 안전하고 책임감 있게 사용하도록 지원하기 위한 정책·실무에 대한 내용을 안내하고 있다. 주요 내용
영국의 AI Playbook은 기존의 법·윤리 기준에 실무 대응 가이드를 결합하여, 생성형 AI를 포함하여 공공부문에서 AI 서비스 도입 시 무엇을 고려하고, 어디까지 준비해야 하는지를 체계적으로 제시한다.
생성형 AI 도입 시 주요 위험 요소 생성형 AI는 공공서비스의 효율성과 혁신을 위한 유망한 도구로 주목받고 있으나, 그 도입과 운영에는 위험 요소들이 수반된다. 특히 공공부문에서는 기술의 투명성, 책임성, 법적 정합성 등이 필수적으로 확보되어야 하며, 다음과 같은 위험 요소들에 대한 체계적인 인식과 대응이 필요하다. 1) 신뢰성
2) 정보보호
3) 법적 책임
위의 위험 요소들은 단순한 기술적 우려를 넘어, 행정서비스의 신뢰성과 공공기관의 책임과 투명성에 직결되는 사안이다. 따라서 생성형 AI의 도입은 충분한 리스크 분석과 제도 정비, 기술적·관리적 보호조치를 수반해야 하며, 향후 도입 정책 수립의 핵심 기준으로 삼아야 할 것이다. 생성형 AI에 대한 대응 전략 생성형 AI 기술이 공공부문에 빠르게 확산되는 가운데, 신기술의 도입과 활용이 국민의 편의성, 신뢰성과 직접적으로 연결되는 만큼 신중하고 체계적인 대응이 필수적이다. 공공부문에서 생성형 AI를 책임 있게 도입하고 운영하기 위해서는 주요 위험 요소에 대해서 예방하고 관리할 수 있는 다양한 전략이 요구된다. 1) 신뢰성 확보를 위한 전략
2) 정보보호 강화를 위한 전략
3) 법적 책임성 확보를 위한 전략
지금의 전략은 공공부문이 생성형 AI를 보다 책임 있게, 그리고 국민의 신뢰성을 확보할 수 있는 도입하기 위한 최소한의 기준이다. 최신의 혁신적인 기술을 수용하되, 공공성과 신뢰성, 법적 정당성을 갖춘 기준 기반 위에서 추진되어야만 공공부문에서의 AI 지속 가능성과 사회적 투명성을 동시에 확보할 수 있을 것이다. 맺으며 생성형 AI는 행정, 교육, 보건 등 사회의 수많은 영역에서 중요하고 필수적인 도구로 주목받고 있다. 공공부문에서도 다양한 분야에서 생성형 AI 도입이 필수적인 기술로 자리 잡고 있으며, 그 잠재력과 가능성 또한 매우 크다. 그러나 동시에 환각, 편향성, 책임소재 불명확 등의 해결하지 못하고 있는 위험 요소를 가지고 있으며 국민의 신뢰를 기반으로 운영되고 있는 공공부문의 입장에서는 이러한 위험 요소를 더욱 엄격하게 운영·통제하고 책임 있게 관리할 수 있는 체계가 요구된다. 앞으로 공공부문에서 생성형 AI를 실효성 있게 도입하기 위해서는, 기술만이 아닌 제도·윤리·인프라 등 전반에 걸친 균형 잡힌 접근이 필요하다. 진정한 AI 강국으로 도약하기 위해서는 ‘빠른 도입’보다는 ‘책임성 있는 도입’을 중심에 두는 전략이 더욱 중요해질 것으로 보인다. 참고문헌 1) 머니투데이, “https://news.mt.co.kr/mtview.php?no=2025070408055093422” 2025.7.4 2) 개인정보보호위원회, 생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서, 2025.7.4 3) 방송통신위원회, 생성형 인공지능 서비스 이용자 보호 가이드라인, 2025.2.28 4) 미국 NIST(국립표준기술연구소), Privacy Framework 1.1, 2025.4.14 5) 영국 정부, AI Playbook for the UK Government, 2025.2.10 6) 영국 정부, AI Playbook for the UK Government 中 Principle 1 7) 영국 정부, AI Playbook for the UK Government 中 Principle 9 8) 개인정보보호위원회, 생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서 中 학습데이터 전처리 9) 영국 정부, AI Playbook for the UK Government 中 Principle 5 10) 미국 NIST, NIST Privacy Framework 中 Govern-P 11) 영국 정부, AI Playbook for the UK Government 中 Principle 10
이슈리포트 2025-09호.pdf (798 KB)
|
||||||||||||||||