개인정보위, AI 학습 활용 ‘공개 데이터’ 처리 기준 마련개인정보보호법 ‘정당한 이익’ 따라 공개된 개인정보 활용 가능 명시
개발 목적 정당성·개인정보 처리 필요성·구체적 이익형량 등 충족해야 생성형 인공지능(AI) 모델 개발 때 활용하는 인터넷상 공개 데이터를 안전하게 처리할 수 있는 정부 차원의 기준이 나왔다.
정부는 이 기준을 통해 개인정보 보호법의 ‘정당한 이익’ 조항에 의해 공개된 개인정보를 인공지능 학습·서비스 개발에 활용할 수 있다는 점을 분명히 했다.
또한 ‘정당한 이익’ 조항을 적용하기 위해서는 인공지능 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족해야 한다.
이와 함께 인공지능 기업이 ‘정당한 이익’을 근거로 공개된 개인정보를 처리하기 위해 고려할 수 있는 기술적·관리적 안전성 확보조치와 정보주체 권리보장 방안을 구체적으로 안내했다.
개인정보보호위원회는 17일 인공지능 개발에 필수적인 공개 데이터가 현행 개인정보 규율체계 내에서 적법하고 안전하게 처리될 수 있도록 ‘인공지능 개발·서비스를 위한 공개된 개인정보 처리 안내서’를 마련해 공개했다.
공개 데이터는 인터넷상 누구나 합법적으로 접근할 수 있는 데이터로, 챗지피티(ChatGPT) 등 생성형 인공지능을 개발하기 위한 학습데이터의 핵심원료로 쓰인다.
인공지능 기업들은 커먼크롤(common crawl), 위키백과(wikipedia), 블로그, 웹사이트 등에 있는 공개 데이터를 웹 스크래핑 등의 방식으로 수집해 인공지능 학습데이터로 활용하고 있다.
이러한 공개 데이터에는 주소, 고유식별번호, 신용카드번호 등 여러 개인정보가 포함될 수 있어 프라이버시가 침해될 우려가 크다.
현행 개인정보 보호법에는 이러한 공개된 개인정보 처리에 적용할 수 있는 명확한 기준이 없다.
예를 들어 인공지능 학습에 공개 데이터를 대규모로 처리하는 상황에서 현행 보호법상의 정보주체 개별 동의나 계약 체결 등의 조항을 적용하기는 사실상 어렵다.
또한 인공지능 학습이 전통적인 개인정보 처리방식과 다르다 보니 보호법상의 안전성 확보조치 등의 규정도 그대로 적용하는 것에 일정한 한계가 존재했다.
이에 개인정보위는 공개된 개인정보 수집·활용의 법적기준을 명확화하고 인공지능 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지에 대해 기업이 참고할 수 있는 최소한의 기준을 제시하는 안내서를 마련하게 됐다.
이는 공개된 개인정보를 활용하는 기업들의 개인정보 침해 이슈를 최소화하는 동시에 법적 불확실성을 해소해 기업의 혁신성장을 돕겠다는 취지다.
먼저 보호법 제15조에 따른 ‘정당한 이익’ 조항에 의해 공개된 개인정보를 인공지능 학습·서비스 개발에 활용할 수 있다는 점을 분명히 했다.
또한 이러한 ‘정당한 이익’ 조항을 적용하기 위해서는 인공지능 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족해야 한다.
개인정보위는 이번 안내서를 통해 세 가지 요건의 내용과 적용사례도 안내했다.
이와 함께 개인정보위는 안내서를 통해 인공지능(AI) 기업이 ‘정당한 이익’을 근거로 공개된 개인정보를 처리하기 위해 고려할 수 있는 기술적·관리적 안전성 확보조치와 정보주체 권리보장 방안을 구체적으로 안내했다.
다만, 빠른 인공지능 기술변화 등을 고려해 세부적 안전조치 등을 유연하게 도입·시행할 수 있도록 했다.
인공지능 기업은 모든 안전조치를 의무적으로 시행해야 하는 것은 아니며 안내서에 제시된 여러 안전조치의 순기능과 인공지능 성능저하, 편향성 등 부작용과, 기술 성숙도를 고려해 기업의 특성에 맞는 안전조치의 최적 조합을 스스로 선택해 이행할 수 있다.
개인정보위는 지난 3월 인공지능 사전실태점검을 통해 파악한 주요 대규모 언어모델(LLM) 사업자의 실제 안전조치 이행사례를 안내해 기업이 최적 조합을 판단하는 데 참고할 수 있도록 했다.
아울러 인공지능 개발을 위한 학습데이터 처리와 관련한 인공지능 기업과 개인정보보호책임자(CPO)의 역할을 강조했다.
개인정보보호책임자(CPO)를 구심점으로 하는 인공지능 프라이버시 담당조직을 자율적으로 구성·운영하고 안내서에 따른 기준 충족 여부를 평가해 그 근거를 작성·보관하도록 권고했다.
인공지능 성능 개선 등 중대한 기술적 변경이나 개인정보 침해 발생 우려 등 위험 요인을 주기적으로 모니터링하고, 개인정보 유·노출 등 침해사고 발생 때 신속한 권리구제 방안도 마련하도록 했다.
안내서는 추후 개인정보 관련 법령 제·개정, 인공지능 기술발전 추이, 해외 규제정비 동향 등을 고려해 지속 업데이트할 예정이다.
또한 공개된 개인정보와 함께 인공지능 학습데이터의 주요 원천을 이루는 이용자 개인정보의 적법한 처리 근거와 기준 등에 대해서는 학계, 산업계, 시민단체 등의 의견수렴을 거쳐 구체화해 나갈 예정이다.
민·관 정책협의회 데이터 처리기준 분과장인 김병필 카이스트 교수는 “이번 안내서는 개인정보를 충실히 보호하면서도 인공지능 혁신을 장려하는 적정한 절충점을 찾고자 하는 노력의 일환이며 신뢰할 수 있는 인공지능 개발, 이용을 위한 좋은 참고 자료가 될 것”이라고 말했다.
그러면서 “다만, 인공지능 기술이 빠르게 변화하는 만큼 향후 안내서에 포함한 내용도 지속해서 발전해 나갈 것이라는 점을 염두에 뒀으면 한다”고 덧붙였다.
민·관 정책협의회의 공동의장인 배경훈 엘지 에이아이 연구원장은 “이번 안내서 공개는 인공지능 기술 발전과 개인 데이터 보호를 동시에 달성하기 위한 중요한 진전이자 첫걸음”이라고 밝혔다.
이어 “공개 데이터에서 개인정보를 안전하게 처리할 수 있도록 기준을 제공함으로써 인공지능 기술 개발에 있어 법적 불확실성이 낮아져 안전하게 데이터를 활용할 수 있게 됐고 이는 곧 신뢰할 수 있는 데이터 처리 환경에서 인공지능 기술의 혜택을 누릴 수 있는 기반이 될 것”이라고 전망했다.
고학수 개인정보위 위원장은 “인공지능 기술 진보가 빠르게 이루어지고 있지만 인공지능 개발의 핵심 관건인 공개 데이터 학습이 보호법에 비춰 적법하고 안전한지 여부는 공백인 상황이었다”면서 “이번 안내서를 통해 신뢰하는 인공지능·데이터 처리 관행을 기업 스스로 만들어 나가고 이렇게 축적된 모범사례를 안내서에 지속해서 반영할 수 있기를 기대한다”고 말했다.
이 기사 좋아요
<저작권자 ⓒ K-뉴스룸 무단전재 및 재배포 금지>
댓글
|
많이 본 기사
|