정보인권연구소 작성

[시민사회 공동논평] 국민 안전과 기본권 보호하는 AI 규제법 마련해야

인권침해, 차별 위험 등 AI 문제 ‘민간자율’로 해결할 수 없어

산업중심의 4차위⋅과기부 주도 아닌 인권위⋅개보위⋅공정위 참여하는 통합적 거버넌스 필요

지난 3월 30일, 4차산업혁명위원회(이하 4차위)는 산·학·연 민간 전문가가 참여한 가운데 ‘신뢰할 수 있는 인공지능(AI) 활용 방안 모색 간담회’를 개최하였다. 그러나 이번 간담회에서 인공지능 활용이나 인공지능 기술 자체의 속성에서 비롯되는 기본권 침해의 예방책 등 국민의 권리 보장 방안이 다뤄지지 않았다. 결론으로 도출된 ‘민간중심의 자율규제’라는 제언은 기업측의 이익과 입장만을 고려한 일방적 방향에 불과하다. 정부는 기업뿐 아니라 소비자, 노동자 등 실제 AI의 영향을 받는 모든 이해관계자들과 함께 AI의 신뢰성과 책임성을 담보할 수 있는 방법을 모색하는 것이 순서일 것이다. 뿐만 아니라 현실에서 실제로 벌어지는 다양한 AI에 의한 위험성을 예방하고 대비할 수 있는 AI 규제법제를 마련해야 한다.

이미 우리 사회 다양한 영역에서 AI 제품과 서비스가 활용⋅도입되고 있다. 스마트폰의 AI 비서나 AI 스피커, 온라인 쇼핑몰의 상품추천 등은 일상 생활에서 익숙한 AI 서비스이다. 더 나아가 맞춤형 금융상품 추천을 위한 신용평가, 사회복지수급자 선정, 일자리 배치 등 국민의 삶에 중대한 영향을 미치는 영역에 AI가 도입되고 있으며, 최근 여러 민간기업과 공공기관이 AI를 이용한 서류평가와 면접을 채용 절차에 적용하고 있다. 지난 2월에는 행정기본법이 국회를 통과하면서 AI에 의한 행정 처분의 근거가 마련되었고, 앞으로 국가의 행정작용에 이르기까지 AI 활용은 더욱 확대될 것이다. AI 산업이 지속가능하게 발전하기 위해서는 기술 지원과 더불어 AI로 인하여 발생할 문제에 대한 예방책도 함께 마련되어야 한다.

그러나 AI 법제도와 관련하여 4차위를 필두로 한 정부 정책들은 인공지능 산업의 기반이나 기술 개발을 진흥하는 것을 주요 목표로 하고 있다. 일례로 지난 해 12월 24일 과기부가 발표한 ‘인공지능 법⸱제도⸱규제 정비 로드맵’은 인공지능 산업 진흥과 활용 기반을 강화하는 방향 일색이다. 올해 3월 발족한 제2기 ‘인공지능 법제도정비단’이 추진하는 ‘데이터산업 진흥을 위한 기본법 제정’, ‘데이터 관리업에 대한 법적 근거 마련’ 방안 등 역시 산업 진흥에만 초점이 맞춰져 있다. 국민의 안전과 기본권 보호를 위하여 정작 먼저 이루어져야 할 ‘고위험 분야 인공지능 기술기준 마련’, ‘인공지능에 의한 계약의 효력’, ‘인공지능 행위에 대한 손해배상 방안 마련’, ‘인공지능 행정의 투명성 확보’ 등은 중장기 과제로 미뤄져 있다.

인공지능에 대한 깊은 논의가 부족한 채 ‘인공지능은 객관적이고 중립적일 것’이라는 막연하고도 맹목적인 신뢰를 바탕으로 앞다투어 인공지능 시스템을 도입, 홍보하는 것은 위험하다. 검증절차 없이 도입된 인공지능 시스템의 부작용은 오롯이 국민들에게 전가되기 때문이다. 인공지능의 오남용으로 인한 광범위한 인권 침해와 차별의 위험성은 챗봇 이루다 사건, 일부 공공기관 AI 면접에서 알고리즘 공개 거부 사례, 네이버나 다음 등 포털사이트의 뉴스 편집 알고리즘의 편향성에서 이미 드러났다. 이들 사례들은 인공지능 사용자인 시민들의 접근권, 처리절차 및 결과 도출 등에 관한 절차적 권리 등을 보장하지 않을 뿐 아니라 이러한 당연한 권리를 차단하기 위해 비밀주의로 일관하는 기업의 태도가 심각하다는 점을 보여준다. 미국은 공정거래위원회 격인 연방거래위원회(FTC)가 아마존 등 여러 기업에서 널리 사용하는 AI 채용 면접 ‘하이어뷰(Hire Vue)’ 알고리즘의 공정성을 조사 중이다. 그러나 우리 정부가 지금까지 AI면접 등에 대해 공정하고 투명한 채용 시스템인지, 부작용은 없는지에 대해 조사나 감독을 한다는 소식은 들은 바 없다. AI면접이 채용 지원자의 성별이나 연령에 따라 편향적으로 판단하지는 않는지, 표준어와 사투리 사용자 사이에 부당한 편향은 없는지, 어느 누구도 정확히 검증하지 않은 상태로 공공기관마저 무비판적으로 AI 채용을 도입하고 있다. 특히 기업들이 이윤 추구를 위하여 검증되지 않은 인공지능기술을 무차별적으로 도입하고 있다는 현실을 고려할 때, 인공지능기술의 연구, 개발, 상용화 과정에서 준수해야 할 절차나 한계에 대한 기준을 마련하지 않은 채 기업들의 ‘자율규제’에 맡기는 것은 국가가 헌법이 규정하고 있는 기본권 보호 의무를 방기하는 것이다.

국회 입법조사처는 2020년 9월 ‘인공지능의 윤리적 사용을 위한 개선과제’ 보고서에서 체계적이고 표준적인 윤리기준 등 인공지능윤리 거버넌스 마련, 예상치 못한 문제 발생 등에 대응할 수 있는 인공지능 사후감시 감독 시스템 도입, 인공지능 피해에 대한 배상책임 제도 보완 등 인공지능 전반의 논의가 필요하다고 제언한 바 있다. AI 문제는 민간자율의 범위를 뛰어 넘는다고 본 것이다. 이를 위해 우선, 인공지능 기술이 산업·사회 전반에 미치는 파급력이 크므로 전체를 조율할 수 있는 컨트롤 타워가 필요하다. 과기부가 소관부처라는 이유만으로 인공지능기술과 관련된 관련 법령의 제개정을 주도적으로 처리하면 안될 이유다. 신기술의 등장으로 새롭게 추구되는 가치와 기존의 법제도가 보호하고자 하는 가치가 충돌할 수 있는 만큼 국회, 정부 부처, 산업계, 학계, 시민단체 등이 참여하는 범정부적인 협의체가 구성되어야 한다. 또한 이 규제거버넌스 기구에는 공정거래위원회, 개인정보보호위원회, 국가인권위원회 등 국민의 기본권 보호 의무를 수행하는 국가 기관들도 반드시 참여해야 한다.

현재 국회에 발의되어 있는 AI 관련 법안(이상민 의원안, 양향자 의원안, 민형배 의원안)들 역시 모두 AI 산업육성과 진흥에 관한 법안들로, 신기술이 초래하는 위험성에 대한 고려가 전혀 없다. 인공지능의 사용은 ‘지속가능한 발전 목표’를 달성하고, 민주적인 프로세스와 사회적인 권리를 지원하는데 중요한 역할을 수행해야 한다. 이를 위해서는 인공지능 기술의 역기능을 최소화하기 위한 안전규제 및 위험관리 체계가 균형있게 마련되어야 한다.

AI 기술은 이른바 ‘4차 산업혁명’이라고 불리며 장밋빛 미래로 이야기되지만 그 이면에는 기본권과 인권 침해 위험성이 존재하며 피해 사례가 점차 드러나고 있다. 채용과정에서 왜 불합격인지 설명하기 어려운 인공지능의 판단을 당연하게 받아들여야 하는 것인지, 챗봇 이루다 사태에서 보듯 데이터 수집 단계의 개인정보 침해 뿐만 아니라 인간에 대한 혐오, 편견을 조장하는 발언들 역시 초창기 기술이라는 이유로 대책 없이 감내하여야 하는 것인지 질문해야 한다. 민간 자율과 별개로 인공지능의 영향을 받는 국민의 안전과 기본권 보호를 위한 인공지능 규제법을 마련할 것을 촉구한다.

2021년 4월 1일

민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대

온라인 주민등록번호…연계정보(CI)는 위헌이다

-시민사회단체, 헌법소원 제출 “애초에 존재할 필요 없는 연계정보, 즉각 폐지해야”
-‘고유/불변의 범용 개인식별코드’로서의 연계정보 생성·이용, 헌법상 과잉금지 원칙과 법률유보 원칙 위배

1. 민주사회를 위한 변호사모임 디지털정보위원회, 진보네트워크센터, 사단법인 정보인권연구소 등 3개 시민사회단체는 오늘(3/10) 연계정보(Connecting Information, CI)의 생성·발급·처리 등이 헌법 상 기본권을 침해하고 있으며, 이를 규정하고 있는 정보통신망법 제23조의2 제2항, 제23조의3 제1항 역시 ‘대체수단’에 연계정보가 포함된다고 해석하는 한 헌법에 위반된다는 취지의 헌법소원을 제기했다.

2. 이번에 소를 제기한 청구인들은 국민연금공단, 도로교통공단으로부터 카카오톡을 통해 안내 및 통지 메시지를 수신한 뒤, 해당 공단들에 휴대전화번호를 제공한 적이 없다는 점에 의구심을 느껴 개인정보 열람청구를 진행했다. 그 결과 청구인들은 해당 모바일 전자고지 서비스가 주민등록번호와 같은 고유식별번호인 연계정보(CI)를 이용해 청구인들을 식별하고 메시지를 보냈다는 사실을 알게 되었다. 우리도 모르게 또 다른 주민등록번호가 만들어졌고 기업들 사이에서 공공연하게 공유되어 왔던 것이다.

3. 청구인들에게 알리지 않고 필요한 절차를 거치지도 않은 채 청구인들의 고유식별코드를 생성하고, 그것을 이용해 특정 휴대전화의 명의자를 식별한 뒤 행정업무에 관한 메시지를 보내는 것은 ▲개인정보자기결정권 ▲사생활의 비밀 및 자유 ▲익명 표현의 자유 침해 ▲좋은 행정의 권리 등 기본권을 침해하고, 헌법상 과잉금지 원칙, 법률유보 원칙 등에도 위배되는 일이다.

4. 주민등록번호를 통한 본인확인의 폐해가 심각해지자, 정부는 정보통신망법 개정을 통해 주민등록번호를 사용하지 않고 본인을 확인할 수 있는 대체수단을 제공하도록 하고, 이를 제공하는 본인확인기관을 지정했다(제23조의2 제2항 및 제23조의3 제1항). 본인확인기관은 본인확인정보와 중복가입확인정보를 통해 특정 사이트에서의 본인확인을 수행해왔다. 그런데 피청구인인 방송통신위원회와 한국인터넷진흥원은 2010년 경 연계정보(CI)라는 새로운 식별번호를 도입했으며, 이 연계정보는 주민등록번호와 1:1 매칭되는 고유식별자이다. 피청구인이 연계정보(CI)를 도입한 이유는 바로 ‘사업자들의 온오프라인 서비스 연계를 지원’하기 위한 것이었다. 주민번호와 같은 국민 식별번호가 국민도 모르는 사이 법적 근거도 없이 만들어진 것이다.

5. 연계정보는 개인 식별이 가능한 정보이기에 개인정보이며, 이를 대상으로 한 생성 및 이용 행위는 원칙적으로 개인정보자기결정권의 제한에 해당한다. 또한 연계정보 생성 및 이용은 인터넷 이용자의 신원을 항상 확인하고 식별할 수 있도록 하므로 사생활 비밀 및 자유, 자신의 신원을 누구에게도 밝히지 아니한 채 익명 또는 가명으로 자신의 사상이나 견해를 표명하고 전파할 익명표현의 자유, 적절한 고지 및 절차를 거칠 수 있도록 하는 좋은 행정의 권리 등 국민의 기본권을 침해한다.

6. 연계정보는 주민등록번호를 기반으로 1대1 연계(매칭)되어 생성되었으며, 한 번 부여되면 주민등록번호를 변경하지 않는 한 변경할 수 없다. 즉 연계정보는 주민등록번호와 1대1 매칭되는 또 다른 범용 식별번호이기 때문에 주민등록번호가 야기한 것과 똑같은 문제점을 가질 수밖에 없다. 게다가 이러한 특징을 이용해 현재 연계정보가 공공·민간부문에서 ‘범용 식별정보’로 광범위하게 이용되고 있는 실정이다. 연계정보는 인터넷 기업 사이의 온오프라인 서비스 연계를 넘어, 수사기관에 의해 수사대상자 식별 및 수사 목적으로도 활용되고 있으며, 최근에는 규제 샌드박스 임시허가를 통해 공공기관의 ‘모바일 전자고지 서비스’로 그 활용이 확대되고 있다. 특히 ‘모바일 전자고지 서비스’의 경우, 단순 ‘안내’에 대한 통지에 그치지 않고 교통범칙금, 과태료, 하이패스 통행료 미납통지 등 공공적인 불이익 조치 역시 예정되어 있어 이용 범위가 더욱 광범위한 것으로 보인다.

7. 이런 식으로 연계정보를 ‘범용 개인식별코드’로 사용하는 것은 헌법 상 과잉금지 원칙에 위배된다. 주민등록번호를 사용하지 않고 본인을 확인할 수 있는 대체수단으로 이미 아이핀, 중복가입확인정보(DI) 등이 존재하는 바 연계정보는 주민등록번호 대체수단으로서 필요가 없으며, 입법목적을 달성하기 위한 필요 최소한, 피해 최소성의 수단도 아니다. 따라서 해당 법률조항에서 대체수단에 연계정보가 포함된다고 해석할 경우 이로 인한 기본권 침해가 현저하여 법익 균형성 역시 잃었다고 보아야 할 것이다.

8. 아울러 기본권을 침해하는 행위임에도 연계정보 생성⋅발급⋅처리 행위에 대해 법률에 도입 및 부여 근거 및 목적, 그에 따른 사용범위와 사용방법 및 절차, 법적 한계까지 근거 법률에 명확하게 규정되지 않았다. 이는 법률유보원칙에도 위배되는 사항이다. 따라서 연계정보 수집 및 처리, 이용은 중단되어야 하며, 연계정보를 주민등록번호 대체수단으로 규정하는 한 정보통신망법 제23조의2 제2항, 제23조의3 제1항은 위헌이다.

9. 결론적으로 ‘온라인 주민등록번호’, ‘네트워크 주민등록번호’ 혹은 ‘전산망 주민등록번호’라 할 수 있는 연계정보(CI) 제도는 폐지되어야 한다. 본인확인과 아무런 관계가 없고 단지 기업들의 편의를 위해 만들어진 것일 따름이기 때문이다. 어떻게 제휴 서비스를 제공할 것인지는 기업 스스로가 고민할 일이지, 한국 정부처럼 국민의 범용 개인식별코드를 만들어주는 것은 전 세계에 유례가 없다. 연계정보는 애초에 존재할 필요가 없었고, 지금 폐지해도 아무런 문제가 없다. 끝.

 

<관련 사례> 과태료 전자고지 샘플 (출처: 마포구청 블로그)
<관련 사례> 과태료 전자고지 샘플 (출처: 서울 마포구청 블로그)

시민사회단체, 국가인권위원회에 '이루다 챗봇' 사건 인권침해·차별 진정 및 정책권고 제안

  1. 민주사회를 위한 변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대 공익법센터, 차별금지법제정연대는 2021. 2. 3. ‘이루다 챗봇’ 사건과 관련하여 인권침해 및 차별 진정과 정책권고를 요청하는 취지의 진정 및 정책권고 제안서를 국가인권위원회에 접수했습니다. 시민사회단체들은 위 진정 및 제안서에서 ‘이루다 챗봇’ 사안이 개별 인권침해 사안일 뿐만 아니라 인공지능 기술의 남용이 인권에 미칠 수 있는 부정적인 영향을 보여준 대표적인 사안라는 점을 지적하며 국가인권위원회에 관련 정책 전반에 대한 개선권고를 요청하였습니다.
  2. 국제인권규범에 따르면 국가 및 지방자치단체(이하 ‘국가 등’)는 사인에 의해 발생한 인권 침해 문제에 대하여 보호 의무를 부담합니다. 국제인권규범은 이른바 ‘3원적 의무설’에 따라 사인에 의한 인권침해에 있어 국가가 적절한 보호조치 등을 취하지 않은 경우를 국가 등에 의한 인권 침해를 구성하는 것으로 해석하고 있습니다. ‘이루다 챗봇’ 사안은 인공기술의 남용에 따른 프라이버시권 및 표현의 자유 침해에 대한 국가 등에 의한 제도적 보호의 부재를 여실히 드러낸 사안으로, 근본적으로는 국가에 의한 인권침해에 해당합니다.
  3. 유엔 인권최고대표, 유엔 의견과 표현의 자유 특별보고관 등은 인공지능기술 활용으로 인한 프라이버시 및 표현의 자유 침해를 방지해야 할 국제인권규범상 국가의 보호의무를 강조하며 영향평가제도, 감사제도 등 구체적인 제도를 수립하고 정보주체의 권리를 보장할 것을 권고하고 있습니다. 그리고 호주 국가인권위원회, 연방반차별국, 네덜란드 인권위원회 등 해외 국가인권기구들은 적극적 인공지능 규제의 법제화 제안, 정책권고 등 인공지능 기술에 따른 인권 침해와 차별을 막기 위한 적극적인 조치를 취하고 있습니다. 하지만 우리나라 국가인권위원회는 현재까지 인공지능 관련 정책 등에 대해 특별한 대응을 하지 않고 있는 상황입니다.
  4. 우리나라는 이른바 제4차 산업혁명이라는 미명 아래 상업적 분야 등에서 인공지능 기술 등 신기술이 무비판적으로 도입되고 있으며, 개인정보의 상업적 활용이 무분별하게 허용되고 있습니다. 그러나 정보주체인 시민들의 권리를 보장하기 위한 입법적, 행정적 기반은 전무합니다. 오히려 시민사회단체들의 우려와 반대에도 불구하고 도입된 ‘데이터 3법’으로 인하여 개인정보의 동의없는 상업적 활용이 폭넓게 허용되고 있고, 인공지능기술, 자동화 의사결정 등에 대한 규제도 전무한 상황입니다. 국가인권위원회는 위와 같은 공적 보호의 부재로 인한 인권침해 상황을 엄중히 인식하여야 합니다. 그리고 신속히 관련 정책을 인권의 관점에서 점검하여 권고를 내리는 등 국가인권기구로서의 역할을 다 하여야 할 것입니다.
  5. 이에 시민사회단체들은 위 진정 및 정책권고 제안서에서 국가인권위원회에 ‘이루다 챗봇’ 사안에 대한 철저한 조사 및 피해자들에 대한 배상을 권고해줄 것을 요청함과 동시에 관련 정책을 개선하기 위한 다양한 권고를 요청하였습니다. 시민사회단체들은 구체적으로 국가인권위원회에 ▲ 사적주체도 대상에 포함하는 실효성 있는 영향평가제도 구축 및 감사제도 도입 ▲ 인공지능에 의한 차별을 규율하기 위한 기반으로서 평등법의 제정 ▲ 프로파일링 및 자동화된 의사결정 거부권 등 정보주체의 권리 보장 ▲ 개인정보보호법 상 가명정보 및 동의제도에 관한 규정 정비 및 구제절차 보장, ▲ 인공지능 기술의 활용에 있어 기업 등이 준수해야할 가이드라인 개발 및 보급 등의 권고를 제안했습니다.
  6. 시민사회단체들은 ‘이루다 챗봇’ 사안을 사적영역의 문제 또는 한 기업의 일탈행위로 보고, 기업 등의 자율적 규제를 대안으로 제시하는 일부 주장에 깊은 우려를 표합니다. ‘이루다 챗봇’ 사안으로 드러난 인공지능, 알고리즘의 오남용으로 인한 광범위한 인권침해와 차별의 위험성은 엄연히 국가 등의 적절한 보호조치를 통해 예방, 방지되어야 합니다. 이번  시민사회단체들이 국가인권위원회에 제기한 진정 및 정책제안서가 인공지능 등 신기술로 인해 발생할 수 있는 인권침해와 차별의 위험성을 방지하고, 정보주체의 권리를 확인하는 하나의 계기가 될 수 있기를 기원합니다.

※ 첨부자료: 진정 및 정책권고 제안서 [내려받기]

2021년 2월 3일

민주사회를 위한 변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대 공익법센터, 차별금지법제정연대

인공지능의 공정성, 투명성, 책임성 보장을 위한 법제 정비 방안

 

▶토론회 일정 변경 안내◀
ㅇ 국회 방역 조치로 토론회 일자가 1차 안내된 2월 3일(수)에서 2월 17일(수)로 변경되었습니다
ㅇ 코로나19 방역 상황으로 인해 온라인 화상회의로 진행하며 정필모 의원실 페이스북 페이지를 통해 생중계로 참가하실 수 있습니다. https://www.facebook.com/pmjung537
ㅇ 토론회에 참가하실 분들께서 이름, 소속, 이메일 주소를 남겨 주시면 자료집 및 안내를 보내드리겠습니다. https://bit.ly/2YfxvD8


인공지능의 공정성, 투명성, 책임성 보장을 위한 법제 정비 방안 국회 토론회 (2. 17. 변경) 개최

- 최근 AI 면접과 챗봇 논란이 불거진 인공지능 제품과 서비스의 올바른 규제 방향 모색
- 더불어민주당 정보통신특별위원회(위원장 정필모)와 시민사회 공동주최

□ 최근 AI 면접과 챗봇 등 인공지능 제품과 서비스에 대한 사회적 논란이 불거진 가운데, 더불어민주당 정보통신특별위원회(위원장 정필모)와 시민단체 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 소비자시민모임, 진보네트워크센터, 참여연대가 공동주최하는 인공지능의 공정성, 투명성, 책임성 보장을 위한 법제 정비 방안2월 17일 오후 2, 정필모 의원 페이스북에서 온라인으로 개최된다.

○ 이번 토론회에서는 최근 AI 면접과 챗봇 논란이 불거진 인공지능 제품과 서비스의 올바른 규제를 위한 법제 정비 방안에 대하여 토론한다.

□ 이번 토론회 발제는 △ 김민우 박사(충북대학교 행정학과 BK21사업팀 박사후연구원)가 “헌법과 인공지능”을 주제로 △ 오정미 변호사(서울대학교 공익법률센터 공익펠로우)가 “인공지능 법제 정비 제안”을 주제로 발표하며 △ 한상희 교수(건국대학교 법학전문대학원, 참여연대 정책자문위원장)가 사회를 맡는다.

○ 각계 전문가 토론자로는 김병필 교수(KAIST 기술경영학부/민주사회를위한변호사모임 디지털정보위원회 회원), 장여경 이사(사단법인 정보인권연구소), 윤명 사무총장(소비자시민모임), 김민 정책활동가(진보네트워크센터)가 참여하며, 정부 부처에서는 과학기술정보통신부(인공지능정책과 김경만 과장), 공정거래위원회(시장감시총괄과 이동원 과장), 개인정보 보호위원회(데이터안전정책과 이한샘 과장)가 토론에 참여한다.

□ 인공지능은 사회경제적으로 국민에게 여러 혜택을 가져올 수 있는 반면, 편향적이고 불투명한 의사결정으로 소비자와 이용자의 기본권과 안전에 위협이 될 수 있다는 우려 또한 존재하고 있다. 정부가 2021년 상반기부터 인공지능 법·제도·규제 정비 로드맵 추진 계획을 발표한 가운데(과학기술정보통신부 2020. 12. 24. 인공지능 법·제도·규제 정비 로드맵), 이번 토론회는 모든 국민에게 혜택이 돌아가는 인공지능 기술의 발전을 모색하고 그 예상되는 부작용을 최소화하는 국가 정책에 대한 논의 자리가 될 것으로 기대한다.

▣ 행사개요

(일시) ’21. 2. 17.(수), 오후2시

(장소/온라인 생중계) 정필모 의원 페이스북 http://www.facebook.com/pmjung537

(주최) 더불어민주당 정보통신특별위원회(위원장 정필모), 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 소비자시민모임, 진보네트워크센터, 참여연대

(참여신청) https://bit.ly/2YfxvD8

▣ 프로그램

시간 프로그램
사회 : 한상희 교수 (건국대학교 법학전문대학원 / 참여연대 정책자문위원장)
2:00~2:10 개회 인사말 더불어민주당 정보통신특별위원회 정필모 위원장
2:10~2:35 발제 헌법과 인공지능 김민우 박사 (충북대학교 행정학과 BK21사업팀 / 박사후연구원)
2:35~3:00 발제 인공지능 법제 정비 제안 오정미 변호사 (서울대학교 공익법률센터 / 공익펠로우)
3:00~3:40 토론 인공지능과 기술윤리 : 김병필 교수 (KAIST 기술경영학부/민주사회를위한변호사모임 디지털정보위원회 회원)
인공지능 법제 정비 해외 사례 : 장여경 이사 (사단법인 정보인권연구소)
인공지능 제품의 안전성과 소비자 보호 : 윤명 사무총장 (소비자시민모임)
AI 면접의 공정성과 투명성 : 김민 정책활동가 (진보네트워크센터)
3:40~4:20 토론 정부 부처
- 과학기술정보통신부 김경만 과장 (인공지능정책과)
- 공정거래위원회 이동원 과장 (시장감시총괄과)
- 개인정보 보호위원회 이한샘 과장 (데이터안전정책과)
4:20~4:30 플로어 토론 및 참석자 전체 토론

 

신뢰할 수 있는 인공지능, 기업의 자율규제만으로는 못 이룬다

'개발'에만 치중한 AI산업육성, '이루다'는 예정된 참사
- 100억건의 개인정보 침해가 빚어낸 차별과 혐오주의자 챗봇

  1. 지난 12월 23일 출시된 스캐터랩의 대화형 챗봇 ‘이루다’를 둘러싼 논란이 한창입니다. 대화형 챗봇 ‘이루다’는 사용자들의 성희롱과 폭언 등의 남용, 혐오표현에 대한 미온적 대응 등 보호받아야 할 사회적 가치를 훼손하는 알고리즘은 물론이고, 개인의 사적인 대화나 개인정보가 심각하게 수집되고 유출된 것으로 드러나 당혹감을 안겨주고 있습니다.

우리는 마치 이번 논란을 해외시장에서 경쟁하려는 국내 청년 스타트업의 불가피한 시행착오로 포장하려는 일부 언론의 보도에 대해 우려하고 있으며, 엄연히 피해자가 드러난 사안에 대하여 법적 책임을 회피하려는 일체의 시도에 대하여 엄중하게 경고합니다.

챗봇 이루다 논란은 기업의 인공지능 제품이 일으킬 수 있는 문제의 한 단면일 뿐이며 이에 대한 대책을 기업 자율에만 맡겨둘 수 없습니다. 이미 우리 생활 곳곳에 들어와 있는 인공지능 제품에 대한 구체적이고 명료한 법적 규범을 마련할 것을 촉구합니다.

  1. 대화형 챗봇 ‘이루다’를 개발하고 운영하는 스캐터랩은 2013년 텍스트앳, 2016년 연애의 과학 등의 어플리케이션을 운영하며 카카오톡 등 메신저의 대화 내용을 수집해왔고 이를 자사 다른 제품인 대화형 챗봇 ‘이루다’의 학습용 데이터로 이용했습니다. 「개인정보 보호법」에 따르면 해당 대화 내용 데이터 수집과 이용에 다음과 같은 문제가 있습니다.

개인정보의 목적 외 이용과 부적절한 고지

텍스트앳과 연애의 과학 어플리케이션은 사용자들에게 각각 ‘감정분석서비스’, ‘카톡으로 보는 속마음’ 기능을 제공하며 카카오톡 대화 내용 내보내기 기능을 통해 특정 상대방과 나눈 대화를 전부 수집하였습니다. 스캐터랩은 ‘이루다’가 이용한 연애의 과학 사용자 데이터는 사용자의 사전 동의가 이루어진 개인정보취급방침의 범위 내에서 이용하였다고 주장하였습니다. 그러나 연애의 과학 로그인 페이지에서 “로그인함으로써 개인정보 처리방침에 동의합니다”로 간주하는 것은 각각의 사항을 알리고 명시적으로 동의를 받도록 한 개인정보 보호법 위반입니다(제15조 제2항 또는 제39조의3 제1항 및 제22조 위반). 

또 카카오톡 대화 수집에 동의한 사용자들에게 해당 비공개 대화가 챗봇 서비스 학습 데이터로 이용된다고 적정하게 고지되었는지 의문입니다. 각 어플리케이션의 개인정보 취급방침에는 다음과 같은 내용만이 존재합니다.

라. 신규 서비스 개발 및 마케팅·광고에의 활용
신규 서비스 개발 및 맞춤 서비스 제공, 통계학적 특성에 따른 서비스 제공 및 광고 게재, 서비스의 유효성 확인, 이벤트 및 광고성 정보 제공 및 참여기회 제공, 접속빈도 파악, 회원의 서비스이용에 대한 통계

현재 수많은 사용자들이 분노하는 것에서 알 수 있듯, 해당 방침을 읽고 본인이 제공한 대화 내용이 챗봇의 학습 데이터로 이용될 거라고 예상한 사람이 어디 있을지 의문입니다. 적법한 동의에 해당하기 위해서는 이용자가 개인정보에 관한 결정권을 충분히 자유롭게 행사할 수 있도록, 통상의 이용자라면 용이하게 법정 고지사항의 구체적 내용을 알아볼 수 있을 정도로 법정 고지사항 전부를 명확하게 게재해야 합니다. 이처럼 정보주체에게 충분히 설명하지 않고 충분히 인지되지 않은 동의는 제대로 된 동의라고 보기 어렵습니다. 

한편 ‘신규 서비스 개발과 마케팅·광고 활용’이 위 유료 어플리케이션을 이용하는데 ‘필수정보’인지도 의문입니다. 필수정보가 아닌 개인정보 수집·이용에 대해서는 이용자의 선택권을 보장해야 합니다(제16조 제2항과 제3항 또는 제39조의3제3항 위반).

대화 상대방의 동의 부존재

사용자들이 분석을 위해 제공한 카카오톡 대화는 2인 이상의 대화입니다. 개인정보 보호법 제15조 또는 제39조의3제1항에 따라 마땅히 받아야 할 대화 상대방에 대한 동의 절차는 어디에도 없었습니다. 지난 12일 스캐터랩은 논란이 지속되자 서비스를 중지하고 사과의 뜻을 밝혔지만 대화 상대방의 동의 부존재에 대해선 한 마디 언급도 없었습니다(제15조 제1항 또는 제39조의3제1항 위반). 

대화 상대방의 동의를 받아 데이터를 수집하는 것은 얼마든지 가능한 일입니다. 2019년 국립국어원에서 진행한 메신저 대화 자료 수집 및 말뭉치 구축 사업의 경우, 메신저 대화를 수집하며 대화 참여자 전원으로부터 대화 제공에 대한 동의와 저작권 이용 허락 등을 받아 데이터셋을 구축했습니다. 이는 정보주체의 권리를 보호함과 동시에 적법하게 데이터를 수집하는 일이 충분히 가능하다는 사실을 보여주고 있습니다. 

자신의 사적인 대화 내용이 수집되고 분석되며 이후 챗봇의 학습에 이용되었다는 사실을 인지도 못한 피해자가 무수히 존재할 것이며 이러한 데이터는 원본과 가명 정보 모두 폐기 되어야 마땅합니다.

대화 내용에 포함된 민감정보, 고유식별정보

‘텍스트앳’, ‘연애의 과학’ 서비스는 카카오톡 등 메신저를 통한 사적인 대화 내용을 수집하는 바, 이에는 이름과 연락처, 주소 등 개인의 신원이 드러날 수 있는 다양한 개인정보와 더불어 더 민감한 다른 정보도 포함되어 있습니다. 자신의 사상, 신념, 정치적 견해, 건강상태, 성생활에 대한 정보, 인종과 민족에 대한 정보 등은 민감정보입니다. 숫자 뿐 아니라 한글과 이미지 등 다른 형태로 표시된 여권번호, 운전면허번호, 외국인등록번호는 고유식별정보입니다. 민감정보와 고유식별정보는 정보주체의 명시적인 동의나 법령상 허용조항 없이는 누구도 수집하거나 이용할 수 없는데 연애의 과학은 이에 대한 별도 동의를 받지 않았으며 실제로 성생활 등에 대한 정보가 수집 이용된 것으로 보입니다(제23조제1항 및 제24조 제1항 위반). 또 숫자 뿐 아니라 한글이나 이미지로 표시된 주민등록번호는 법령상 근거 없이는 민간에서 수집하는 것 자체가 금지되어 있습니다(제24조의2 제1항 위반). 이러한 내용은 스캐터랩과 어플리케이션의 유료 기능의 개인정보 처리방침 어디에도 고지되지 않았습니다.

개인정보에 대한 이용자의 권리 무시

스캐터랩은 이루다가 학습한 대화내용에서 숫자와 영문, 실명 정보 등은 삭제하였기 때문에 개인정보에 대한 비식별화가 충분히 이루어졌다고 주장하고 있습니다. 그러나 지금 이름, 주소 등이 노출되는 사례가 등장하고 있는 것은 이 회사의 비식별화 또는 가명처리의 수준이 적정하지 않았다는 점을 분명히 드러내고 있으며, 스캐터랩은 얼마 전까지 연애의 과학에서 추출된 일부 대화 내용을 오픈소스 플랫폼에 훈련 데이터셋으로 공개하기도 했습니다. 해당 데이터셋의 경우 이름, 건강상태, 직장 등의 개인정보가 비식별화되지 않은 상태였습니다. 

무엇보다 눈에 두드러지는 숫자, 영문, 이름 등만 개인정보인 것이 아닙니다. 다른 정보와 쉽게 결합하여 알아볼 수 있으면 개인정보로서 똑같은 보호 대상입니다. 성명은 지웠지만 여성이고, 이십대라는 점을 알고 있으며, 숫자와 영문은 삭제되었지만 서울 성북구에 살고, 특정은행에 계좌가 있고, 특정대학교 특정학과 또는 특정 기숙사를 출입한다면 개인을 특정할 수 있습니다. 이처럼 개인정보를 부분적으로 삭제하여 가명처리를 했다 하더라도 더 많이 결합할수록 알아볼 가능성이 더 높아진다는 것이 상식입니다. 이러한 개인정보들을 언제 누구에게 어느 범위까지 알려지고 또 이용되도록 할 것인지를 그 정보주체가 스스로 결정할 수 있는 권리는 우리 헌법에서 보호하고 있는 기본권입니다. 

개인정보 침해를 당했음에도 불구하고 그 사실조차 모르는 정보주체가 다수 존재할 것입니다. 지금이라도 가입자 뿐 아니라 자신의 대화가 수집이용된 모든 정보주체의 열람 및 삭제 권리는 완전하게 행사될 수 있어야 합니다. 또 개인정보 수집과 처리 과정이 불법적인 것으로 드러나면 정보주체의 요청 없이도 해당 개인정보를 바탕으로 만들어진 챗봇 모델과 알고리즘의 폐기가 마땅합니다.

  1. 이번 이루다 논란은 기업을 위한 데이터3법이 자초한 문제이기도 합니다. 시민사회는 데이터3법이 기업들로 하여금 개인정보를 가명처리한 후 정보주체의 동의 없이 인공지능 제품 등 기업의 상품개발에 거의 무한대로 이용할 수 있도록 허용한 데 대하여 비판해 왔습니다. 공익적 학술 연구 등에 정보주체의 동의 없이 가명정보를 사용할 수 있도록 하는 유럽연합 등의 사례가 있지만, 기업의 상업적인 제품 개발을 위해 정보주체의 기본권을 무시하며 가명정보를 무제한적으로 이용하는 것은 위헌적입니다. 정보주체의 권리를 보장하기 위해서는 현 가명정보에 면제한 열람권, 삭제권 등을 보장하는 방향으로 법개정이 있어야 할 것입니다. 무엇보다 새로운 사회적 흐름으로 등장한 인공지능 제품에 대한 명확한 법규범은 필수입니다.

    그런데 최근 정부와 기업이 여기서 더 나아가 데이터 산업의 발전을 명분으로 현재의 사전 동의 조항을 더 완화하는 법 개정을 추진하고 있다는 데 대하여 우리는 깊이 우려합니다.

  1. 스캐터랩은 향후 ‘더 고도화된 데이터 알고리즘’으로 이 문제를 해결하고 향후 재운영하겠다는 방침을 밝혔습니다. 또 자신들이 마음대로 사용한 이용자의 원본 데이터, 가명 데이터를 완전 파기하겠다는 약속은 하지 않는 모습입니다

    그러나 바로 며칠전, 미국 연방거래위원회(FTC)는 불법적으로 사진을 수집해 얼굴인식 알고리즘 훈련용 데이터로 이용한 기업에게 해당 모델과 알고리즘을 삭제하라는 명령을 내렸다는 사실을 상기할 필요가 있습니다. 지금은 챗봇 문제로 시작했지만 더 위험한 인공지능에서 더 위험한 데이터, 더 위험한 알고리즘을 사용하기 전에 우리 사회가 이런 문제에 대한 대책을 고민해야 할 시점입니다. 

    윤리적 검토와 평가, 사회적 합의와 토론 없이 성급하게 개발되는 인공지능 제품은 국민에게 차별과 오류, 개인정보 침해 등 심각한 악영향을 가져올 수 있으며 동시에 블랙박스 속에 감춰진 알고리즘으로 인해 피해자가 권리 침해 사실조차 깨닫지 못할 수도 있습니다

  1. 기업의 인공지능 제품의 악영향에 대한 대책이 인공지능 윤리로 그쳐서는 안됩니다. 

    지난 12월 발표된 과학기술정보통신부의 ’인공지능(AI)윤리기준’ 에는 인권을 보장하고 프라이버시를 보호하고 다양성을 존중하고 책임성을 보장하는 등 선하고 아름다운 문장들이 가득하지만, 그것을 구체적으로 실현할 수 있는 방안은 없는 것으로 보입니다. 특히 아래와 같은 문장을 명시함으로써 인공지능 윤리 가이드라인이 현실적 규범으로서는 아무런 의미도 없는 선언에 불과하다는 사실을 스스로 입증하였습니다.

“본 윤리기준은 산업·경제 분야의 자율규제 환경을 조성함으로써 인공지능 연구개발과 산업 성장을 제약하지 않고, 정당한 이윤을 추구하는 기업에 부당한 부담을 지우지 않는 것을 목표로 한다.”

온갖 미사여구와 좋은 말이 가득하지만 구속력 있는 ‘법’이나 ‘제도’가 아니라 단순한 자율 규범으로, 아무런 강제성이 존재하지 않는 가이드라인으로 인공지능 제품의 악영향을 막을 수 없을 것입니다. 

  1. 인공지능 제품과 그 학습 데이터의 편향성의 문제는 윤리가 아니라 법률 규범의 문제입니다. 

    세계 각국은 인공지능 제품과 그 학습 데이터에 대하여 제조물 책임법, 소비자 보호법, 정보공개법, 개인정보 보호법, 평등법 등 현행법을 정교하게 적용하기 위해 노력하고 있습니다.

    특히 유럽연합의 경우 인공지능 제품과 서비스에 대해 기존 법률의 준수는 물론이고, 추가적으로 ‘고위험’ 인공지능에 해당할 경우 훈련데이터, 기록보존, 정보공개, 견고성, 인적 감독 등의 법적 의무를 추진하고 있습니다. 이때 공공적으로 법적인 효과를 낳거나 의료, 운수, 에너지 분야에서 중대한 손상을 야기하거나 노동자나 소비자의 권리에 영향을 미치는 인공지능 제품과 서비스는 ‘고위험’에 해당합니다. 이중 훈련 데이터에 대한 법적 의무로는 △충분히 광범위한 데이터셋에 기반해 훈련하는 등 그 안전을 합리적으로 보장할 것 △금지된 차별을 수반하는 결과로 이어지지 않도록 합리적인 조치를 취할 것 △제품과 서비스를 사용하는 동안 사생활과 개인정보를 적절히 보호할 것 등을 요구할 예정입니다. 

    캐나다는 이미 2019년부터 공공기관 자동화된 의사결정에 대한 지침(정부 훈령)을 제정하고 모든 공공기관 인공지능 알고리즘에 대하여 영향평가를 실시하고, 생산 전에 훈련 데이터가 의도하지 않은 데이터 편향을 드러내거나 결과에 부당하게 영향을 미칠 수 있는 요소가 있는지 검사 절차를 거치고 있습니다. 심지어 자율규제의 나라 미국에서도, 법 집행기관의 인공지능 사용과 채용을 위한 인공지능 사용 등 특정 영역을 강하게 규제하는 법이 제정되고 있습니다.

  1. ‘이루다’는 챗봇이고, 고위험 인공지능이나 공공기관 인공지능은 아닐지 모릅니다. 그러나 막연하고 기업 자율적인 인공지능 윤리에서 더 나아가 이제는 국민의 안전과 기본권을 보호할 수 있는 인공지능 규제법을 고민해야 할 때입니다. 

    개인정보를 보호해야 할 대상이 아닌 경제적 관점과 활용 대상으로만 바라보는 기업의 관행은 국민이 신뢰할 수 없는 인공지능 기술로 이어질 것입니다. 개인정보 자기결정권을 침해하고, 의도하지 않은 결과를 도출하고, 혐오를 양산하고, 소수자를 배제하고, 편견을 재생산하는 인공지능 기술의 도입을 방지할 방법이 현실적으로 고려돼야 합니다. 지금 이 순간에도 사회 다양한 영역에서 인공지능 제품과 서비스가 개발되고 활용되고 도입되고 있습니다. 그중 일부는 챗봇 정도가 아니라 채용, 사회 복지 수급자 선정, 일자리 배치 등 국민의 삶에 중대한 영향을 미치는 영역에 자리를 잡았습니다. 이러한 상황에서 기업들의 인공지능 윤리 준수를 선의에만 기댈 수는 없습니다. 국민에게는 인공지능 기술을 사회적으로 통제하기 위한 현실적인 법이 필요합니다.

  1. 이 문제적 인공지능 제품의 이면에서 개인정보에 대한 심각한 권리 침해가 발생한 것으로 보이며, 우리는 이에 대한 개인정보 보호위원회의 철저한 조사와 엄정한 처벌을 촉구합니다. 우리 단체들은 개인정보 보호위원회에 대한 의견, 민원 뿐 아니라 국가인권위원회 등 관련 부처에 대한 민원, 필요하다면 관련 소송 등으로 계속하여 이 사안에 공동으로 대응할 예정입니다. 나아가 정부와 국회의 관련 정책 입안자들에 대하여 소비자와 이용자의 권리를 침해하는 인공지능 제품의 규제를 위해 법률적 대책을 마련할 것을 촉구합니다. 

2021년 1월 13일
민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대

국제인권기준에 따른 개인정보 보호 법제도 개선방안 연구

사단법인 정보인권연구소는 2020년 11월 <유럽연합 「개인정보보호 규정」(GDPR) 등 국제인권기준에 따른 개인정보 보호 법제도 개선방안 연구> 보고서를 발간하였습니다.

최근 정부와 기업은 데이터 산업 활성화를 위해 개인정보 보호를 완화하는 여러 정책을 추진하고 있습니다. 쇼핑내역은 물론 민감한 건강정보에 이르기까지 많은 개인정보가 정보주체의 동의 없이 광범위하게 가명처리 후 거래되기 시작했습니다. 개인정보 보호법은 지난해 데이터3법 논란에 이어 2차 개정을 눈앞에 둔 상황입니다.

정보주체인 국민들이 지금의 데이터 환경을 신뢰할 수 있을까요. 소비자와 이용자의 개인정보를 부당하게 매매하거나 유출한 기업들은 충분히 책임을 지는 모습을 보여주지 못해 왔습니다. 데이터 산업이 정당하고 투명하지 못하다면 국민에게 어떤 이익이 돌아올 수 있을지 의문입니다. 무엇보다 개인정보 자기결정권은 헌법이 보호하는 기본권으로서 산업 발전을 위하여 이를 부당하게 제한해서는 안 될 것입니다.

데이터 환경은 인공지능 등 기술의 발전으로 갈수록 불투명해지고 있습니다. 그러나 우리 사회에서 정보주체의 권리 보장에 대한 진지한 고민은 4차 산업혁명의 구호 속에 실종되어 가는 듯 합니다. 반면 유럽연합 GDPR 등 국제기준에서는 정보주체가 자신의 개인정보 처리에 대하여 정보를 제공받을 권리, 접근할 권리, 수정할 권리, 삭제할 권리, 처리를 제한할 권리, 이동시킬 권리, 프로파일링 및 자동화된 의사결정에 대하여 행사할 수 있는 권리 등을 정교화해 나가고 있습니다.

또 최근 유럽에서는 기업 등 개인정보를 처리하는 자의 책임성 또한 강화되고 있습니다. 개인정보를 처리하는 자는 제품과 서비스에서 설계에 의한 개인정보 보호(data protection by design)와 기본설정에 의한 개인정보 보호(data protection by default)의 의무가 있고, 특히 고위험 개인정보 처리를 하는 경우 공공은 물론 민간에게도 개인정보 보호 영향평가의 의무가 있습니다. 나아가 개인정보 처리 활동을 기록해야 하고 독립적인 정보보호 책임자(DPO)를 두도록 하고 있기도 합니다. 그러나 안타깝게도 우리의 현행법과 개정안에서는 개인정보 처리자의 책임성 보장이 매우 부실한 상황입니다.

이에 연구보고서는 국내외 현황을 다각도로 살펴보고 정보주체에게 공정하고 투명하고 책임감 있는 개인정보 처리를 위한 정책 권고를 담았습니다. 우리의 개인정보 보호 법제도들은 정보주체의 권리를 충분히 보장하고 개인정보 처리자들의 책임성 또한 강화하는 방향으로 개선해야 할 필요가 있습니다. 또한 인공지능 등 신기술 환경에서 정보 인권을 보장하기 위한 거버넌스와 절차가 마련되어야 하고 국가인권위원회와 개인정보 보호위원회가 제 역할을 해야 합니다. 신용정보법과 개인정보 보호법으로 분산되어 있는 개인정보 보호 체계는 일원화되어야 하고, 정보기관 및 수사기관에 광범위한 예외를 구체적으로 한정할 필요가 있습니다.

국가인권위원회가 발주한 이 실태조사 연구보고서는, 사단법인 정보인권연구소 이사장 이호중 교수(서강대학교 법학전문대학원)가 책임을 맡았습니다. 이은우 변호사(법무법인 지향), 오병일 대표(진보네트워크센터), 장여경 이사(정보인권연구소), 김재완 박사(한국방송통신대학교)가 공동연구원으로 참여하고 희우 활동가(진보네트워크센터)가 연구보조원으로 참여했습니다.

♣️ 사단법인 정보인권연구소는 시민사회 관점에서 정보인권을 지지하는 대안적 정책을 연구하고 생산하기 위해 2018년 창립하였습니다(이사장: 이호중 서강대학교 법학전문대학원 교수). http://idr.jinbo.net

♣️ 연구보고서 전체 파일은 국가인권위원회에서 다운받으시거나 첨부파일을 내려받으시기 바랍니다.

[연구보고서 내려받기] 2020정보인권연구소_개인정보보호법제도개선연구_최종보고서

코로나19와 정보인권

진보네트워크센터와 사단법인 정보인권연구소는 공동으로 <코로나19와 정보인권> 보고서를 발간하였습니다.

한국의 코로나19 대응은 지금까지 성공적인 것으로 평가를 받아왔지만, 동시에 처벌과 통제 중심의 정책은 인권적 관점에서 많은 우려를 불러왔습니다. 특히 코로나19 환자에 대한 역학 조사 및 접촉자 추적 과정에서 과도한 개인정보 수집과 공개가 이루어져 정보인권 침해를 가져왔습니다. 환자의 개인정보와 동선이 공개되어 인터넷에서의 혐오발언에 시달리는 경우도 있었고, 접촉자 추적을 명분으로 만 명이 넘는 사람들의 기지국 접속 정보가 수집되기도 했습니다. 국가인권위원회와 인권단체의 반대에도 불구하고, 지금까지 성폭력 범죄자에게 적용되었던 전자적 위치추적장치(전자팔찌)가 자가격리 위반자에게도 착용이 강제되고 있습니다. 출입명부작성은 전 국민을 대상으로 시행되고 있습니다.

비록 감염병 대응이라는 공익을 명분으로 한 정책이지만, 인권 침해를 최소화하기 위해 개선할 필요가 있습니다. 감염병 대응의 효과는 있었는지, 덜 침해적인 수단은 없는지, 남용을 방지하기 위한 안전조치는 충분한지 점검할 필요가 있습니다. 코로나19가 마지막 감염병이 아닐 것이기 때문입니다.

<코로나19와 정보인권> 보고서는 올해 코로나19 대응 과정에서 문제가 되었던 정보인권 침해 사례와 쟁점들을 정리한 것입니다. 진보네트워크센터와 사단법인 정보인권연구소는 이번 보고서를 토대로 내년에 더욱 심화된 연구를 진행할 예정입니다. 이번 보고서는 정보인권단체의 세계적인 네트워크인 진보통신연합(APC)의 지원을 받아서 제작되었으며, 국문과 함께 영문 보고서로도 발간되어 세계 시민사회 및 전문가들과 함께 바람직한 감염병 대응 정책에 대한 토론의 자료로 활용할 계획입니다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

[이슈리포트 내려받기] 코로나19와 정보인권 보고서

[PDF] Covid_19_and_the_right_to_Privacy_an_analysis_of_South_Korean_Experiences

경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제

사단법인 정보인권연구소는 이슈리포트 <정보인권> 통권 제10호로 “경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제”를 발간하였다. 이 연구는 4.9통일평화재단의 지원으로 제작되었으며 진보네트워크센터도 필자로 함께 참여하였다.

최근 경찰은 치안활동에 첨단과학기술을 결합한 ‘스마트치안’을 강조하면서, 지문, 유전정보 등 고전적 형태의 생체인식정보를 넘어 얼굴정보, 행동정보 등 새로운 형태의 생체정보를 활용하는 치안활동을 확대해 가고 있다.

특히 경찰과 사실상 공동관제하고 있는 지방자치단체 CCTV가 최근 급격히 지능화하고 있다. 경기도 부천시의 경우 코로나19 대응을 위해 확진자의 얼굴 사진과 CCTV 영상 속 시민들의 얼굴을 대조해 같은 사람을 찾아내고 동선을 파악하는 ‘확진자 동선추적 시스템’을 개발하고 있다고 밝히기도 했다.

이미 경찰은 CCTV, 블랙박스 등 범죄현장에서 찍힌 용의자 사진과 구속된 9대 수법범죄자 데이터베이스를 비교·검색하여, 용의자의 신원확인을 신속하게 지원하는 <범죄예방 3D얼굴인식시스템>을 개발 및 관리해 왔다. 이 시스템에는 2019년 현재 이미 198,330건의 얼굴인식정보가 포함되어 있다. 경찰은 3D얼굴인식시스템을 계속 고도화할 계획으로, 2024년에는 실시간 CCTV 연계 얼굴인식을 목표로 하고 있으며, 인공지능을 이용하여 나이 등 대상자 특성에 대한 자동화된 식별도 추구하고 있다.

또 경찰청과 과학기술정보통신부, 산업통상자원부는 공동으로 2018년부터 5개년에 걸쳐 ‘실종아동등 신원확인을 위한 복합인지기술개발사업’을 진행하고 있다. 이 사업은 △ 유전정보, △ 얼굴정보, △ 행동정보, △ 시·공간정보 등을 수집하고 연계하여 인공지능 기반으로 분석하여 고도화된 신원분석을 목표로 하고 있다. 현재는 ‘실종아동수색’이라는 목적에 한정하여 개발되고 있으나, 일단 기술적 기반이 갖추어지면 그 활용이 향후 범죄 수사, 위험방지 등 다양한 경찰활동으로 확대될 가능성이 존재한다.

미국에서는 잘못된 얼굴인식으로 경찰이 무고한 흑인을 체포하는 등 얼굴인식 기술을 둘러싼 많은 논란이 빚어져 왔고, 경찰의 얼굴인식 기술 사용에 대하여 샌프란시스코, 워싱턴 주 등에서 규제법을 도입한 바 있다. 유럽연합에서는 인권기구인 기본권청이 법집행기관의 얼굴인식기술 사용이 유럽 개인정보보호법 GDPR 및 경찰디렉티브에 위배될 가능성을 지적하며 법률에 따른 통제를 제안하였다. 지난 9월에는 영국 항소법원이 경찰의 실시간 얼굴인식 사용에 대한 시민단체 소송에서 최초의 위법 판결을 내렸다. 법원은 경찰이 얼굴인식 기술의 차별적 영향을 적절히 고려하지 못했고, 평등법에 따른 의무를 다하지 못했으며, 민감정보 처리에 대한 개인정보 보호법을 준수하지 못했다고 지적했다.

이슈리포트는 I. 서론 II. 얼굴인식 기술의 개념 III. 해외 현황 및 관련 법제도 IV. 국내 현황 및 관련 법제도 V. 결론 및 제언으로 구성되어 있으며, 경찰 등 법집행기관의 얼굴인식 감시기술의 사용에 대한 해외 사례 및 법제도를 소개하고 나아가 국내 개인정보 보호법 적용 및 그 한계에 대하여 살펴보았다. 이슈리포트는 결론적으로 민감정보인 생체인식정보 처리의 제한에서 경찰 등 법집행 목적을 제외한 현행 개인정보 보호 법령의 개선과 함께 경찰 등 법집행기관의 얼굴인식 기술 사용을 법률에 따라 엄격하게 통제할 것을 제안하였다. 또한 집회시위 등 국민 기본권의 본질을 중대하게 침해할 우려가 있는 분야에서는 얼굴인식기술의 사용을 금지할 것과 국민을 보호하기 위한 법적 근거가 갖추어지기 전에는 법집행기관의 얼굴인식정보 처리를 중단할 것을 제안하였다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

[이슈리포트 내려받기] 경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제

법 집행기관의 얼굴인식 기술 사용 현황과 진단

 

생체인식 정보를 활용한 인공지능 기술, 특히 그중에서도 얼굴인식 기술에 대한 규제는 이미 세계적 이슈 중 하나입니다. 미국은 공공기관의 얼굴인식 기술 사용을 전면적으로 통제하거나 금지하는 조례들이 여러 지역에서 통과되고 시행되었으며 주 단위 규제를 넘어 연방 차원의 법안 또한 논의되고 있습니다. 또한 유럽연합은 기존의 보호장치에 더해 공공장소에서의 얼굴인식 기술 사용 금지를 고려하기도 했습니다.

인종에 대한 차별, 성별에 따른 차별, 해소되지 않는 결함과 근본적 권리 침해 가능성 등 규제의 배경이 된 연구 결과와 사례에 따르면 얼굴인식 기술의 위험성은 이미 편익을 넘어선 것으로 보입니다. 한국의 개인정보 보호법은 최근 개정을 통해 특별히 보호받아야 하는 민감정보로 얼굴인식 정보와 같은 생체인식 정보를 포함하게 되었지만, 수사기관과 기업이 이를 피해갈 우회로는 여전히 많은 상황입니다.

본 간담회는 수사기관 등 법 집행기관이 현재 어떠한 방식으로 얼굴인식 기술을 사용하고 있는지, 정보주체의 권리 침해 등 문제는 없는지 검토하고, 이에 대해 인권에 기반한 논의와 민주적 통제 방안을 고민해보고자 합니다.


  • 일시: 2020년 11월 25일(수) 오후 2시
  • 장소: 온라인 웨비나(ZOOM)
  • 사회: 이호중 (서강대학교 법학전문대학원 교수/사단법인 정보인권연구소 이사장)
  • 발제: 김민 (진보네트워크센터 정책활동가) , 장여경 (사단법인 정보인권연구소 상임이사)
  • 토론: 김하나 (해우 법률사무소 변호사), 이지은 (참여연대 공익법센터 간사)
  • 사전 참가 신청 링크 : https://forms.gle/tSB68BjDonH9xoFL7

 

  • 문의: 사단법인 정보인권연구소, 진보네트워크센터 02-774-4551
  • 주최: 사단법인 정보인권연구소, 진보네트워크센터

“행정기본법 제정안 제20조”에 대한 반대의견 국회 제출

인권사회단체, 인공지능 의한 결정을 행정 행위로 인정하는
“행정기본법 제정안 제20조”에 대한 반대의견 국회 제출

  • 행정기본법 제정안, ‘단순 행정자동화’와 ‘인공지능에 의한 결정’ 차이 고려치 않아

  • 인공지능 시스템에 대한 권리구제, 검증 및 사후관리 규정 마련 선행돼야

  1. 오늘(11/5) 민주사회를 위한 변호사모임 디지털정보위원회, 진보네트워크센터, 사단법인 정보인권연구소 등 3개 인권사회단체는 정부가 발의하여 현재 국회 법제사법위원회에 상정되어 있는 ‘행정기본법 제정안 제 20조’에 반대하는 의견서를 법사위에 제출했다.
  2. 행정기본법 제정안 제20조는 행정청에서 재량이 있는 처분을 제외한 모든 처분을 ‘자동화된 시스템’에 의해 할 수 있도록 허용하고 있다. 그러면서 명시적으로 ‘인공지능 기술을 적용한 시스템’을 ‘완전히 자동화된 시스템’에 포함시켜 역시 행정 ‘처분’으로 인정한다는 내용이 담겨있다. 단체들은 의견서에서 인공지능 처분에 대한 시민들의 절차적 권리와 구제의 권리를 보장하고 있지 않은 상황에서 그 위험성을 오롯이 시민이 부담하게 하는 위 제20조의 도입을 재고할 것을 요구하고 사회적 의견 수렴을 위한 국회 공청회를 요구하였다.
  3. 이 조항은 단순 행정자동화 시스템과 인공지능 기술 적용 시스템의 차이를 구분하지 않고 있다. 단순 행정자동화 결정은 의사 결정 구조가 단순하고 구조적이기에 결과 예측 및 오류 수정이 비교적 수월하다(예 : 과속 단속 카메라에 의한 단속, 컴퓨터 추첨에 따른 학교 배정 등). 그러나 인공지능 알고리즘에 의한 자동 결정은 비정형적이며 알고리즘에 따라 매우 복잡한 구조적 특성을 지니기 때문에 결과의 예측이 현저히 어렵다. 인공지능을 구성하는 알고리즘의 안전성, 적법성이 확보되지 않은 상태에서 단순 행정자동화와 인공지능에 의한 결정을 동일한 ‘처분’으로 규정한다면 인공지능에 의한 자동화 결정의 타당성을 둘러싼 논란이 계속될 것이다.
  4. 대상조항은 자동화된 시스템에 의한 처분을 원칙적으로 기속행위에만 허용하고 있지만, 오늘날 행정의 다양성, 복잡성으로 인하여 어떤 행정행위가 기속행위인지 재량행위인지 여부를 구분하는 기준 또한 명확하지 않은 상황이다. 공무원의 형식적 개입, 알고리즘에 대한 설명의 불가능성 등 인공지능의 특성을 고려했을 때, 위법한 인공지능에 의한 처분에 당사자가  불복하는 것이 사실상 어려울 수 있다는 점이 매우 우려스럽다.
  5. 헌법상 적법절차의 원칙은 행정절차에도 적용되기 때문에 처분의 당사자인 시민은 자동화된 처분이더라도 그 처분이 어떠한 경위로 이루어진 것인지 설명을 받을 수 있는 권리를 가져야 한다. 또한 자동화된 처분으로 피해를 입은 경우 적절한 구제를 받을 권리를 가진다. 그러나 인공지능에 의한 처분은 시민들의 위 설명을 받을 수 있는 권리와 구제를 받을 권리를 광범위하게 제약할 수 있다. 인공지능에 의한 처분의 경우 현재 행정절차법상에서는 사실상 처분의 사전통지, 이의권 등을 행사하기 어렵기 때문이다.
  6. 인공지능 시스템에서 가장 중요한 알고리즘을 검증하고 평가하도록 규정하는 법체계는 부재한 상태이다. 이러한 상황에서 인공지능에 의한 처분을 전면적으로 허용하는 것은 섣부른 정책의 추진이자 인공지능에 의해 발생할 위험을 과소평가하는 것으로서, 대상조항은 삭제되어야 마땅하다.  끝.

행정기본법안 제20조에 대한 의견

2020년 11월 5일

민주사회를 위한 변호사모임 디지털정보위원회,
진보네트워크센터, 사단법인 정보인권연구소

  1. 의견 제출의 취지

행정기본법안(이하 ‘법안’이라 합니다)은 2020. 7. 7. 국무회의에서 의결된 이후 현재 국회 법제사법위원회에 상정되어 있습니다. 법안은 복잡한 행정원칙의 원칙과 기준을 제시하는 기본법 체계를 구축하고자 한다는 점에서 의의가 있습니다. 그러나 처분을 단순 자동 시스템 뿐만 아니라 인공지능시스템에 의해서도 할 수 있도록 허용한 법안 제20조는 제정대상에서 제외되는 것이 마땅합니다. 인공지능시스템에 의한 처분으로 발생할 수 있는 다양한 문제에 대한 충분한 검토와 논의가 이루어지지 않았기 때문입니다.

  1. 문제가 되는 조항

우리 단체들이 문제가 있다고 판단하고 있는 조항은 법안 제20조(이하 ‘대상조항’이라 합니다)입니다. 대상조항은 행정청이 재량이 있는 처분을 제외한 모든 처분을 ‘자동화된 시스템’에 의해 할 수 있도록 허용하고 있습니다. 그리고 대상조항은 명시적으로 ‘인공지능 기술을 적용한 시스템’을 ‘자동화된 시스템’에 포함시키고 있습니다.

 

제20조(자동적 처분) 행정청은 법령으로 정하는 바에 따라 완전히 자동화된 시스템(인공지능 기술을 적용한 시스템을 포함한다)으로 처분을 할 수 있다. 다만, 처분에 재량이 있는 경우는 제외한다.

 

  1. 제정안의 문제점

가. 단순 행정자동화 시스템과 인공지능 기술 적용 시스템의 차이를 반영하지 않았음 

대상조항은 완전히 ‘자동화된 시스템’에 ‘인공지능 기술을 적용한 시스템’이 포함된다고 규정하고 있습니다. 즉 대상조항이 규정하는 ‘완전히 자동화된 시스템’은 ‘단순 행정자동화 결정’만을 의미하는 것이 아니라 ‘인공지능에 의한 자동화 결정’까지도 포함하는 자동화 결정을 의미합니다. 그러나 단순 행정자동화 결정과 인공지능에 의한 자동화 결정은 그 구조의 복잡성, 결과예측가능성 등 여러측면에서 본질적 차이가 존재하기 때문에 구분이 필요합니다. 

단순 행정자동화 결정은 의사결정 구조가 정형적이고 단순하며, 그 결과가 비교적 예측 가능합니다(예: 과속단속카메라에 의한 과속단속, 컴퓨터추첨에 따른 학교배정 등). 반면 인공지능에 의한 자동화 결정은 비정형적이고, 구조화된 틀에 들어맞지 않는 사안을 알고리즘을 통해 처리하는 방식으로 이루어집니다. 따라서 인공지능에 의한 자동화 결정은 단순  행정자동화 결정에 비해 결과의 예측이 현저히 어렵다는 차이가 존재합니다. 

인공지능을 이용할 경우 행정의 효율성은 높아질 수 있습니다. 그러나 인공지능을 구성하는 알고리즘의 안전성, 적법성이 확보되지 않는다면 인공지능에 의한 자동화 결정의 타당성은 논란에서 자유로울 수 없습니다. 그리고 무엇보다 우리나라는 인공지능에 의한 행정에 대한 논의가 제대로 이루어지지 않았고, 이를 받아들일 준비가 미비한 상황입니다. 

나. 재량권 행사가 필요한 처분이 기속행위로 변형되어 이루어질 우려가 있음

대상조항은 자동화된 시스템에 의한 처분이 원칙적으로 기속행위에 해당하는 경우에만 허용된다는 한계를 설정하고 있습니다. 그러나 오늘날 행정의 다양성, 복잡성으로 인하여 어떤 행정행위가 기속행위인지 재량행위인지 여부를 구분하는 기준은 명확하지 않습니다. 

대법원 또한 기속행위와 재량행위의 구별기준에 대하여  “처분의 근거 법규정의 형식·체제·문언상 표현을 우선적으로 고려하고, 불분명한 경우 행정분야의 주된 목적·특성, 당해 행위의 성질·유형 등을 고려하여 개별적으로 판단하여야 한다”라고 판시하며(대법원 2018. 10. 4. 선고 2014두37702 판결 등), 특정 행정행위가 재량행위인지 기속행위인지 여부는 사법부의 판단을 통해 최종적으로 확인될 수 있다는 입장을 가지고 있습니다.

이처럼 재량행위와 기속행위의 명확한 구별이 어려운 상황에서 대상조항과 같이 인공지능에 의한 자동결정의 방식으로 이루어지는 자동화된 처분(이하 ‘인공지능에 의한 처분’)을 전면적으로 허용하는 경우, 재량권 행사가 필요한 처분도 인공지능에 의해 기속행위로 변형되어 이루어질 우려가 있습니다. 그리고 재량권 행사가 필요한 처분이 기속행위로 변형되어 이루어지면 이는 원칙적으로 ‘재량권을 불행사한 처분’으로서 위법합니다(대법원 2019. 7. 11. 선고 2017두38874 판결 등 참조). 

즉 인공지능에 의한 처분의 활성화는 결국 처분에 있어 행정청의 재량권 불행사를 조장할 수 있는 것입니다. 그러나 현재로서는 이러한 위법한 인공지능에 의한 처분에 당사자가  불복하는 것은 사실상 어려울 것으로 보입니다. 공무원의 형식적 개입, 알고리즘에 대한 설명의 불가능성 등 인공지능의 특성을 고려했을 때, 재량권의 불행사를 입증하기 어려울 수 있고, 책임의 주체도 불분명하기 때문입니다.

다. 독일 연방행정절차법 제24조 및 제35조의a 규정의 진정한 의미

법제처는 대상조항의 제정과 관련한 참고자료로 독일 연방행정절차법 제24조(직권조사의원칙)와 제35조의a를 제시하고 있습니다. 하지만 위 조항들은 오히려 대상조항이 부당하게 제정되었다는 점을 보여주는 자료입니다. 

독일 연방행정절차법 제24조는 행정 자동화 방식으로 행정행위를 함에 있어 그 행정행위로 인한 침해를 방지하기 위해 조사되지 않은 참여자의 사실 진술을 고려할 의무를 행정청이 부담하도록 규정하고 있습니다.

 

독일 연방행정절차법

제24조(직권조사원칙) ① 행정청은 직권으로 사안(사실관계)를 조사한다. 행정청은 조사의 방법 및 범위를 정한다 ; 행정청은 참여자의 제시와 증거신청에 구속되지 아니한다. 행정청이 행정행위를 발급하기 위하여 자동장치를 설치한 경우에는, 개별 경우를 위하여 행정청은 자동절차에서 조사되지 않은 참여자의 중요한 사실진술을 고려하여야 한다.

행정 자동화 방식에 의한 처분은 일률적으로 이루어지기 때문에, 사안의 개별 특수성이 반영되지 않는 문제가 있습니다. 독일 연방행정절차법 제24조는 위와 같은 문제를 방지하기 위해 행정청에게 참여자의 중요한 사실진술을 고려할 의무를 부담하도록 규정하고 있는 것입니다. 그러나 대상조항은 사안의 개별 특수성을 반영하지 못하는 자동화처분의 문제를 대비하기 위한 내용을 일체 규정하고 있지 않습니다. 법안에서도 위 문제를 대비하기 위한 조항을 별도로 규정하고 있지 않습니다.

 

독일 연방행정절차법

제35조의a 행정행위의 완전히 자동화된 발급 법규정에 의해 허용되고, 재량이나 판단여지가 존재하지 아니하면 행정행위는 자동장치에 의해 완전히 발해질 수 있다.

독일 연방행정절차법 제35조의a 또한 대상조항과 큰 차이를 보입니다. 독일연방법 제35조의a가 규정하는 자동장치에는 인공지능 기반 시스템이 포함되어 있지 않기 때문입니다.

학계에서는 독일 연방행정절차법 제35조의a를 완전 자동적 행정을 합법화하는 규정으로 이해하지 않습니다. 학계는 독일 연방행정절차법 제35조의a를 오히려  자동적 행정을 매우 제한적으로 허용하는 규정으로 이해하며, 인공지능에 기반한 자동행정이 허용되지 않는다는 입장을 가지고 있습니다.

독일 행정절차법에서 규정한 완전 자동적 행정행위에 관한 규정은 행정기본법 제20조 인공지능 알고리즘을 활용한 자동적 행정결정에 적용하기에 한계가 있습니다. 독일의 규정은 완전히 자동화된 시스템에 대하여 단순, 반복적인 ‘기속행위’에 적용될 수 있음을 규정한 것이고, 우리의 행정기본법 제20조는 완전히 자동화된 시스템을 인공지능 시스템까지 포함한 것으로 규정하고 있어 향후 적용될 수 있는 분야의 확장성이 매우 넓어 불확실성이 매우 큽니다.

라. 인공지능에 의한 처분으로 인한 적법절차의 원칙 침해 우려 

인공지능에 의한 자동화 결정의 경우, 알고리즘이 근거 법률의 목적과 내용을 제대로 구현하지 못해 잘못된 처분을 할 가능성을 배제할 수 없습니다. 이 경우 해당 처분은 시민들의 재산권, 신체의 자유 등 기본권을 부당히 제약하고 차별을 야기할 수 있습니다.  

그러나 인공지능에 의한 처분에 있어 공무원의 의사 개입은 사실상 불가능하거나 형식적일 수 밖에 없기 때문에 시민들은 자신에 대한 인공지능에 의한 처분이 부당하다고 생각하여도 공무원으로부터 적절한 설명을 들을 수 없게됩니다. 이에따라  부당한 인공지능에 의한 처분의 책임 소재도 희석될 우려가 있습니다. 

헌법재판소는 “헌법상 적법절차의 원칙은 형사절차뿐만 아니라 입법과 행정 등 국가의 ‘모든’ 공권력 행사에 적용된다”고 보았습니다(헌법재판소 1992. 12. 24 선고 92헌가8 결정 등). 대법원 역시 “헌법상 적법절차의 원칙은 형사소송절차 뿐만아니라 국민에게 부담을 주는 행정작용에서도 준수되어야 한다”고 판시하고 있습니다(대법원 2012. 10. 18 선고  2010두1234 판결). 

이처럼 헌법상 적법절차의 원칙은 행정절차에도 적용되기 때문에 처분의 당사자인 시민은 자동화된 처분이더라도 그 처분이 어떠한 경위로 이루어진 것인지 설명을 받을 수 있는 권리를 가져야 합니다. 또한 자동화된 처분으로 피해를 입은 경우 적절한 구제를 받을 권리를 가집니다. 그러나 인공지능에 의한 처분은 시민들의 위 설명을 받을 수 있는 권리와 구제를 받을 권리를 광범위하게 제약할 수 있습니다. 인공지능에 의한 처분의 경우 현재 행정절차법상에서는 사실상 처분의 사전통지, 이의권 등을 행사하기 어렵기 때문입니다. 

과학기술 발전에 따라 행정의 모든 영역에서 전문성과 복잡성이 커지고 있기 때문에  무엇이 최선의 결정인가 보다는 어떠한 논의과정을 거쳐 해결책을 찾을 것인가에 대한 절차적 보장이 중요합니다. 인공지능 시스템이 개인의 권리에 중대한 영향을 미치는 행정적 의사결정에 사용될 때에도 적법절차의 원칙은 준수되어야 합니다. 마땅히 그 의사결정에 대해서 당사자들이 근거를 밝히도록 요구하고, 설명을 들을 수 있어야 합니다. 

그러나 인공지능을 구성하는 알고리즘을 어떻게 설명할 것인지, 인공지능에 의한 처분으로 발생하는 손해의 책임을 누구에게 귀속시킬 것인지 등에 관한 사회적 논의가 심도있게 이루어지지 않았고 관련 법체계 역시 구축되지 않았습니다. 이러한 상황에서 대상조항에 따라 인공지능에 의한 처분을 전면 허용한다면, 시민들이 행정에 종속되거나 객체적 지위에 머물고, 행정과정에서 자신들의 권익을 보호할 수 없게 되는 등 헌법이 보장하고 있는 적법절차의 원칙이 심각하게 훼손당할 것입니다. 

마. 인공지능 시스템을 검증하고 평가할 수 있는 별도의 법체계 마련이 필요

영국 옥스포드 인사이트(Oxford Insights)가 발표한 2019년 정부 AI 준비지수(2019 Government AI Readiness Index)에서 우리나라는 26위라는 낮은 순위로 평가되었습니다. 위 준비지수는 당사국이 공공 서비스 제공에 인공지능를 사용할 준비가 됐는지를 평가할 수 있는 지표입니다. 영국 옥스포드 인사이트가 위와 같은 평가를 한 이유는 인공지능 시스템이 윤리 및 안전에 대한 충분한 관리 없이 공공분야에 시행되는 것이 매우 위험할 수 있기 때문입니다.

위 지표가 절대적인 것은 아니지만, 우리나라가 상당히 낮은 순위로 평가되었다는 사실을 엄중하게 받아들일 필요가 있습니다. 이는 공공영역에 인공지능 시스템을 도입하는 것에 대한 철저한 점검이 필요하다는 점을 시사합니다.

행정처분의 영역에서 인공지능의 활용은 구체화된 행정입법을 알고리즘에 구현하는 방식으로 이루어집니다. 이때 알고리즘에 행정입법의 취지가 충분하고 정당하게 반영되었는지를 검증하고 사후적으로 관리하는 것이 필요합니다. 뿐만 아니라 알고리즘을 투명하고, 보편적 수준에서 이해가능한 방법으로 공개하여야 하고, 헌법적 가치 또한 충분히 반영되었는지를 평가할 수 있어야 합니다. 따라서 인공지능의 앞서 인공지능 시스템을 포함한 행정자동화 시스템을 주기적으로 점검하고, 점검 결과에 따라 시스템을 개선하는 제도의 구축이 선행되어야 합니다.

현재 인공지능에 대해서는 지능정보사회 윤리 등을 규정한 지능정보화기본법(2020. 12. 10. 시행예정) 뿐이고, 인공지능 시스템에서 가장 중요한 알고리즘을 검증하고 평가하도록 규정하는 법체계는 부재한 상태입니다. 이러한 상황에서 대상조항과 같이 인공지능에 의한 처분을 전면적으로 허용하는 것은 섣부른 정책의 추진이자 인공지능에 의해 발생할 위험을 과소평가하는 것입니다.

인공지능 도입에 앞서 어떠한 시스템이 구축되어야 하는지와 관련하여서는 20대 국회에서 발의되었던 전자정부법 개정안(박선숙 의원 대표발의)을 참고해 볼 수 있습니다. 위 개정안은 행정기관에게 자동화 시스템의 안정성·공정성·정확성 등을 주기적으로 점검하고, 그 결과에 따라 시스템을 개선할 의무를 부담하도록 규정했습니다. 또한, 위 개정안은 행정기관에게 인공지능을 사용한 ‘지능형 시스템’이 도출한 판단·결정·평가·자문 등 내용을 기록·보존하고, 시스템 관리를 위한 주기적 영향평가를 실시하도록 하는 내용도 규정하고 있었습니다. 그러나 위 개정안은  통과되지 못한 채 20대 국회의 임기만료로 폐기되었습니다. 

물론 위 개정안이 공공영역에 인공지능 시스템을 도입하는 것을 정당화할 수 있는 완벽한 법률안이라고는 볼 수는 없습니다. 그러나 위 개정안은 인공지능 기술을 공공영역에 맹목적으로 도입하려는 추세 속에서, 인공지능 시스템을 검증하고 평가할 수 있는 법체계를 구축하려 시도한 법률안이라는 점에서 큰 의미가 있습니다.

4. 결론

인공지능 시스템은 앞으로 여러 분야에 도입되어 활성화 될 것입니다. 인공지능 시스템에 대한 사회적 논의와 안전장치의 구축이 충분히 이루어지지 않았음에도 인공지능에 대한 맹목적 신뢰에 기반한 제도의 도입은 신중해야 합니다. 행정행위는 효율성을 중요하게 생각하는 민간분야와 달리 책임성과 공공성을 본질적 요소로 합니다. 그러나 인공지능에 의한 처분에 대한 시민들의 절차의 권리와 구제의 권리를 보장하기 위한 제도는 제대로 구축되어 있지 않고, 이에 대한 논의도 성숙하지 못한 상황입니다. 

대상조항이 실질적으로는 단순 행정 자동화 결정만을 허용하는 법적 근거로서 의미를 갖기 때문에 그 위험성이 크지 않다는 주장이 있을 수 있습니다. 그러나 대상조항이 ‘인공지능기술을 적용한 시스템’을 명시적으로 ‘자동화된 시스템’의 한 종류로 포함하고 있는 이상, 단순 행정 자동화 결정을 넘어 처분 전반이 인공지능에 의해 이루어질 위험성이 존재할 수밖에 없습니다. 그리고 인공지능에 의한 처분이 야기하는 위험은 오롯이 시민이 부담해야 합니다.

따라서 시민의 기본권에 직접 영향을 미치는 행정처분의 경우에는 공무원 등의 개입이 필수적이며, 안전장치가 마련되어야 하며, 명확한 규정이 필요합니다. 행정의 신속성, 효율성을 강조한다는 취지 아래 논의가 미성숙한 인공지능 시스템에 의한 처분을 허용하는 경우 예측할 수 없는 피해가 발생할 우려가 있다는 점을 간과해서는 안될 것입니다. 이에 우리 단체들은 법안의 제정에 있어 제20조의 도입을  재고해주실 것을 요청하는 취지로 현행 법안에 대해 반대의견을 개진합니다.

나아가 우리 단체들은 위 법안에 대한 공청회가 코로나19 상황으로 지난 3월 매우 제한적으로 이루어졌다는 점을 지적하고자 합니다. 인공지능에 의한 처분을 허용하는 것은 그 자체로 시민의 기본권에 중대한 영향을 미치는 정책을 도입하는 것으로 사회적 논의와 공론화 과정이 더욱 절실히 요구됩니다. 이에 우리 단체들은 법안에 대한 반대의견을 개진함과 동시에 귀 위원회에 대상조항에 관한 추가 공청회 개최 또한 요청합니다. 끝.

[PDF 보기] 20201105법제사법위_행정기본법안 의견서