인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 시민사회 선언

오늘 우리 120개 단체들은 인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 선언을 발표합니다.

인공지능은 이미 우리 생활에 널리 사용되고 있습니다. 검색, 자동 번역, 추천 알고리즘, 챗봇처럼 소비자들이 인터넷에서 만나는 수많은 서비스들 뿐 아니라 AI스피커, 가전, 자동차와 같은 제품들에도 인공지능이 탑재되어 있습니다. 일터에서는 인공지능이 업무 성과를 관리 및 평가하기 시작했으며 플랫폼 노동처럼 알고리즘으로 업무를 배치받고 지시받는 사람들이 많아지고 있습니다. 금융 서비스 뿐 아니라 생계에 많은 영향을 미치는 신용 평가나 대출, 보험의 요율이나 지급 여부 결정에도 인공지능이 관여하고 있습니다. 실업 급여 지급 결정이나 부정수급 탐지[1]와 같은 사회복지 업무도 인공지능으로 수행될 것으로 예측되고 있습니다. 경찰은 어느 지역이 범죄율이 높은지 예측하는 인공지능 치안활동을 전국적으로 시작하였으며[2], 과학기술정보통신부와 지방자치단체는 코로나 확진자와 접촉자를 추적하기 위하여 거리 CCTV에 얼굴인식을 도입하고 있습니다[3]. 이미 수많은 공공기관과 민간기업들이 채용절차에 <AI면접>이나 <AI서류평가> 등 인공지능 도구를 사용하고 있고[4], 군대도 <AI면접>을 통해 특기병을 결정한다고 합니다[5]. 인공지능 무기 또한 눈앞의 현실로 다가왔습니다[6].

인공지능의 안전과 인권 침해 문제

이처럼 인공지능은 서비스나 제품을 추천·제공하는 단계부터 노동, 금융, 사회복지, 치안, 군사 영역에서 사람을 평가하고 중대한 의사결정을 내리는 단계까지 나아가고 있습니다. 이는 소비자, 노동자, 시민의 인권과 안전에 중대한 영향을 미칠 것입니다. 특히 안전이 검증되지 않는 인공지능 제품이 일상생활에서 사용된다면 우리의 생명조차 위험에 처할 것입니다. 미국에서 운행 중인 자율주행차량들이 오작동으로 몇 차례 사망사고를 일으켰지만 그 책임 문제가 여전히 불분명합니다[7].

또 인공지능이 드러내는 편향성에 대하여 세계적으로 논란이 불거지고 있습니다. 온라인 챗봇이 공개 후 불과 몇시간 만에 인종주의자가 되었고[8], 많은 기관에서 사용되는 얼굴인식기술이 흑인 여성을 잘 식별하지 못하였습니다[9]. 인공지능은 채용지원자 중 여성을 선호하지 않았고, 흑인들의 재범 위험을 백인보다 2배 높다고 판단하였습니다[10]. 지난해 영국에서는 코로나로 인해 취소된 대학입학시험 대신 인공지능으로 성적을 부여하였다가 부유한 지역 학생이 높은 점수를 받고 가난한 지역 학생이 낮은 점수를 받은 것으로 드러나 큰 사회적 논란을 겪기도 했습니다[11].

이는 기존의 데이터셋으로 학습하여 미래를 예측하는 인공지능의 본질적인 특성에 따른 문제이기도 합니다. 업계에서는 인간에게도 편견이 있다며, 인공지능은 인간사회의 차별을 학습했을 뿐이라고 주장합니다. 실제로 우리는 인공지능 챗봇 이루다가 어떻게 여성, 장애인, 성소수자, 유색인종에 대한 편견과 혐오를 빠르게 배우고 재현하는지를 직접 목격하였습니다. 문제는 이러한 인공지능의 편향성이 사회적 통제 없이 가정에서, 학교에서, 직장에서 사용되는 제품과 시스템에 바로 적용된다면, 우리 사회에 이러한 편견과 혐오가 항구적이 될 것이라는 점입니다. 그리고 이러한 편견과 혐오에 기초한 차별은 우리 사회에서 더욱 취약한 사람들의 권리를 위협할 수밖에 없습니다.

사람을 보호하는 법제도와 보호장치 미비

그럼에도 인공지능으로 영향을 받는 당사자들이나 일반 국민은 인공지능의 도입, 운영, 결정에 대하여 발언과 참여 기회를 전혀 보장받고 있지 못합니다. <AI 채용>에서 불합격된 사람들은 본인이 어떻게 평가받고 채용 탈락으로 결정되었는지 알지 못합니다[12]. 공공기관들은 인공지능을 적용한 면접이나 서류평가가 공정한지, 면접대상의 외모나 사투리를 차별하지는 않는지 전혀 검증하지 않고 사용해 왔습니다. 플랫폼 기업의 불투명한 알고리즘은 노동자와 자영업자들에게 고통을 주고 있습니다. 포털 뉴스의 비밀 알고리즘은 공론장의 편향성에 영향을 미치고 있습니다[13]. 해외에서는 플랫폼 기업의 알고리즘이 선거와 민주주의에도 영향을 미쳤다는 경각심이 일고 있습니다[14].

세계 여러나라에서 인공지능 알고리즘의 공정성과 투명성에 대한 소송이 제기되었고, 법원은 인공지능의 불투명성에 도전하는 당사자들과 시민사회의 손을 들어 주었습니다. 2017년 폴란드 법원은 정부의 실업자 점수 알고리즘에 대하여 정보공개를 하도록 하였고[15], 미국 법원은 민간기업에서 조달한 교육청의 교사 평가 알고리즘에 대하여 투명성과 적법절차 부족을 이유로 운영을 중단시켰습니다[16]. 특히 미국 법원은 민간기업의 영업비밀과 국민의 헌법상 권리인 적법절차를 모두 충족하기 위해서는 공공기관의 중요한 의사결정에 비밀 알고리즘을 사용해서는 안된다고 설시하였습니다. 2020년에는 네덜란드 법원이 사회복지급여 부정수급 탐지 시스템에 대하여 투명성 부족과 개인정보보호법 위반을 이유로 운영을 중단하라는 내용의 판결을 내렸습니다[17].

한국 사회에서 알파고가 던진 충격 이후 인공지능의 놀라운 발전은 언론, 산업계, 학계, 정부와 국회에서 큰 관심을 받았습니다. 그러나 이러한 관심 대부분은 대체로 산업적 가치에만 초점을 맞추어 왔습니다. 기술이 어떻게 사람의 인권과 안전을 보장할 것이며 이 기술을 어떻게 민주적으로 통제할 것인지에 대한 문제는 진지하게 검토되지 않았습니다. 나아가 인공지능 기술이 사람들의 인권과 안전에 영향을 미치는 것이 분명함에도, 정작 영향을 받는 사람들이 의견을 개진할 수 있는 공간은 전무한 상황입니다.

인공지능도 인권과 법률을 준수해야 합니다.

최근 인공지능 챗봇 이루다 개발사의 개인정보 보호법 위반 사건에서 확인하였듯이, 인공지능이라고 하여 인권과 법률 준수 의무에서 예외가 될 수는 없습니다. 모든 인공지능 시스템은 헌법과 관련 법률에 따라 인권 침해와 차별을 금지하고, 소비자의 안전과 권리를 보호하며, 노동자와 노동권을 보호하는 현행 법률을 준수해야 합니다.

인공지능 챗봇 이루다 사건은 우리에게 많은 충격과 분노를 주었습니다. 인공지능 서비스가 우리 사회의 편견과 혐오를 재생산하였을 뿐 아니라 그 개발 과정에서 개인정보를 소홀하게 취급하여 이용자들의 신뢰를 배반하였습니다. 결국 지난 4월 28일 개인정보보호위원회는 이루다 개발사 ㈜스캐터랩에 총 1억여 원의 과징금과 과태료를 부과하였습니다. ㈜스캐터랩은 과거에 운영했던 서비스를 통해 수집한 약 60만 명에 달하는 이용자의 내밀한 카카오톡 대화문장 94억여 건을 제대로 된 보호조치를 취하지 않고 자사 다른 서비스인 인공지능 챗봇 서비스 ‘이루다’ 의 개발과 운영에 이용한 것으로 확인되었습니다. 특히 만14세 미만 아동의 개인정보를 무단으로 이용한 규모가 20만 명에 달했습니다.

그런데 이루다 조사와 조치 결과를 두고 일부 업계는 인공지능 상품과 서비스 개발에 지장을 초래하고 있다고 볼멘 소리를 내고 있습니다. 이는 일반 소비자와 이용자들의 생각과 현격한 차이가 있습니다. 우리는 오히려 이루다 사건에서 이용자가 믿고 맡긴 민감한 개인정보를 기업이 이용자가 모르는 다른 상품 개발에 무단으로 마구 사용하거나 판매할 수 있는 현실을 보았습니다. 개인정보 추가이용과 가명정보의 이용을 원하는 산업계의 요구에 따라 2020년 이미 개인정보보호법과 그 시행령이 편향적으로 개정되었음에도, 그조차 지키지 못하겠다는 업계의 엄살은 도저히 납득하기 어렵습니다. 이런 논란을 지켜본 소비자와 이용자들은 인공지능 제품과 서비스를 충분히 믿고 안심하며 이용하기가 어렵습니다. 공공기관과 민간기업의 모든 인공지능 제품과 시스템들이 부족하나마 개인정보 보호법을 준수하고 있다는 신뢰가 바탕이 되어야 시민들 또한 그 혜택을 마음 놓고 누릴 수 있을 것입니다.

무엇보다 인공지능이 우리 사회의 편견과 혐오를 재생산하는 것을 이대로 방치할 수 없습니다. 인공지능 제품과 서비스 역시 고용과 서비스 등에서 성별, 장애, 연령, 인종, 지역 등으로부터 차별을 금지하는 현행 법률을 준수하여야 합니다. 인공지능의 도입이 확산될수록 그로 인한 차별에 대한 우려 또한 커지고 있는 만큼, 효과적이고 포괄적인 차별금지법의 제정도 이루어져야 할 것입니다.

더불어 인공지능 제품과 시스템들은 헌법과 관련 법률에서 보호하고 있는 표현의 자유, 집회시위의 권리 등 인권을 침해해서는 안 됩니다. 제품의 안전과 소비자의 권리를 보호하는 현행 법률들과 노동자와 노동권을 보호하는 현행 법률 또한 준수해야 합니다.

인공지능을 규율하는 법과 제도가 시급히 마련되어야 합니다.

이런 상황에서 네덜란드 암스테르담과 핀란드 헬싱키시[18], 프랑스 앙티브시[19] 등 세계 여러나라 지방자치단체들이 인공지능 알고리즘과 관련한 사항을 시민들에게 모범적으로 공개하고 의견을 수렴하고 있다는 사실은 시사하는 바가 매우 큽니다. 나아가 여러나라 정부가 인공지능을 규율하는 법제도를 도입하였거나 도입을 준비 중입니다. 캐나다 정부는 2019년부터 공공기관이 도입·운영하는 인공지능 의사결정 시스템에 대하여 영향평가 후 위험수준별로 정보공개, 인적 개입, 설명, 검사 등의 의무를 부과하는 훈령을 시행 중이며[20], 뉴질랜드 정부는 2020년부터 공공기관이 도입·운영하는 인공지능 알고리즘에 대하여 영향평가 후 위험수준별로 규제하고 있습니다[21]. 유럽연합 집행위원회는 최근 유럽시민이 신뢰할 수 있는 인공지능 규제법안을 유럽의회에 발의하였습니다[22].

인공지능을 이용한 자동화는 제품과 시스템의 효율성과 예측성을 크게 높일 수 있고 인간이 기존에 수행할 수 없었던 업무 영역을 확장시켰습니다. 그러나 인공지능이 사회적으로 적절히 통제되지 않는다면 그 편향성과 위험성이 사람의 인권과 안전에 중대한 영향을 미칠 것입니다. 이용자와 소비자는 그 의사결정 사유를 설명할 수도 없고, 검증할 수도 없고, 참여할 수도 없는 인공지능을 신뢰하지 않게 될 것입니다. 소비자, 노동자, 시민이 신뢰하지 못하는 인공지능에 대해서는 사회적 수용성 및 효용성 또한 감소할 수밖에 없습니다.

최근 인공지능 규범과 관련한 여러 국제문헌들은 인공지능을 규율하는 새로운 법률이 필요하다고 강조하고 있습니다. 인공지능 제품과 시스템을 국가적으로 감독하고, 인공지능 시스템에 대한 정보공개와 참여로써 그 투명성과 민주성을 보장하며, 위험한 인공지능을 제도적으로 통제하는 한편, 피해를 입거나 인권을 침해당한 사람에 대하여 권리구제를 보장해야 한다는 것입니다.

또한 인공지능의 무기화가 빠르게 진행되고 있는 현실에서 “인공지능이 인간의 통제없이 개별 표적을 선별하고, 공격하는 자율살상무기(LAWS)”를 규율 할 수 있는 법적, 제도적 장치가 선제적으로 마련되어야 합니다. 이는 전쟁의 비인간화와 비인간성이 초래하는 인류 존엄성의 훼손을 막기 위해 필요한 조치입니다.

이에 우리 시민사회는 인공지능 규율법의 마련을 촉구하며, 이 법률과 제도로써 ①인공지능 국가 감독 체계 마련 ②정보 공개와 참여 ③인공지능 평가 및 위험성 통제 ④권리구제 절차 보장을 요구합니다. 인공지능 역시 다른 모든 제품 및 기술 시스템과 마찬가지로 법률을 준수하고, 인권을 침해하지 않으며, 안전을 보장하여야 하고, 국가와 지방자치단체, 공공기관은 물론 기업은 이를 위한 조치를 취해야 할 의무가 있습니다. 딥러닝 등 특정한 기술적 특성이나 기업자율적인 윤리가 이런 의무를 회피하는 이유가 될 수는 없습니다.

 

【참고】 유엔 사무총장(2020)[23]

(b) 국가는 민간부문 활동에 관한 조치를 포함한 입법 조치를 취해야 할 의무를 상기하고 이를 준수해야 한다. 이를 통해 신기술은 모든 사람이 경제·사회·문화적 권리를 비롯한 인권을 완전히 향유하고 인권에 미치는 부작용을 방지하는 데 기여할 수 있을 것이다.

(h) 신기술이 사용되는 상황에서 책임을 완전하게 보장하는 적절한 법률체계와 절차방법이 마련되어야 한다. 이를 위해 국내 법제도의 공백을 검토 및 평가하고, 필요한 감독 체제를 수립하고, 신기술로 인한 피해에 대해 사람이 이용할 수 있는 구제 수단이 구비되어야 한다.

 

【참고】 유럽 기본권청(2020)[24]

인공지능에 대해 새로운 정책이나 새로운 입법을 도입할 때 입법자와 국가들은 ... 모든 기본권이 존중될 수 있도록 보장해야 한다. 특정한 기본권 보호조치는 관련 정책과 법률을 수반할 필요가 있다 … 인공지능 개발자와 사용자 모두를 기본권에 대한 자의적인 간섭으로부터 효과적으로 보호하고 법적 확실성을 갖추기 위해서 관련 안전조치가 법으로 규정될 필요가 있다. 인공지능의 개발과 사용에 있어 기본권을 지키고 보호하기 위한 자율적인 제도들도 추가적으로 권리 침해를 완화하는데 도움이 될 수 있다. 입법자가 인공지능 법의 범위를 설정할 때는, 법적 명확성의 최소 요건, 즉 법치주의 원칙 및 기본권 보장의 전제 조건에 충분한 주의를 기울여야 한다.

 

인공지능 제품과 시스템은 국가적으로 감독되어야 합니다.

최근 정부는 과학기술정보통신부/4차산업혁명위원회 등 산업진흥 부처/기구가 인공지능 정책을 주도하고 있으며 관련 입법 또한 빠른 속도로 추진되고 있습니다[25]. 그러나 인공지능으로 사람에 대한 의사결정에까지 이르도록 하면서 그로부터 사람을 보호하기 위한 조건이나 절차에 대한 논의는 충분히 이루어지지 못하였으며, 이는 과학기술정보통신부 등이 주도하는 인공지능 정책이 산업계의 요구로 점철되어 있는 데 따른 결과입니다.

반면 다른 나라의 경우 산업관련 부처가 인공지능 정책에 관여하더라도 부분적이거나 기술과 관련한 역할에 그치고 있습니다. 이들 국가에서 국민을 위해 인공지능을 감독하는 역할은 주로 시장감독기구, 국가인권기구 또는 평등기구, 개인정보보호감독기관에서 수행하고 있습니다. 이 기관들은 인공지능 제품과 시스템으로부터 소비자 보호, 인권 침해 구제, 차별 금지, 개인정보 보호 등을 소관하고 있습니다.

사람의 인권과 안전을 보장하고 권리구제의 책무가 있는 국가는 인공지능 국가 감독 체계를 수립하고, 여기에 공정거래위원회, 국가인권위원회, 개인정보보호위원회가 반드시 참여하도록 해야 합니다.

인공지능 국가 감독 체계는 인공지능에 대하여 사전적으로나 사후적으로 감독 권한을 행사하고, 진정 사건을 조사하고 피해자의 권리를 구제할 수 있는 충분한 권한과 자원을 구비해야 하며, 감독대상이 되는 인공지능 제품과 서비스의 경우 자료와 데이터를 보관하도록 의무화하여 그 설명과 조사가 가능하도록 하여야 합니다.

 

【참고】 유럽평의회 인권위원장(2019)[26]

각국은 공공기관과 민간기업이 개발, 도입, 사용하는 인공지능 시스템의 인권 준수에 대한 독립적이고 효과적인 감독을 위해 입법 체계를 수립해야 한다. 이 입법 체계는 상호협력하는 행정적, 사법적, 준사법적 또는 의회의 감독기구들의 조합으로 구성된 구조를 포함할 수 있다. 각국은 적절한 경우 기존 국가인권기구에 인공지능 시스템의 인권 준수에 대해 독립적이고 효과적인 감독 역할을 수행하는 권한의 부여를 검토해야 한다.

감독기구는 인공지능 시스템을 개발, 도입 및 기타 사용하는 공공기관과 민간기업들로부터 독립적이어야 하며 감독기능을 수행하기에 적절하고 충분한 분야간 전문지식, 역량 및 자원을 구비해야 한다.

독립적인 감독기구는 인공지능 시스템의 인권 준수를 능동적으로 조사 및 모니터링하고 영향을 받은 개인들로부터 진정을 접수, 처리하며 인공지능 시스템의 성능과 기술 개발에 대한 주기적인 검토를 보다 일반적으로 실시해야 한다. 감독기구는 인권 침해 발생의 위험성을 포착한 상황에 개입할 수 있는 권한을 보유해야 한다. 감독기구는 또한 정기적으로 의회에 보고하고 활동에 대한 보고서를 발표해야 한다.

공공기관과 민간기업들은 감독기구가 인공지능 시스템의 효과적인 감독에 필요한 모든 정보를 요청할 때 이를 제공해야 하고 이들에 정기적으로 보고해야 한다. 또한 인공지능 시스템이 인권에 미친 영향과 관련해 감독기구의 권고를 이행 해야 한다. 또한 감독 절차는 투명해야 하며 적절한 공공 조사의 대상이 될 수 있어야 하고 감독기구의 결정은 이의제기 또는 독립 심사의 대상이 될 수 있어야 한다.

 

【참고】 유럽 기본권청(2020)

국가는 인공지능 시스템이 기본권에 미치는 부정적인 영향을 감독하고, 필요한 경우 이를 실질적으로 해결할 수 있는 효과적인 책임 시스템을 구축해야 한다 … 인공지능 시스템이 기본권에 미치는 영향을 평가할 수 있도록 충분한 정보를 제공하도록 요구하는 법적 의무도 포함될 수 있다 … 국가는 인공지능 사용 시 기본권을 보호하기 위해 개인정보 보호 기관, 평등 기구, 국가 인권 기구, 옴부즈 기관 및 소비자 보호기관 등 기존의 감독 전문 조직을 더 잘 활용해야 한다. … 이들 기관들이 충분한 자원, 권한 및 중요한 전문지식을 갖추어 기본권 침해를 예방 및 평가하고 자신의 기본권이 인공지능에 의해 영향을 받는 사람들을 실질적으로 도울 수 있어야 한다.

 

인공지능 정책은 소비자, 노동자, 시민에게 투명하게 공개되고 그 참여가 보장되어야 합니다.

인공지능 제품과 시스템의 사용은 그 소비자, 노동자, 시민에게 위험하거나 중대한 영향을 미칠 수 있습니다. 따라서 이 제품과 시스템을 개발, 도입하고 의사결정에 사용하는 공공기관과 민간기업은 그 소비자나 이용자에게 모든 인공지능 기능과 그 의미에 대하여 이해할 수 있는 형태로 공개하고 가능한 한 당사자의 선택권을 보장해야 합니다.

특히 정보공개의 의무를 지고 있는 공공기관의 경우 그 인공지능 시스템 운영의 담당자와 책임자에 대한 정보뿐 아니라, 훈련 데이터셋과 처리 방법에 대한 정보, 개인정보 보호와 차별 방지를 위한 조치에 대한 정보, 인적 감독에 대한 정보, 그 기능의 영향력과 위험성에 대한 정보를 공개하여야 마땅합니다.

이 권리는 공공기관이 민간에서 조달한 시스템이나 서비스를 사용하는 경우에도 똑같이 보장되어야 합니다. 기업의 영업비밀 보호가 공공기관의 투명성 의무를 회피하는 조건이 되어서는 안되며, 국민 앞에 투명하게 공개할 수 없는 민간 시스템을 공공기관이 도입해서는 안 될 것입니다. 더불어 인공지능 시스템의 공공조달에 대해서는 위험성을 평가하고 통제하는 절차가 마련되어야 하며 그 평가 내용 또한 공개되어야 합니다.

나아가 공공기관의 경우 인공지능 시스템의 운영으로 영향을 받는 소비자, 노동자, 시민 등 모든 이해당사자들이 참여할 수 있고 그 의견을 수렴하는 공청회를 사전에 실시하는 것이 필요합니다.

 

【참고】 유엔 사무총장(2020)

신기술의 개발 및 도입에 관한 의사결정에 모든 관련 이해당사자의 참여를 보장하고, 특히 공공부문에서 인공지능이 지원하는 의사결정에 대하여 적절한 설명가능성이 보장될 필요가 있다.

 

【참고】 캐나다 정부 훈령 <자동화된 의사결정에 대한 지침>(2019)

6.2. 투명성

(의사결정 전 공지)

6.2.1. 해당 의사결정이 부록 C에 규정된 바대로 자동화된 의사결정 시스템에 의해 전체 또는 부분적으로 수행된다는 내용을 관련 웹사이트에 공지한다.

6.2.2. <Canada.ca 컨텐츠 스타일 가이드>에 부합하는 뚜렷하고 쉬운 용어를 이용하여 공지한다.

(의사결정 후 설명)

6.2.3. 부록 C에 규정된 대로 결정이 내려진 방법과 이유에 대해 영향을 받는 개인들에게 이해가능하게 설명한다.

 

인공지능의 위험성이 제도적으로 평가되고 통제되어야 합니다.

대다수 인공지능 제품과 시스템은 소비자, 노동자, 시민에게 위험하지 않을 수 있습니다. 그러나 어떤 인공지능은 개인이나 공동체의 권리나 안전에 영향을 미칠 수 있습니다. 영향이 미치는 범위는 협소하고 미미한 수준에 그칠 수 있지만 때로는 광범위하거나 심각한 데 이를 수 있습니다. 그 빈도 또한 일시적일 수 있지만 준영구적으로 발생할 수도 있습니다.

모든 인공지능 제품과 시스템은 개인정보 보호법, 제조물책임법, 소비자관련법, 노동관련법 등 현행 법률을 준수해야 합니다. 여기에 더하여 위험한 인공지능은 제도적으로 관리되어야 하며, 인공지능의 위험성은 생애주기별로 평가되어 그 위험성을 완화하기 위한 조치가 취해져야 합니다.

의료, 운송, 에너지, 금융 및 공공부문에서 인권에 법적 또는 상당한 영향을 미치는 경우, 사람의 부상·사망이나 상당한 물질적·비물질적 손상을 초래하는 경우, 채용과 업무관리 등 노동권과 입점업체 배정에 영향을 미치는 경우, 소비자권리에 영향을 미치는 경우, 원격으로 생체를 인식하거나 침입적으로 감시하는 인공지능은 고위험으로 보아야 할 것입니다. 이러한 고위험 인공지능에 해당할 경우 그 훈련 데이터셋은 편향성 방지와 안전성을 보장하는 조치를 사전과 사후에 취해야 하고, 감독기관의 조사나 피해자 권리구제시 검증이 가능하도록 인공지능 시스템 생애주기별 데이터와 방법론을 문서화, 기록, 보존해야 하며, 필요한 경우 인적 개입을 의무화해야 합니다. 공공기관의 모든 인공지능 시스템과 민간기업의 고위험 인공지능 시스템은 국가기관에 등록하여 그 의무를 준수하는지 국가적으로 관리해야 합니다.

사람의 안전과 생계, 인권에 대하여 명백한 위험을 야기하는 어떤 인공지능 시스템은 금지되어야 합니다. 실시간으로 거리에서 불특정다수의 얼굴을 인식하여 추적하는 시스템은 원칙적으로 금지되어야 합니다. 경찰 등 국가기관이 전국민의 얼굴을 인식하는 일은 결코 있어서는 안될 것입니다.

 

【참고】 유럽 기본권청(2020)

입법자는 기본권의 모든 범주를 포괄하는 의무적 영향 평가의 실시를 고려해야 한다. 이는 민간부문과 공공부문 모두에 적용되어야 하며, 인공지능 시스템이 사용되기 전에 이루어져야 한다 … 영향 평가는 … 정기적이고 반복적으로 실시되어야 한다. 평가는 투명하게 실시되어야 한다. 그 결과와 권고사항은 가능한 범위까지 공개되어야 한다. 기업과 공공기관들은 기본권에 미치는 영향을 완전하게 평가하는 데 필요한 정보를 수집할 수 있어야 한다.

 

【참고】 유럽 집행위원회(2021)[27]

고위험 인공지능 시스템은 시장에 출시되기 전에 엄격한 의무가 부과된다.

ㅇ 적절한 위험 평가 및 완화 시스템

ㅇ 위험과 차별적 결과를 최소화하기 위해 시스템에 공급하는 데이터 세트의 고품질 보장

ㅇ 결과의 추적성을 보장하기 위한 활동 기록

ㅇ 시스템에 대하여 필요한 모든 정보 및 그 준수 여부를 평가하는 기관의 목적 수행에 필요한 모든 정보를 제공할 수 있는 상세한 문서화

ㅇ 사용자에 대해 명확하고 적절한 정보 제공

ㅇ 리스크를 최소화하기 위해 적절한 인적 감독 조치

ㅇ 높은 수준의 견고성, 보안성 및 정확성

 

인공지능으로 피해를 입거나 인권을 침해당한 사람에 대하여 권리구제가 보장되어야 합니다.

공공기관 또는 민간기업이 개발, 도입, 사용하는 인공지능 시스템으로 인하여 피해를 입거나 인권을 침해당한 사람에게는 국가기관의 구제수단에 대한 접근이 보장되어야 합니다. 피해를 입거나 인권을 침해당한 당사자가 인공지능 제품과 시스템에 대응할 수 있으려면, 인공지능이 언제 어떻게 사용되었는지, 어디서 어떻게 이에 대한 이의를 제기할 수 있는지 알 수 있어야 합니다. 또한 인공지능 제품과 서비스는 우리 헌법과 인권규범이 보호하고 있는 적법절차의 권리를 보장해야 합니다.

따라서 인공지능 사용 기관은 일반적으로 소비자와 이용자에게 인공지능 사용 여부 및 그 기능, 인공지능을 사용한 의사결정에 대한 사항과 이의제기 방법에 대하여 설명하여야 합니다. 특히 공공기관이나 민간기업이 인공지능을 사용하여 당사자에 대해 법적 또는 상당한 영향을 미치는 의사결정을 내리는데 그 결정에 대하여 설명하지 못한다면 이 시스템을 사용해서는 안 될 것입니다.

금융서비스나 채용 등 개인을 평가하거나, 거부하는 등 사람에 대한 중대한 의사결정이 인공지능을 사용하여 자동적으로 내려졌을 경우, 그 대상이 된 정보주체는 그 사실을 통지받고, 인적 개입, 의사 표현, 그 결정의 이유 설명, 이의 제기, 안전조치 등을 보장받을 권리가 있습니다. 국가가 인공지능을 이용하여 국민에게 불이익한 행정 또는 형사상 처분이나 의사결정을 내리는 경우 국민은 그에 대한 사전적인 청문과 의견 진술, 문서 열람, 결정 이유 요구권 등 헌법상 적법절차를 보장받아야 합니다. 이 권리는 공공기관이 민간에서 조달한 시스템이나 서비스를 사용하는 경우에도 똑같이 보장되어야 합니다.

 

【참고】 유엔 의사표현의자유 특별보고관(2018)[28]

개인 이용자들은 인공지능 시스템의 반인권적 영향에 대한 구제 수단에 접근 할 수 있어야 한다. 기업들은 인공지능 처리시스템에 대해 표출되는 모든 이용자들의 불만사항 및 이의제기에 적시에 대응하기 위해 사람에 의한 검사 및 구제 시스템을 두어야 한다. 인공지능 시스템에 불만이 접수되고 구제가 요청된 빈도에 대한 데이터 뿐 아니라, 실제 이용되는 구제수단의 종류와 효과성에 대해서도 주기적으로 공개 되어야 한다.

 

【참고】 유럽평의회 인권위원장(2019)

인공지능 시스템이 머신러닝이나 이와 유사한 기법으로 특정한 인적 개입에서 독자적으로 의사결정을 할 수 있는 환경이라 하더라도, 인공지능 시스템은 항상 인적 통제를 유지해야 한다. 각국은 인공지능 시스템의 다양한 생애주기 단계에서 발생할 수 있는 인권 침해에 대한 명확한 책임의 선을 수립해야 한다. 인권을 침해하는 조치가 인간 책임자 또는 운영자에 의해 직접 지시되지 않은 경우라 하더라도, 인공지능 시스템의 개발, 도입 또는 사용으로 발생하는 인권 침해에 대한 책임과 책무는 항상 자연인 또는 법인 측에 있다.

공공기관 혹은 민간기업 인공지능 시스템의 개발, 도입, 혹은 사용으로부터 인권 침해 피해를 주장하는 누구라도 소관 국가기관에서 효과적인 구제수단을 제공 받을 수 있어야 한다. 나아가 각국은 불투명한 방식으로 당사자의 인지 없이 오로지 혹은 상당히 인공지능 시스템에 의해 산출된 결과물의 대상이 되었다고 의심하는 사람들에게 효과적인 구제수단에 대한 접근을 제공해야 한다.

효과적인 구제수단에는 인공지능 시스템의 개발, 도입 또는 사용으로 인한 피해에 대하여 신속하고 적절한 배상 및 보상이 포함되어 있어야 하며, 민사적, 행정법적 또는 적절한 경우 형사적 조치를 포함할 수 있다. 국가인권기구는 각각의 권한에 따른 자신의 결정을 제시함으로써 이러한 보상의 근거가 될 수 있다.

각국은 충분한 인적 개입 없이 이루어진 자동화된 의사결정에 기반하여 중대한 영향을 미칠 수 있는 의사결정의 대상이 되지 않을 권리를 개인에게 부여해야 한다. 적어도 개인은 이러한 자동화된 의사결정에서 인적 개입을 확보할 수 있어야 하며, 그러한 결정이 실시되기 전에 자신의 의견을 피력할 기회를 부여받아야 한다.

각국은 개인이 인공지능 시스템에 의해 야기된 인권 침해의 피해자라는 자신의 주장을 입증하는 것과 관련된 피고 또는 제3자 소유의 정보에 접근할 수 있도록 보장해야 한다. 여기에는 적절한 경우 훈련 및 테스트 데이터, 인공지능 시스템이 어떻게 사용되었는지에 대한 정보, 인공지능 시스템이 특정 권고, 의사결정 또는 예측에 어떻게 이르렀는지에 대해 유의미하고 이해가능한 정보도 포함되며, 인공지능 시스템의 결과물이 어떻게 해석되고 실행되었는지에 대한 상세정보도 포함된다.

소관 국가기관이 인공지능 시스템의 개발, 도입, 혹은 사용으로 인해 야기된 인권 침해 문제를 검토할 때, 인공지능 시스템이 현출하는 ‘객관성의 유혹(allure of objectivity)’에 적절한 회의적인 태도를 견지해야 하며, 인권 유린으로 난관에 처한 개인이 문제의 조치에 대한 책임자들에 비해 높은 수준의 증거에 구속받지 않도록 보장해야 한다.

 

오늘 선언에 참여한 시민사회, 노동, 인권단체들은 인공지능이 미치는 영향과 위험성으로부터 사람들의 인권과 안전, 민주주의를 보장하기 위하여 정부와 국회가 빠른 시일내 위와 같은 조치를 보장하는 입법 절차에 착수할 것을 다시 한번 촉구합니다. (끝)

 

2021. 5. 24.

가짜뉴스체크센터, 건강권 실현을 위한 보건의료단체연합(건강권 실현을 위한 행동하는 간호사회, 건강사회를 위한 약사회, 건강사회를 위한 치과의사회, 노동건강연대, 인도주의실천의사협의회, 참의료실현청년한의사회), 경제정의실천시민연합, 공익변호사와 함께하는 동행, 공익인권법재단 공감, 공익인권변호사모임 희망을만드는법, 군인권센터, 김포장애인야학, 김포장애인자립생활센터, 대구참여연대, 대전참여자치시민연대, 데이터민주주의포럼, 라이더유니온, 매체비평우리스스로, 무상의료운동본부, 미디어기독연대, 민주노총 공공운수노조, 민주사회를 위한 변호사모임 (교육청소년위원회, 노동위원회, 디지털정보위원회, 소수자인권위원회, 아동인권위원회, 여성인권위원회), 민주언론시민연합, 부산참여연대, 빈곤사회연대, 사단법인 경기장애인자립생활센터협의회, 사단법인 두루, 사단법인 여수시민협, 사단법인 정보인권연구소, 사단법인 제주참여환경연대, 사회적협동조합 빠띠, 상록수장애인자립생활센터, 생명안전시민넷, 서울YMCA 시청자시민운동본부, 성남참여자치시민연대, 소비자시민모임, 손잡고, 신대승네트워크, 언론개혁시민연대, 연구공동체 건강과 대안, 울산시민연대, 익산참여연대, 인권운동공간 활, 인천평화복지연대, 장애인권법센터, 장애해방열사_단, 전국교직원노동조합, 전국민주노동조합총연맹, 전쟁없는세상, 정태수열사추모사업회, 진보네트워크센터, 진보3.0, 차별금지법제정연대, 참여연대, 참여와자치를 위한 춘천시민연대, 참여자치21(광주), 충남참여자치지역운동연대, 충북참여자치시민연대, 투명사회를 위한 정보공개센터, 팔레스타인평화연대, 평등과 연대로! 인권운동더하기(거창평화인권예술제위원회, 광주인권지기 활짝, 구속노동자후원회, 국제민주연대, 노동인권실현을위한노무사모임, 다산인권센터, 대학성소수자모임연대 QUV, 대한불교조계종 사회노동위원회, 문화연대, 민족민주열사․희생자추모(기념)단체연대회의, 민주사회를 위한 변호사 모임, 민주주의법학연구회, 민주화실천가족운동협의회, 반도체노동자의 건강과 인권지킴이 반올림, 불교인권위원회, 빈곤과 차별에 저항하는 인권운동연대, 사회진보연대, 삼성노동인권지킴이, 새사회연대, 서교인문사회연구실, 서울인권영화제, 성적소수문화인권연대 연분홍치마, 실천불교전국승가회, 어린이책시민연대, 예수회 인권연대연구센터, 외국인이주.노동운동협의회, 울산인권운동연대, 원불교인권위원회, 인권교육센터 들, 인권교육온다, 인권연극제, 인권운동네트워크 바람, 인권운동사랑방, 장애물없는생활환경시민연대, 장애여성공감, 장애와인권발바닥행동, 전국불안정노동철폐연대, 전국장애인차별철폐연대, 전북평화와인권연대, 제주평화인권연구소 왓, 진보네트워크센터, 청소년인권행동 아수나로, 천주교인권위원회, 한국게이인권운동단체 친구사이, 한국기독교교회협의회(NCCK) 인권센터, 한국비정규노동센터, 한국성적소수자문화인권센터, 한국성폭력상담소, 한국청소년청년감염인커뮤니티 알, 행동하는성소수자인권연대, HIV/AIDS인권연대나누리+), 표현의자유와언론탄압공동대책위원회, 피스모모, 한국방송기술인연합회, 한국여성단체연합, 한국여성민우회, 한국장애인자립생활센터협의회, 형명재단 (총 120개 단체)

※ [내려받기] 선언서 전문

[1] “머신러닝으로 부정수급 탐지, AI로 강력범죄 전자감독”, 과학기술정보통신부 보도자료(2020. 4. 13).

[2] “경찰청, 빅데이터 플랫폼 구축하고 인공지능(AI) 범죄 예방 시범운영”, 경찰청 보도자료(2020. 12. 28) ; "인공지능(AI)으로 범죄예방의 첫걸음 내디딘다", 경찰청 보도자료(2021. 2. 26).

[3] “CCTV 활용 안면인식·동선분석'으로 코로나 감염경로 파악한다”, 뉴스1(2021. 2. 25).

[4] “공공기관 AI 채용은 ‘안알리즘’”, 한겨레21 제1335호(2020. 10. 23).

[5] “AI가 軍 특기병 면접본다…7월부터 시범 운영”, 조선일보(2021. 4. 13).

[6] “인공지능 무기 전쟁”, 한겨레(2021. 4. 10).

[7] “우버 자율주행차 첫 보행자 사망사고…안전성 논란 증폭”, 한국일보(2018. 3. 20). ; “나무 들이받고 불탄 테슬라…운전석에는 아무도 없었다", 경향신문(2021. 4. 19).

[8] “MS 채팅 봇 ‘테이’, 24시간 만에 인종차별주의자로 타락”, 동아사이언스(2016. 3. 27).

[9] “인공지능도 인종차별?…"얼굴인식 소프트에어 백인남성 더 정확"”, 연합뉴스(2018. 2. 12).

[10] “아마존, '여성차별' 논란 인공지능 채용 프로그램 폐기”, BBC(2018. 10. 11). ; 'AI 채용'은 남성을 선호해?…성차별 논란에 '자체 폐기', 중앙일보(2018. 10. 12).

[11] “사는 곳으로 성적을 결정했다 : 가난한 지역 공립학교 학생들에게 낮은 점수 준 알고리즘, 실패한 실험이 남긴 과제”, 한겨레21 제1329호(2020. 9. 11).

[12] “시민단체, 인공지능 채용 공공기관 13곳에 정보공개 청구 및 결과 발표”, 진보네트워크센터 보도자료(2020. 10. 27). ; “‘AI 면접 공정한가’ 온라인 토론회서 쏟아진 쟁점”, 뉴스로드(2021. 2. 17).

[13] “AI가 편집한다지만...포털뉴스 이대로 좋은가?”, MBC 스트레이트(2021. 3. 7).

[14] “무심코 누른 ‘좋아요’가 당신의 투표심리를 조종한다”, 서울경제(2020. 4. 10.)

[15] “Poland: Government to scrap controversial unemployment scoring system”, Algorithm Watch(2019. 4. 16).

[16] “Federal Suit Settlement: End of Value-Added Measures in Houston”, Education News(2017. 10. 10).

[17] “Welfare surveillance system violates human rights, Dutch court rules”, The Guardian(2020. 2. 5).

[18] “Amsterdam and Helsinki launch algorithm registries to bring transparency to public deployments of AI”, VentureBeat(2020. 9. 28).

[19] “Antibes publie l’inventaire de ses algorithmes”, laGazette(2021. 2. 11).

[20] The Government of Canada, “Directive on Automated Decision-Making”.

[21] New Zealand Government, “Algorithm charter for Aotearoa New Zealand”.

[22] European Commission, “Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act)”.

[23] “Question of the realization of economic, social and cultural rights in all countries: the role of new technologies for the realization of economic, social and cultural rights”, 유엔문서번호 A/HRC/43/29(2020. 3. 4).

[24] European Union Agency for Fundamental Rights(2020), “Getting the Future Rights : Artificial Intelligence and Fundamental Rights”.

[25] “인공지능 시대를 준비하는 법·제도·규제 정비 로드맵 마련”, 과학기술정보통신부 보도자료(2020. 12. 24). ; “4차산업혁명委 간담회 - AI에 지나친 쏠림 줄이기…자율규제 방식이 바람직”, 한국경제(2021. 3. 30).

[26] Council of Europe Commissioner for Human Rights(2019), “Unboxing artificial intelligence: 10 steps to protect human rights”.

[27] “Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence”, European Commission(2021. 4. 21).

[28] “Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression”. 유엔문서번호 A/73/348(2018. 8. 29).

국제인권기준에 따른 개인정보 보호 법제도 개선방안 연구

사단법인 정보인권연구소는 2020년 11월 <유럽연합 「개인정보보호 규정」(GDPR) 등 국제인권기준에 따른 개인정보 보호 법제도 개선방안 연구> 보고서를 발간하였습니다.

최근 정부와 기업은 데이터 산업 활성화를 위해 개인정보 보호를 완화하는 여러 정책을 추진하고 있습니다. 쇼핑내역은 물론 민감한 건강정보에 이르기까지 많은 개인정보가 정보주체의 동의 없이 광범위하게 가명처리 후 거래되기 시작했습니다. 개인정보 보호법은 지난해 데이터3법 논란에 이어 2차 개정을 눈앞에 둔 상황입니다.

정보주체인 국민들이 지금의 데이터 환경을 신뢰할 수 있을까요. 소비자와 이용자의 개인정보를 부당하게 매매하거나 유출한 기업들은 충분히 책임을 지는 모습을 보여주지 못해 왔습니다. 데이터 산업이 정당하고 투명하지 못하다면 국민에게 어떤 이익이 돌아올 수 있을지 의문입니다. 무엇보다 개인정보 자기결정권은 헌법이 보호하는 기본권으로서 산업 발전을 위하여 이를 부당하게 제한해서는 안 될 것입니다.

데이터 환경은 인공지능 등 기술의 발전으로 갈수록 불투명해지고 있습니다. 그러나 우리 사회에서 정보주체의 권리 보장에 대한 진지한 고민은 4차 산업혁명의 구호 속에 실종되어 가는 듯 합니다. 반면 유럽연합 GDPR 등 국제기준에서는 정보주체가 자신의 개인정보 처리에 대하여 정보를 제공받을 권리, 접근할 권리, 수정할 권리, 삭제할 권리, 처리를 제한할 권리, 이동시킬 권리, 프로파일링 및 자동화된 의사결정에 대하여 행사할 수 있는 권리 등을 정교화해 나가고 있습니다.

또 최근 유럽에서는 기업 등 개인정보를 처리하는 자의 책임성 또한 강화되고 있습니다. 개인정보를 처리하는 자는 제품과 서비스에서 설계에 의한 개인정보 보호(data protection by design)와 기본설정에 의한 개인정보 보호(data protection by default)의 의무가 있고, 특히 고위험 개인정보 처리를 하는 경우 공공은 물론 민간에게도 개인정보 보호 영향평가의 의무가 있습니다. 나아가 개인정보 처리 활동을 기록해야 하고 독립적인 정보보호 책임자(DPO)를 두도록 하고 있기도 합니다. 그러나 안타깝게도 우리의 현행법과 개정안에서는 개인정보 처리자의 책임성 보장이 매우 부실한 상황입니다.

이에 연구보고서는 국내외 현황을 다각도로 살펴보고 정보주체에게 공정하고 투명하고 책임감 있는 개인정보 처리를 위한 정책 권고를 담았습니다. 우리의 개인정보 보호 법제도들은 정보주체의 권리를 충분히 보장하고 개인정보 처리자들의 책임성 또한 강화하는 방향으로 개선해야 할 필요가 있습니다. 또한 인공지능 등 신기술 환경에서 정보 인권을 보장하기 위한 거버넌스와 절차가 마련되어야 하고 국가인권위원회와 개인정보 보호위원회가 제 역할을 해야 합니다. 신용정보법과 개인정보 보호법으로 분산되어 있는 개인정보 보호 체계는 일원화되어야 하고, 정보기관 및 수사기관에 광범위한 예외를 구체적으로 한정할 필요가 있습니다.

국가인권위원회가 발주한 이 실태조사 연구보고서는, 사단법인 정보인권연구소 이사장 이호중 교수(서강대학교 법학전문대학원)가 책임을 맡았습니다. 이은우 변호사(법무법인 지향), 오병일 대표(진보네트워크센터), 장여경 이사(정보인권연구소), 김재완 박사(한국방송통신대학교)가 공동연구원으로 참여하고 희우 활동가(진보네트워크센터)가 연구보조원으로 참여했습니다.

♣️ 사단법인 정보인권연구소는 시민사회 관점에서 정보인권을 지지하는 대안적 정책을 연구하고 생산하기 위해 2018년 창립하였습니다(이사장: 이호중 서강대학교 법학전문대학원 교수). http://idr.jinbo.net

♣️ 연구보고서 전체 파일은 국가인권위원회에서 다운받으시거나 첨부파일을 내려받으시기 바랍니다.

[연구보고서 내려받기] 2020정보인권연구소_개인정보보호법제도개선연구_최종보고서

코로나19와 정보인권

[이슈리포트 내려받기] 코로나19와 정보인권 보고서

[ENGLISH / PDF] Covid_19_and_the_right_to_Privacy_an_analysis_of_South_Korean_Experiences

진보네트워크센터와 사단법인 정보인권연구소는 공동으로 <코로나19와 정보인권> 보고서를 발간하였습니다.

한국의 코로나19 대응은 지금까지 성공적인 것으로 평가를 받아왔지만, 동시에 처벌과 통제 중심의 정책은 인권적 관점에서 많은 우려를 불러왔습니다. 특히 코로나19 환자에 대한 역학 조사 및 접촉자 추적 과정에서 과도한 개인정보 수집과 공개가 이루어져 정보인권 침해를 가져왔습니다. 환자의 개인정보와 동선이 공개되어 인터넷에서의 혐오발언에 시달리는 경우도 있었고, 접촉자 추적을 명분으로 만 명이 넘는 사람들의 기지국 접속 정보가 수집되기도 했습니다. 국가인권위원회와 인권단체의 반대에도 불구하고, 지금까지 성폭력 범죄자에게 적용되었던 전자적 위치추적장치(전자팔찌)가 자가격리 위반자에게도 착용이 강제되고 있습니다. 출입명부작성은 전 국민을 대상으로 시행되고 있습니다.

비록 감염병 대응이라는 공익을 명분으로 한 정책이지만, 인권 침해를 최소화하기 위해 개선할 필요가 있습니다. 감염병 대응의 효과는 있었는지, 덜 침해적인 수단은 없는지, 남용을 방지하기 위한 안전조치는 충분한지 점검할 필요가 있습니다. 코로나19가 마지막 감염병이 아닐 것이기 때문입니다.

<코로나19와 정보인권> 보고서는 올해 코로나19 대응 과정에서 문제가 되었던 정보인권 침해 사례와 쟁점들을 정리한 것입니다. 진보네트워크센터와 사단법인 정보인권연구소는 이번 보고서를 토대로 내년에 더욱 심화된 연구를 진행할 예정입니다. 이번 보고서는 정보인권단체의 세계적인 네트워크인 진보통신연합(APC)의 지원을 받아서 제작되었으며, 국문과 함께 영문 보고서로도 발간되어 세계 시민사회 및 전문가들과 함께 바람직한 감염병 대응 정책에 대한 토론의 자료로 활용할 계획입니다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제

사단법인 정보인권연구소는 이슈리포트 <정보인권> 통권 제10호로 “경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제”를 발간하였다. 이 연구는 4.9통일평화재단의 지원으로 제작되었으며 진보네트워크센터도 필자로 함께 참여하였다.

최근 경찰은 치안활동에 첨단과학기술을 결합한 ‘스마트치안’을 강조하면서, 지문, 유전정보 등 고전적 형태의 생체인식정보를 넘어 얼굴정보, 행동정보 등 새로운 형태의 생체정보를 활용하는 치안활동을 확대해 가고 있다.

특히 경찰과 사실상 공동관제하고 있는 지방자치단체 CCTV가 최근 급격히 지능화하고 있다. 경기도 부천시의 경우 코로나19 대응을 위해 확진자의 얼굴 사진과 CCTV 영상 속 시민들의 얼굴을 대조해 같은 사람을 찾아내고 동선을 파악하는 ‘확진자 동선추적 시스템’을 개발하고 있다고 밝히기도 했다.

이미 경찰은 CCTV, 블랙박스 등 범죄현장에서 찍힌 용의자 사진과 구속된 9대 수법범죄자 데이터베이스를 비교·검색하여, 용의자의 신원확인을 신속하게 지원하는 <범죄예방 3D얼굴인식시스템>을 개발 및 관리해 왔다. 이 시스템에는 2019년 현재 이미 198,330건의 얼굴인식정보가 포함되어 있다. 경찰은 3D얼굴인식시스템을 계속 고도화할 계획으로, 2024년에는 실시간 CCTV 연계 얼굴인식을 목표로 하고 있으며, 인공지능을 이용하여 나이 등 대상자 특성에 대한 자동화된 식별도 추구하고 있다.

또 경찰청과 과학기술정보통신부, 산업통상자원부는 공동으로 2018년부터 5개년에 걸쳐 ‘실종아동등 신원확인을 위한 복합인지기술개발사업’을 진행하고 있다. 이 사업은 △ 유전정보, △ 얼굴정보, △ 행동정보, △ 시·공간정보 등을 수집하고 연계하여 인공지능 기반으로 분석하여 고도화된 신원분석을 목표로 하고 있다. 현재는 ‘실종아동수색’이라는 목적에 한정하여 개발되고 있으나, 일단 기술적 기반이 갖추어지면 그 활용이 향후 범죄 수사, 위험방지 등 다양한 경찰활동으로 확대될 가능성이 존재한다.

미국에서는 잘못된 얼굴인식으로 경찰이 무고한 흑인을 체포하는 등 얼굴인식 기술을 둘러싼 많은 논란이 빚어져 왔고, 경찰의 얼굴인식 기술 사용에 대하여 샌프란시스코, 워싱턴 주 등에서 규제법을 도입한 바 있다. 유럽연합에서는 인권기구인 기본권청이 법집행기관의 얼굴인식기술 사용이 유럽 개인정보보호법 GDPR 및 경찰디렉티브에 위배될 가능성을 지적하며 법률에 따른 통제를 제안하였다. 지난 9월에는 영국 항소법원이 경찰의 실시간 얼굴인식 사용에 대한 시민단체 소송에서 최초의 위법 판결을 내렸다. 법원은 경찰이 얼굴인식 기술의 차별적 영향을 적절히 고려하지 못했고, 평등법에 따른 의무를 다하지 못했으며, 민감정보 처리에 대한 개인정보 보호법을 준수하지 못했다고 지적했다.

이슈리포트는 I. 서론 II. 얼굴인식 기술의 개념 III. 해외 현황 및 관련 법제도 IV. 국내 현황 및 관련 법제도 V. 결론 및 제언으로 구성되어 있으며, 경찰 등 법집행기관의 얼굴인식 감시기술의 사용에 대한 해외 사례 및 법제도를 소개하고 나아가 국내 개인정보 보호법 적용 및 그 한계에 대하여 살펴보았다. 이슈리포트는 결론적으로 민감정보인 생체인식정보 처리의 제한에서 경찰 등 법집행 목적을 제외한 현행 개인정보 보호 법령의 개선과 함께 경찰 등 법집행기관의 얼굴인식 기술 사용을 법률에 따라 엄격하게 통제할 것을 제안하였다. 또한 집회시위 등 국민 기본권의 본질을 중대하게 침해할 우려가 있는 분야에서는 얼굴인식기술의 사용을 금지할 것과 국민을 보호하기 위한 법적 근거가 갖추어지기 전에는 법집행기관의 얼굴인식정보 처리를 중단할 것을 제안하였다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

[이슈리포트 내려받기] 경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제

디지털 노동감시 규제와 기본권 보호를 위한 근로기준법 개정

[내려받기] 20211129디지털노동감시입법공청회_자료집

사업장 내에서 CCTV, 인터넷 모니터링, 위치추적 앱, 생체인식 시스템 등 다양한 전자감시 시스템의 도입이 증가하고 있습니다. 특히 코로나19 확산으로 재택근무가 확대되면서 소위 ‘보스웨어’를 통해 노동자의 근태를 모니터링하는 회사들이 증가하고 있습니다. 2021년 올해 시행된 사업장 전자감시 실태조사에 따르면, 사업장 내 감시설비 도입 과정에서 노동자에 대한 고지나 노동조합과의 사전 협의가 전반적으로 부족한 것으로 나타났습니다. 사용자는 시설 보호, 근로자의 안전, 영업비밀 보호, 업무 효율성 향상 등 경영상의 목적으로 이러한 시스템을 도입하지만, 적절한 절차와 안전조치가 취해지지 않는다면 노동자의 개인정보를 과도하게 수집하거나 부당하게 감시하는 결과를 초래할 수 있습니다.

그러나 현행 개인정보보호법은 노사간의 불평등한 권력관계의 특수성을 고려하고 있지 않으며, 근로기준법은 사업장 전자감시에 대해 특별히 규율하고 있지 않습니다. 또한, 개인정보보호위원회는 이용자의 개인정보에 비해서 노동자의 개인정보에 대한 감독이 미흡하고, 고용노동부는 직장 내 괴롭힘이나 부당노동행위와 관련되지 않는 한 명확한 감독 권한을 가지고 있지 않습니다. <개인정보보호 가이드라인(인사, 노무편)>의 경우 사업장 내 감시설비 도입과 관련한 절차, 범위, 안전조치 등에 대한 내용을 포함하고 있지 않은데, 이와 관련하여 2017년에 국가인권위원회가 개정을 권고했고 고용노동부가 수용했음에도 불구하고 아직 이행되지 않고 있습니다.

개인정보보호법, 근로자참여법 등 현행 법률의 집행과 감독도 중요하지만, 사업장 내 감시설비 도입을 근로조건의 하나로 명시적으로 규정하고, 감시설비 도입시 노동조합과의 사전 협의를 의무화하며 고용노동부의 감독 권한을 명확히 하는 등 법적 미비점을 개선할 필요가 있습니다. 이러한 취지의 근로기준법 개정안을 발의하면서 여러 이해관계자의 의견을 수렴하여 입법 과정에 참고하고자 합니다.

  • 일시 : 2021년 11월 29일(월) 오후 2시 – 4시
  • 장소 : 국회의원회관 제9간담회실
  • 주최 : 국회의원 강은미(정의당), (재)공공상생연대기금, 노동권연구소, 민주사회를위한변호사모임, 전국민주노동조합총연맹, (사)정보인권연구소, 직장갑질119, 진보네트워크센터, 한국노동조합총연맹
  • 인삿말 :
    • 강은미 의원
    • 양동규 (민주노총 부위원장)
    • 박기영 (한국노총 사무1처장)
  • 사회 : 문은영 (변호사, 서울지방변호사회 노동인권소위원회 위원장)
  • 발제 : 노동감시 규율을 위한 근로기준법 개정안의 취지와 내용  / 김하나 (변호사, 해우 법률사무소)
  • 토론 :
    • 김태욱 (민주노총 법률원 변호사)
    • 김기우 (한국노총 중앙연구원 선임연구위원)
    • 장여경 (정보인권연구소 상임이사)
    • 이준희 (한국경영자총협회 노사협력팀 팀장)
    • 정종일 (개인정보보호위원회 영상정보팀장)
    • 오영민(고용노동부 근로기준정책과 과장)

* 유튜브 채널 강은미 TV에서 온라인으로 생중계될 예정입니다.

 

코로나19와 K-식별, 그리고 인권

[이슈리포트 내려받기] 코로나19와 K-식별, 그리고 인권

[ENGLISH/PDF] K-Identification and Human Rights amidst COVID-19

사단법인 정보인권연구소는 이슈리포트 <코로나19와 K-식별, 그리고 인권>을 발간하였습니다.

코로나19 감염병 위기가 1년 이상 계속되고 있습니다. 코로나19는 사회 전체적인 건강권의 위기임에 분명하지만, 인권활동가들은 인권이 취약한 사람들에게 더욱 큰 인권 침해가 발생해 온 현실에 주목해 왔습니다.
한국의 K-방역 정책은 ‘디지털 식별’에 기반한 정교한 추적이 특징입니다. 때로는 집단별로 구별되는 방역 정책도 시행되어 왔습니다. 그런데 정교한 식별과 추적, 그리고 집단의 구별은 성소수자, 이주민, 홈리스 등 사회적 차별에 취약한 계층의 인권을 위협할 우려가 있습니다. 또 생존의 위기 앞에서 저항하는 노동자, 민중의 집회시위의 권리가 계속하여 억압받고 있습니다. 집회의 참가자가 처벌받고 주최자가 구속되었으며, 감염병 예방법 자체가 확진자와 접촉자를 대체로 범죄자로 취급하고 있는 실정입니다.

이 이슈리포트는 성소수자, 이주민, 보건의료, 홈리스, 집회시위, 법률 분야에서 코로나19와 인권 문제를 고민해 온 한국의 활동가들이 추적 기반 방역 환경에서 경험한 현실에 대한 보고입니다.

보고서는 인권재단 사람의 후원으로 제작되었으며, 국문과 함께 영문 보고서로도 발간되었습니다.
지구적 팬데믹 위기 속에도 인권을 보장하는 방역 정책과 사회적 연대를 위하여 국내외 인권활동가들과 문제 의식을 나누고 사회적 대화를 시작하고자 합니다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

K-Identification and Human Rights amidst COVID-19

[ENGLISH / PDF] K-Identification and Human Rights amidst COVID-19

The crisis of COVID-19 has continued for more than a year. Although it is clear that COVID-19 is a crisis to the right of health in society as a whole, human rights activists have paid attention to the reality where more human rights violations occurred to those vulnerable to the abuse of human rights.
Korea’s so-called “K-Disease Control” policy is characterized by its sophisticated tracing based on digital identification. Sometimes, group-specific disease control policies have been implemented. However, these advanced identification, tracing, and group differentiation may threaten the human rights of those vulnerable to social discrimination, such as sexual minorities, migrants, and the homeless. Moreover, the workers and people’s rights to protest continue to be suppressed in the face of this crisis of survival. Rally participants are punished and organizers are arrested. The Infectious Disease Control and Prevention Act generally treats confirmed patients and their contacts as criminals.

This issue report contains the contents of the reality experienced by Korean activists who have been contemplating COVID-19 and human rights issues in the fields of sexual minorities, migrants, health care, homeless people, demonstrations, and the law in a trace-based disease control environment.

This report is sponsored by Human Rights Foundation SARAM. We would like to share awareness of issues with human rights activists at home and abroad and initiate social dialogues for disease control policies and social solidarity that guarantees human rights even in the midst of a global pandemic.

For more information, please contact :
idr.sec@gmail.com

 

Contents

Introduction
Exposure and Discrimination of Sexual Minorities
Discrimination and Exclusion of Foreigners and Migrants
Tracing and Group Management Issues in Disease Control Policies
Discrimination and Exclusion of the Homeless
Restrictions on Freedom of Assembly and Demonstration, and Tracing Participants
Digital Tracing that Promotes Overcriminalization

 

 

Epidemic Intelligence Support System and Automated Processing of Personal Data in South Korea

[ENGLISH / PDF] Epidemic Intelligence Support System and Automated Processing of Personal Data in South Korea

In South Korea, the Epidemic Intelligence Support System (EISS) has officially been in operation since March 26, 2020 to automate the epidemiological investigation procedure of the Coronavirus disease 2019 (COVID-19) after the pandemic. The EISS aims to automatically analyze the movement routes of confirmed patients by collecting and processing personal data from various public and private institutions. However, there is no provision of law planned to limit the analysis and prediction of sensitive personal data that becomes increasingly precise, the purpose and processing of the system, or ensure the rights of the data subjects.
The structure of the Personal Information Protection Act (PIPA) in Korea has not regulated “automated personal data processing” differently from general personal data processing, such as written documents. The problem is that with the development of digital communication technology, a plethora of more various types of personal data are being processed at a faster speed. As AI technology is applied to personal data processing methods in recent years, we are moving towards automated evaluation, analysis, prediction as well as decision-making. Compared to the methods in which personal data was processed manually or through paper documents, this change in personal data processing methods has a significant impact on the fundamental rights of data subjects, such as the right to the protection of personal data. Nevertheless, there is not enough discussion on the legal regulations.
The civil society in Korea has called the problematic human rights in such automated personal data processing “digital rights” and has demanded that they be guaranteed as fundamental rights protected by the Constitution. Chapter 2 outlines the progress of how Korean society developed by raising questions whenever the impact of the personal data processing methods on fundamental rights increased. Chapter 3 examines international norms related to automated personal data processing, such as profiling, and solely automated decision-making. Chapter 4 looks into problems with the EISS as a profiling system for sensitive data. Chapter 5 presents a legal regulation idea for the EISS to protect the rights of data subjects, and we concludes with Chapter 6.

This report is written by Chang Yeo-kyung from Institute for Digital Rights in South Korea, and sponsored by Human Rights Foundation SARAM. We would like to share awareness of issues with human rights activists at home and abroad and initiate social dialogues for disease control policies and social solidarity that guarantees human rights even in the midst of a global pandemic.

For more information, please contact :
idr.sec@gmail.com

Contents

1. Introduction
2. Growing awareness of problems with automated personal data processing and fundamental rights
3. European norms for automated personal data processing and profiling
--A. Concept of profiling
--B. Principles of general profiling process
--C. Profiling of solely automated decision-making
--D. Comparison with the norms of Korean PIPA
4. Automated personal data processing and profiling of EISS
--A. Overview of EISS
--B. Personal data processing of EISS
5. Direction of EISS regulations
6. Conclusion

 

국가기관, 지자체 등이 구축하는 생체정보 활용 인공지능 시스템 전면 중단해야

- 과기부 주도 인공지능 산업의 위험성 드러나
생체정보 등 공공데이터의 민간기업 AI 학습용데이터 제공은 불법
- 개보위, 전국 지자체 추진 중인 생체정보 활용 사업 전수조사해야

언론보도에 따르면, 과학기술정보통신부(이하, ‘과기부’) 산하 정보통신산업진흥원이 대구 수성구의 ‘인공지능(AI) 융합 국민안전 확보 및 신속대응 지원 사업’에 선정한 5개 민간업체 중 한 업체가 인공지능 학습용으로 제공받은 시민들의 ‘얼굴 영상’ 10만여 건을 통제구역(실증랩) 밖으로 무단 반출한 것이 발각되었다. 법무부와 과기부의 얼굴인식 인공지능 추적식별 시스템 구축 사업에 내⋅외국인 얼굴정보 1억 7천여건이 무단 제공되어 충격을 준 것에 이어, 지자체가 CCTV를 통해 확보한 국민들의 영상정보를 인공지능 학습데이터로 민간기업에 무단으로 제공하였을 뿐 아니라 통제된 장소에서만 정보를 다루기 때문에 안전하다고 발표했던 과기부의 해명이 그야말로 거짓임이 드러난 것이다. 특히 이번에 적발된 업체 씨이랩은 2014년부터 국방부, 중소벤처기업부, 과기부 등 정부 부처나 공공기관의 기술 용역 과제 13건을 수주해온 것으로 알려져 이와 유사한 개인정보 유출 사례가 추가로 있을 수 있다는 의심이 든다. 과기부는 즉각 해당 사업을 중단하고, 적발된 업체를 사법처리할 뿐 아니라 이후 인공지능 관련 사업에서 퇴출시켜야 할 것이다. 

두 달이 지나도록 과기부는 민간업체가 관련 영상정보를 무단 반출한 사실조차 몰랐다고 하니 관리감독조차 제대로 이루어지지 않았다는 것은 명백하다. 데이터뉴딜, 인공지능 산업의 주무부처로 자처하고 있는 과기부가 과연 자신들이 주도하여 개발하고 있는 얼굴 등 생체정보를 활용한 인공지능시스템의 실태를 제대로 파악하고 있는지조차 의문이다. 국민의 생체정보 등을 보호할 의무가 있는 국가와 지자체가 앞다투어 인공지능 시스템 구축 사업 명분으로 정보주체 모르게 생체정보를 민간기업에 제공하고, 개인정보보호법상 정보처리자의 의무를 면제하도록 ‘위탁’형식이라는 꼼수까지 부린 것은 국가가 나서서 불법을 조장한 행태로 비난받아 마땅하며 그러한 사업은 전면 중단해야 한다. 

지난 10월 국회 국정감사에서 드러난 법무부의 얼굴인식 인공지능 식별 추적시스템 뿐 아니라, 이번 대구 수성구의 인공지능 시스템 등 전국의 많은 지방자치단체들이 치안이나 방역 등을 이유로 얼굴인식 인공지능 시스템을 운영 중이거나 개발 중인 것으로 알려지고 있다. 부천시가 도입 개발하고 있는 지능형 역학시스템은 시내 방범용 CCTV를 활용해 코로나19 등 감염병 확진자의 이동경로·마스크 착용 여부·밀접 접촉자 등을 추적한다는 명분이고, 경기 안산시가 2022년 시범도입을 준비 중인 아동학대 실시간 탐지 시스템도 어린이집 CCTV를 활용해 아동학대를 실시간 탐지한다는 목적이다. 이미 범죄예방용으로 인공지능 감시시스템을 시범 운영하는 곳도 있다. 제주 경찰은 안면인식·침입감지 기능을 갖춘 CCTV를 신변보호 대상자 집 주변에 설치해 특정 인물이 주변을 배회하면 대상자와 112 상황실에 실시간으로 얼굴 사진을 전송한다. 경찰청은 2022년부터는 이 시스템을 전국으로 확대할 계획이라고 한다. 

이처럼 국가기관, 지자체 등이 공적 목적으로 보유하고 있는 다양한 개인정보와 얼굴, 지문과 같은 생체정보, 질병, 건강정보와 같은 민감정보를 사회적 합의나 논의 없이 민간기업의 인공지능 기술 개발에 무단 제공하면서 개인정보보호법 위반 여부나 인권, 프라이버시 등 기본권에 미칠 영향을 고려하지 않았다면 큰 문제이다. 막대한 예산이 집행되고 사람의 민감한 얼굴정보를 사용하는 정부 주도 사업에서 현행 개인정보보호법의 준수 여부를 철저하게 검토하거나 주무 부처인 개인정보보호위원회와의 협의는 기본임에도, 최근 언론보도로 알려진 사례들은 개인정보보호위원회의 검토조차 거치지 않은 것으로 보인다. 개인정보 보호의 검토 없이 우후죽순 늘어나는 국가 주도의 생체정보 활용 인공지능 시스템 개발 사업에 관하여 개인정보 감독기구로서 개인정보보호위원회의 제 역할이 절실하다. 최근 드러난 사례 이외에도 전국적으로 추진 중인 유사 사업이 더 많을 것이라는 점에서, 개인정보보호위원회가 공공기관과 전국 지자체 등이 개발 중인 생체정보 활용 인공지능 시스템 사업 현황과 실태를 전수 조사할 것을 요구한다. 

전세계적으로 법집행기관이 얼굴인식 등 생체정보를 활용한 인공지능 시스템을 사용하는 것에 대해 대량감시 위험과 유출시 피해 회복 불가능의 우려에서 규제방안 마련에 사회적 논의를 진행하고 있는 마당에 우리나라만 유독 아무런 견제장치도 없이 국가기관과 지자체들이 앞다투어 인공지능시스템을 운영하려고 하는 것은 부끄러운 일이다. 인공지능은 산업기술적 측면 뿐 아니라 우리 삶 전체를 바꿀 새로운 현상이기 때문에 인권을 중심으로 한 통합적이고 총체적 접근이 필요하다. 인공지능 산업 육성에만 초점을 맞출 것이 아니라, 인공지능으로 발생할 수 있는 인권 제약에 대하여 제대로 된 관리감독체계가 마련되어야 한다. 연이어 드러나는 과기부 주도의 인공지능 시스템 관련 사건들이 이를 여실히 보여주지 않는가. 더 늦기 전에 인공지능의 위험성을 통제할 수 있는 법제를 마련할 것과 이를 위해 인공지능으로 영향을 받는 당사자를 비롯한 시민사회가 함께 참여하는 범국가 차원의 인공지능 컨트롤타워를 마련할 것을 촉구한다. 끝.

[관련기사 참조] 정부가 ‘연구용’ 줬더니, 얼굴 영상 10만건 빼돌렸다

[내려받기] 20211117_논평_생체정보활용인공지능시스템중단촉구

국제인권규범을 준수하는 감염병법 개정 과제 토론회

 

[내려받기] 국제인권규범을 준수하는 감염병법 개정 과제 토론회 자료집

국제인권규범을 준수하는 감염병법 개정 과제 국회 토론회 개최
- 11월 18일 오전10시 국회의원회관 제7간담회실

국제인권규범을 준수하는 「감염병의 예방 및 관리에 관한 법률」(이하 '감염병법')의 개정 과제를 모색하는 토론회가 국회의원과 시민단체 공동주최로 오는 11월 18일 오전10시, 국회의원회관 제7간담회실에서 개최된다. 이번 토론회는 배진교 의원(정의당/정무위원회), 최혜영 의원(더불어민주당/보건복지위원회)과 시민단체가 함께 공동주최하며, 코로나19 위기에서 인권문제를 고민해온 민주사회를위한변호사모임 공익인권변론센터, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대, 코로나19인권대응네트워크, 투명사회를위한정보공개센터가 공동주최한다.

토론회 발제로는 "정보인권과 감염병법 개정과제"를 주제로 오병일 대표(진보네트워크센터 대표, 정보인권연구소 연구위원)와 "형사처벌과 감염병법 개정과제"를 주제로 서채완 변호사(민주사회를위한변호사모임 공익인권변론센터 변호사)가 발표하며, 최홍조 센터장(시민건강연구소 센터장 / 건양대학교 의과대학 교수)이 사회를 맡는다.

이어 토론자로는 시민사회에서 이지은 간사(참여연대 공익법센터 간사), 박한희 변호사(공익인권변호사모임 희망을 만드는 법 변호사), 랑희 활동가(인권운동공간 활 활동가)가 참여하며, 정부 부처에서는 코로나19 중앙사고수습본부, 질병관리청, 법무부 인권국, 국가인권위원회가 토론에 참여한다.

코로나19 위기가 우리 사회를 휩쓰는  동안 많은 국민이 고통을 받았다. 국가와 지방자치단체가 감염병법에 따른 방역 조치에 적극 임하는 동안 확진 환자 및 인권에 취약한 계층이 인권 침해에 노출되는 사례가 발견되어 왔다. 감염병 위기 대처에 있어서도 보다 인권에 기반한 접근법으로 국제인권규범을 준수하려는 노력이 필요하다 할 것이다. 지난 2년 간 우리 사회가 경험한 교훈이 이번 토론회를 계기로 감염병법 개선으로 이어질 수 있기를 기대한다. 토론회는 인권재단 사람에서 후원한다. 끝.

▣ 토론회 개요

  • 제목 : 국제인권규범을 준수하는 감염병법 개정 과제 토론회 
  • 일시 : 2021년 11월 18일(목) 오전10시~12시 (2시간)
  • 장소 : 국회의원회관 제7간담회실
  • 주최 : 민주사회를위한변호사모임 공익인권변론센터, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대, 코로나19인권대응네트워크, 투명사회를위한정보공개센터, 국회의원 배진교(정의당/정무위원회), 국회의원 최혜영(더불어민주당/보건복지위원회) 
  • 주관 : 사단법인 정보인권연구소
  • 후원 : 인권재단 사람

▣ 토론회 프로그램 

사회 : 최홍조 (시민건강연구소 센터장 / 건양대학교 의과대학 교수)
10:00

~10:10

개회 인사말 공동주최 의원
10:10

~10:50

발제1 정보인권과 감염병법 개정과제 오병일 (진보네트워크센터 대표, 정보인권연구소 연구위원)
발제2 형사처벌과 감염병법 개정과제 서채완 (민주사회를위한변호사모임 공익인권변론센터 변호사)
10:50

~11:50

토론 이지은 (참여연대 공익법센터 간사)
박한희 (공익인권변호사모임 희망을 만드는 법 변호사)
랑희 (인권운동공간 활 활동가)
코로나19 중앙사고수습본부
질병관리청
법무부 인권국
국가인권위원회
11:50

~12:00

플로어 토론 및 참석자 전체 토론

 

공교육에 적용되는 인공지능 알고리즘의 공공성 확보방안 연구

사단법인 정보인권연구소는 2021년 3월 <공교육에 적용되는 인공지능 알고리즘의 공공성 확보방안 연구> 보고서를 발간하였습니다.

최근 학교 현장에서 인공지능(AI)을 활용한 교육이 활발해짐에 따라, 학생의 개인정보 보호와 데이터 처리 과정의 투명성 확보를 위하여 공교육 적용 인공지능 알고리즘에 대한 관리방안이 마련될 필요성이 있습니다.

이 연구는 공교육에 적용되는 인공지능 알고리즘에 설명가능성, 투명성, 책무성, 책임성 등의 원칙을 적용하기 위한 정책 방안 마련을 모색하였습니다. 이를 위하여 인공지능 알고리즘과 관련한 국내외 일반 규범에 대하여 특히 공공기관 인공지능 윤리를 중심으로 검토하고, 해외 인공지능 알고리즘 등급 관련 규범을 살펴보았습니다(2021년 3월 시점). 더불어 인공지능 영향평가, 정보공개, 정보주체 권리 보장 등 해외 인공지능 모범 정책도 소개하였습니다.

연구는 서울특별시교육청의 위탁연구로 수행되었으며, 사단법인 정보인권연구소 김기중 이사(법무법인 동서양재 변호사)가 연구책임자로, 임완철 연구위원(경상대학교 교수) 및 장여경 상임이사가 공동연구원으로 참여했습니다.

[연구보고서 내려받기]

한편, 서울특별시교육청은 연구 결과를 기반으로 2021년 9월 <인공지능(AI) 공공성 확보를 위한 현장 가이드라인>을 발표하였습니다.

이 가이드라인은 전국 최초로 학생의 개인정보보호와 데이터 처리 과정의 투명성 및 안전성을 확보하기 위해 개발된 현장 가이드라인으로서, 학교에서 인공지능을 도입할 때 ‘인공지능(AI) 등급 평가 매트릭스’와 ‘인공지능(AI) 영향 평가 체크리스트’를 사용해 인공지능에 기반한 결정의 영향을 평가하도록 하였습니다. 함께 참고하시기 바랍니다.

[서울특별시교육청 인공지능(AI) 공공성 확보를 위한 현장 가이드라인]

♣️ 사단법인 정보인권연구소는 시민사회 관점에서 정보인권을 지지하는 대안적 정책을 연구하고 생산하기 위해 2018년 창립하였습니다(이사장: 이영음 방송통신대학교 교수). http://idr.jinbo.net

‘인공지능 식별추적 시스템 구축’ 중단 및 법무부 장관 면담 요청 시민사회 기자회견 개최

개인정보보호법과 국제인권규범 위반, 즉각 사업 중단해야  

2021. 11. 9.(화) 오전 10시 30분, 참여연대 지하 느티나무홀

공익법센터 어필, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 외국인이주노동운동협의회, 진보네트워크센터, 참여연대는 오늘(11/9) 오전 10시30분, 참여연대 지하 느티나무홀에서 기자회견을 개최하고 정부 주도로 진행 중인 생체인식 감시시스템 구축 사업의 즉각 중단과 사후 대책 마련 등을 위해 법무부 장관의 면담을 요청하는 기자회견을 개최했습니다.

지난 10월 21일 국회 법제사법위원회 국정감사에서 법무부와 과기부가 출입국 심사와 공항 보안 목적으로 얼굴인식 및 행동인식 기술을 활용한 실시간 원격 감시시스템을 개발하고, 이 과정에서 1억건이 넘는 외국인의 얼굴 사진과 내국인의 출입국 심사 정보를 동의 없이 국가와 민간기업의 인공지능 학습용 데이터로 제공한 것이 드러났습니다. 얼굴과 같은 생체정보는 특히 쉽게 바꿀 수 없는 거의 유일무이한 정보이며 프라이버시 침해가 치명적입니다. 많은 전문가들은 얼굴인식 기술을 매우 위험한 기술로 보아, 얼굴인식 기술 자체는 물론이고 개발과 사용 기업까지 법률로 통제해야 한다고 강조하고 있습니다. 그런데 이번 사안은 얼굴인식 기술의 안전성을 연구, 관리, 통제해야 할 국가기관이 공적 목적으로 수집한 생체정보를 민간기업의 얼굴인식 활용 기술개발에 제공한 전대미문의 사건입니다. 

시민사회는 이번 사안이 알려진 직후, 생체인식 감시시스템 구축 사업을 즉각 중단할 것을 요구했지만 정부는 여전히 사업을 유지하겠다는 입장입니다. 박범계 법무장관은 ‘출입국 관리라는 본래 목적과 최소한의 범위 내에서 활용하겠다’고 답변했으며, 법무부와 과기부는 “법률에 명시적 규정이 있고, 개인정보를 민간기업에 이전한 게 아닌 처리를 위탁한 것이므로 개인정보보호법상 문제가 없다”는 입장을 밝혔습니다. 개인정보보호 관련 주무기관인 개인정보보호위원회는 유례없는 개인정보 침해 사업의 추진을 인지조차 하지 못하다가 뒤늦게 조사에 착수한 상황입니다. 

공익법센터 인공지능 식별추적시스템에 외국인 개인정보를 수집이용한 전 과정은 개인정보의 목적 외 처리를 금지하고 있는 개인정보보호법 위반입니다. 또한 이는 생체정보를 활용한 실시간 원격 감시 시스템에 대한 규제방안을 마련하고 있는 미국, 유럽 등과 달리, 국가가 적극 나서 민간기업에 대규모의 공적 데이터를 넘겨준 것으로 국민보호라는 국가의 존재 이유조차 저버리는 것입니다. 지난 9월 유엔인권최고대표는 <디지털시대의 프라이버시권 보고서>를 발표하면서 얼굴인식 등 생체정보를 활용한 실시간 원격 감시 시스템은 기본권 침해의 정도가 매우 크기 때문에 고위험 인공지능에 대한 사용유예를 각국에 촉구한바 있습니다. 

시민사회는 기술의 불완전성과 남용에 따른 위험, 사생활침해와 차별적 결과를 야기할 수 있는 생체인식기술을 기반으로 한 시스템 활용을 즉각 중단하고, 국가 및 공공기관, 지자체 등에서 추진하고 있는 얼굴인식 등 생체정보를 활용한 인공지능 시스템 구축 전반을 중단할 것을 요구합니다. 또한 더 늦기 전에 사회적 논의를 시작하여 인권과 헌법에 부합하는 인공지능 규제 방안을 마련할 것을 요구합니다. 끝. 

▣ 기자회견 개요 

    • 제목 : ‘인공지능 식별추적 시스템 구축’ 중단 및 법무부 장관 면담 요청 시민사회 기자회견
    • 일시 장소 : 2021.11.9.(화) 오전 10시 30분 / 참여연대 지하 느티나무홀
    • 공동 주최 : 공익법센터 어필, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 외국인이주노동운동협의회, 진보네트워크센터, 참여연대
    • 순서

- 사회 : 장여경(정보인권연구소 상임이사)
- 발언
서채완 (민주사회를위한변호사모임 디지털정보위원회 변호사)
김민 (진보네트워크센터 활동가)
고기복 (모두를 위한 이주인권문화센터 대표)
- 우리의 요구 낭독 : 이지은 (참여연대 활동가), 이 일 (공익법센터 어필 변호사) 
- 질의 응답


▣ 붙임. 우리의 요구

‘인공지능 식별추적 시스템 구축’은 당장 중단되어야 합니다

지난 2019년부터 법무부와 과학기술정보통신부가 출입국 심사의 고도화와 공항보안을 목적으로 얼굴인식 및 행동인식 기술을 활용한 실시간 원격 감시시스템을 개발하고, 이 과정에서 1억건이 넘는 내외국인의 얼굴 사진과 성별 나이 등의 정보를 아무런 동의 없이 민간기업의 인공지능 개발을 위한 학습용 데이터로 사용하도록 한 것이 드러났습니다. 충격이 아닐 수 없습니다. 이는 국민의 기본권을 보호해야 할 국가기관이 공적 목적으로 수집한 생체정보를 민간기업에 제공한 것으로, 우리사회의 공적 신뢰를 심각하게 훼손하는 일입니다. 

법무부와 과기부가 추진하고 있는 인공지능 식별추적 시스템 구축은 출입국심사의 편의와 공항보안 목적 이외에도 국내 인공지능 산업 육성이 중요한 목적으로 제시되고 있습니다. 전세계적으로 위험한 기술로 인식, 중단하거나 유예하고 있는 얼굴인식 인공지능 활용 시스템을 국가기관이 나서서 설계하고 도모한 것은 위법 여부를 떠나 국민이 위임한 공권력을 잘못 사용한 것입니다. 무엇보다 대량 감시의 위험이 있는 실시간 추적감시 시스템 구축은 민주주의 국가에서 용납해서도 용납되어서도 안 됩니다. 

미국, 유럽 연합 등 주요 국가들은 생체정보를 활용한 실시간 원격 감시 시스템에 대한 규제방안을 마련하고 있습니다. 또한 관련 전문가들은 “얼굴인식 기술을 사용한다면 유례없는 규모의 집단감시가 발생할 수 있다”며 “얼굴인식 기술 자체는 물론이고 개발·사용 기업까지 법률로 통제해야 한다”고 주장하고 있습니다. 미국의 경우 구글, 아마존, IBM, 마이크로소프트를 포함한 일부 기업들조차 엄격한 규제가 도입될 때까지 얼굴 인식 시스템 사용을 금지해야 한다고 주장하고 있는 실정입니다. 유럽의회 또한 인공지능 개인 식별 시스템이 소수 민족·여성·노인 등 사회적 약자들을 오인하는 비율이 높게 나타나는 등 차별적 결과에 대한 우려에서 생체정보를 이용한 원격 식별 등을 반대하는 등의 내용을 담은 결의안을 채택하였습니다. 뿐만 아니라 유럽연합이 지난 4월 발의하여 논의 중인 인공지능법안에 따르면 공개적으로 접근 가능한 공간에서의 법 집행 목적의 실시간 원격 생체인식 시스템을 ‘허용해서는 안될 위험’이나 ‘고위험’ 인공지능으로 규정하고 원칙적 금지를 요구하고 있습니다. 지난 9월 유엔인권최고대표는 <디지털시대의 프라이버시권 보고서>를 발표하면서 얼굴인식 등 생체정보를 활용한 실시간 원격 감시 시스템은 기본권 침해의 정도가 매우 크기 때문에 얼굴인식 기술 등 고위험 인공지능에 대한 사용유예를 각국에 촉구하였습니다. 

새로운 기술 도입이 가져올 위험에 대한 충분한 예측과 위험관리 시스템 구축은 물론이고 무엇보다 인권과 프라이버시에 미칠 영향에 대한 사회적 논의와 합의가 먼저여야 한다는 것은, 미국과 유럽 등에서 얼굴인식 인공지능과 관련하여 벌어진 사회적 논란과 얼굴인식 기술 사용에 대한 규제 도입 진행 과정을 보면 자명해 보입니다. 그러나 법무부와 과기부는 오히려 이들 국가에서의 논란과 이를 해결하기 위한 논의 과정에서 오는 시장 공백을 일종의 ‘기회’로 보아 내국인뿐 아니라 외국인들의 생체정보를 무단으로 기업의 얼굴인식 인공지능식별추적 시스템 개발용 학습용데이터로 제공한 것입니다. 

법무부가 해당 사업에 대한 법적 근거로 제시한 출입국관리법 제12조의2는 외국인이 ‘입국시’ ‘본인임을 확인하는 절차’에 ‘얼굴에 관한 정보를 제공’하는 것일 뿐 민간기업의 인공지능 식별시스템 개발용으로 처리할 수 있다는 것은 아닙니다. 따라서 인공지능 식별추적시스템에 외국인 개인정보를 수집·이용한 전 과정은 개인정보의 목적 외 처리를 금지하고 있는 개인정보보호법 위반이며, 민감정보인 생체인식정보의 처리에서 요구되는 법적 요건도 전혀 준수하지 않은 것입니다. 정부부처가 나서서 민감정보들을 위법하게 민간에 넘긴 것은 국제적으로도 유례 없는 정보인권 침해로, 법무부와 과기부는 즉각 관련 사업을 중단하고 국민들에게 사과부터 하는 것이 순서일 것입니다.

이번 사건은 개인정보 활용에 대한 법적 근거나 정보주체의 동의 여부를 넘어, 국가가 공개된 장소에서 상시적으로 생체정보를 수집하고 즉시 데이터베이스와 대조하여 신원을 확인하고 돌발행동을 통제하도록 허용할 것인지 등 실시간 감시 방식의 위험성과 인권 침해 가능성을 면밀히 검토하지 않고 섣불리 편익만 내세워 자초한 인권 참사입니다. 기술의 불완전성과 남용에 따른 위험, 사생활침해와 차별적 결과를 야기할 위험이 큰 생체인식기술을 기반으로 한 시스템 활용은 즉각 중단해야 할 것입니다. 차제에 국가 및 공공기관, 지자체 등에서 추진하고 있는 얼굴인식 등 생체정보 활용 인공지능 시스템 구축 전반을 중단하고 더 늦기 전에 사회적 논의를 시작하여 인권과 헌법에 부합하는 인공지능 규제 방안을 마련할 것을 요구합니다.  

  • 우리의 얼굴이 차별적 감시도구로 쓰여서는 안된다. 국가 및 공공기관이 추진하는 생체정보 활용 인공지능 시스템을 전면 재검토하라
  • 우리의 얼굴은 기업의 재산이 아니다. 불법적으로 사용된 모든 생체인식정보와 이를 통해 만들어진 모든 모델과 알고리즘, 시스템을 폐기하라
  • 정부는 인공지능이 인권과 안전, 민주주의에 미치는 영향을 평가하고 적정한 규제를 마련하라. 특히 공공장소에서 원격으로 사람을 식별하고 추적하는 얼굴인식 개발 중단하라

2021.11.9.

공익법센터 어필, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 외국인이주노동운동협의회, 진보네트워크센터, 참여연대

 

[내려받기] 20211109_보도자료_인공지능 식별추적 시스템 구축 중단 요구 기자회견

 

코로나19 역학조사 지원시스템과 자동화된 개인정보 처리

[이슈리포트 내려받기] 코로나19역학조사지원시스템과 자동화된 개인정보 처리

[ENGLISH/PDF] Epidemic Intelligence Support System and Automated Processing of Personal Data in South Korea

사단법인 정보인권연구소는 이슈리포트 <코로나19 역학조사 지원시스템과 자동화된 개인정보 처리>를 발간하였습니다.

<코로나19 역학조사 지원시스템>은 코로나19 대유행 이후로 감염병 역학조사 절차를 자동화하기 위하여 2020년 3월 26일부터 정식으로 운영되었습니다. 역학조사 지원시스템은 공공과 민간의 여러 기관에서 확진자의 개인정보를 수집하고 처리하여 그 동선을 자동으로 분석하는 것을 목표로 합니다. 그러나 고도로 정밀해지는 민감한 개인정보의 분석이나 예측, 또 그 시스템의 운영 목적과 처리 방식을 제한하거나 정보주체의 권리를 보장하는 법률 규정은 마련되어 있지 않습니다.
한국의 개인정보 보호법 체계는 ‘자동화된 개인정보 처리’에 대하여 서면 등을 통한 일반 개인정보 처리와 구분하여 다르게 규율하지 않아 왔습니다. 문제는 디지털 통신 기술의 발달로 점점 더 많은 양과 더 다양한 유형의 개인정보가 더 빠른 속도로 처리되고 있고, 최근에는 개인정보 처리 방식에 인공지능 기술이 적용되면서 개인에 대한 자동화된 평가, 분석, 예측은 물론 자동화된 의사결정까지 이루어지고 있다는 사실입니다. 이러한 개인정보 처리 방식의 변화는 수기나 문서로 개인정보가 처리되던 방식에 비하여 개인정보에 대한 권리 등 정보주체가 가진 기본권의 본질적인 내용을 침해할 가능성이 더욱 커짐에도 불구하고 그 법률적 통제에 대한 논의는 충분히 이루어지고 있지 않습니다.
한국의 시민사회는 이처럼 자동화된 개인정보 처리에서 문제가 되는 인권을 ‘정보인권’이라고 명명하며 헌법에서 보호하는 기본권으로서 보장할 것을 요구하여 왔습니다. 보고서는 2장에서 우리 사회에서 자동화된 개인정보 처리와 기본권에 대한 문제의식이 발전하여 온 경과에 대하여 돌아봅니다. 3장은 프로파일링 등 자동화된 개인정보 처리와 관련하여 유럽연합 등 국제사회가 수립하여 온 규범을 살펴보고, 4장에서 민감정보 프로파일링 시스템으로서 역학조사 지원시스템의 문제를 검토합니다. 5장에서는 정보주체의 권리를 보호하는 역학조사 지원시스템의 법률적 규율 방안을 제시하고 6장의 결론으로 마무리합니다.

이 보고서는 인권재단 사람의 후원으로 제작되었으며, 국문과 함께 영문 보고서로도 발간되었습니다.
지구적 팬데믹 위기 속에도 인권을 보장하는 방역 정책과 사회적 연대를 위하여 국내외 인권활동가들과 문제 의식을 나누고 사회적 대화를 시작하고자 합니다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

법무부x과기부의 대규모 생체인식 감시시스템 구축, 당장 중단해야

─입국 외국인의 얼굴정보 수억건 무단 이용은 위법적이고 국제인권규범을 위반해
─실시간 원격 얼굴인식 기술 등 고위험 인공지능에 사용 유예와 규제 필요

1. 법무부와 과학기술정보통신부가 출입국 심사와 공항 보안을 이유로 얼굴인식 및 행동인식 기술을 활용한 실시간 원격 감시시스템을 개발하고, 이 과정에서 1억건이 넘는 외국인의 얼굴 사진과 내국인의 출입국 심사 정보를 아무런 동의 없이 국가와 민간기업의 인공지능 학습용 데이터로 이용한 것으로 드러났다. 우리 단체들은 위법할 뿐만 아니라 국제인권규범에도 현저히 위배되는 생체인식 감시시스템의 구축을 즉각 중단할 것을 정부에 촉구하며, 외국인, 내국인 피해자들과 함께 법적 대응에 나설 것임을 밝힌다.

2. 2019년, 법무부와 과학기술정보통신부가 부처 협력을 맺으며 시작된 ‘인공지능 식별추적 시스템 구축 사업’은 크게 두 가지 목표를 가지고 있다. 첫째는 감시카메라를 통해 공항 이용자의 신원을 자동으로 식별하고 위험 상황을 실시간으로 탐지하는 등 공항 출입국관리 시스템을 고도화하는 것이고, 둘째는 정부가 보유한 얼굴 사진 데이터를 국내 인공지능 업체에 제공해 이들 업체가 보유한 얼굴인식 및 행동인식 모델과 솔루션을 고도화시키는 것이다.

3. 우리는 먼저 어떠한 사회적 논의와 합의도 없이 실시간 원격 감시 시스템을 구축하려는 법무부의 계획에 심각한 우려를 표한다. 사업계획서 및 정보통신산업진흥원의 보고서에 의하면 해당 사업은 출입국 심사 중 본인확인을 위한 1:1 얼굴인식 뿐만 아니라 공항 내 CCTV 영상과 데이터베이스 간 실시간 1:N 얼굴인식, 이상행동 탐지 구축을 목표로 하고 있다. 하지만 얼굴인식 등 생체정보를 활용한 실시간 원격 감시 시스템은 기본권 침해와 차별적 결과를 가져오는 심각한 위험성을 갖고 있어 전세계적으로 규제와 통제가 논의되고 있다. 미국은 샌프란시스코를 시작으로 각 지방정부가 법 집행기관의 얼굴인식 기술 사용을 규제하는 법안을 통과시켰고 관련된 연방 법률 또한 논의되고 있다. 유럽연합은 지난 4월 공개한 유럽연합 인공지능 법안 초안을 통해 공개적으로 접근 가능한 공간에서의 법 집행 목적의 실시간 원격 생체인식 시스템을 ‘용납할 수 없는 위험’ 또는 ‘고위험’ 인공지능으로 규정하고 원칙적으로 금지됨을 밝혔다. 나아가 유럽의회는 법률 제정 전 얼굴인식 시스템에 대한 사용 유예를 각국 정부에 요구하는 결의안을 발표하기도 했다.

4. 한국도 이러한 규제 책임에서 예외가 될 수는 없다. 지난 9월, 유엔인권최고대표는 <디지털시대의 프라이버시권 보고서>를 통해 얼굴인식 기술 등 고위험 인공지능에 대한 사용유예를 요구하였는데, 이 보고서는 한국 정부도 참여한 유엔인권이사회 2019년 결의 42/15에 의해 준비된 것이다. 현재 유엔인권이사회에서 준비중인 결의안 초안에서는 법적 근거가 없는 생체인식 기술의 사용을 특히 인권침해가 중대한 것으로 명시하고 있으며, 이러한 원격 생체인식 기술이 국제인권법이 보장하는 인권을 침해하지 않도록 법적 조치를 취할 것을 각국 정부에 촉구하였다. 특히 유엔 인종차별철폐위원회는 인종 프로파일링을 매우 민감하고 금지가 요구되는 개인정보 처리로 보고 있으며 테러 방지 등의 목적을 포함한 모든 경우에서 인종 프로파일링을 엄격히 금지하도록 권고한 바 있다. 그러나 법무부는 위와 같은 국제인권법상의 법적 의무를 위반하여 특정한 외국인 집단을 고위험군 등으로 평가하는 등 편향적으로 프로파일링하고 차별을 야기할 가능성이 있는 인공지능 식별추적시스템을 개발하고 있다. 유엔인권최고대표 및 유엔인종차별철폐위원회 등 조약기구의 권고는 헌법 제6조 제1항에 따라 엄연히 국내법적 효력이 있는 국제인권조약의 공적 해석이라고 볼 수 있다. 따라서 법무부가 구축하려는 인공지능 식별추적시스템은 국내법적으로도 이미 그 사용과 개발이 중단되어야 할 엄격한 규제의 대상에 속한다.

5. 또 다른 심각한 문제는 법무부 사업에서 대량의 외국인 생체정보가 어떠한 동의나 법적 근거 없이 목적외로 이용되었다는 것이다. 이러한 생체정보의 목적외 이용은 현행 개인정보보호법을 명백히 위반하는 것이다. 해당 사업은 계획 단계부터 민간기업의 법적이고 경제적인 애로사항을 해결하기 위하여 법무부가 보유한 출입국 관련 데이터를 활용해 인공지능 기술 개발을 고도화하는 것을 목표로 했다. 실제 이 사업에서 출입국 외국인의 얼굴 사진 1억건이 학습용 데이터, 1천만건의 사진이 검증용 데이터로 처리된 것으로 확인되었다. 2010년 출입국관리법 개정으로 한국에 입국하는 외국인의 지문과 얼굴 정보 등 생체정보 제공이 의무화된 점을 이용하여 법무부는 수억건의 외국인 생체정보를 출입국 시 본인확인 용도를 넘어서 이용하도록 개방하였고, 국내 업체들은 이 인권침해적인 기술 개발로 특허를 출원하여 국제 무대에서 영업 중이다. 인공지능 식별추적시스템에 외국인 개인정보를 수집·이용한 전 과정은 개인정보의 목적외 처리를 금지하고 있는 개인정보보호법을 위반하였으며, 민감정보인 생체인식정보의 처리에서 요구되는 법적 요건도 전혀 준수하지 않았다. 법무부 등은 해당 사업에 대한 법적 근거를 출입국관리법 제12조의2로 보고 있으나, 해당 조항은 외국인이 ‘입국시’ ‘본인임을 확인하는 절차’에 ‘얼굴에 관한 정보를 제공’하는 데 한정되어 있을 뿐이다.

6. 한편 법무부 등은 외국인 인권침해에서 더 나아가, 출입국 심사 과정에서 제출된 내국인의 얼굴사진 또한 이미 이용했거나 이용하기 위해 준비중이다. 내국인 심사정보 데이터베이스는 2020년에 이미 인공지능 실증랩에 이관·구축되었으며 추후 시스템 고도화를 위해 이를 이용할 계획이고, 나아가 현재 공항 출입국 관리 구역에 일련의 카메라 시스템을 구축해 인공지능 학습을 위한 얼굴인식 및 행동인식 데이터를 수집하고 있는 것으로 보인다. 이 또한 어떠한 동의나 법적 근거가 없는 위법 행위다.

7. 우리 단체들은 현행 개인정보 보호법과 국제인권규범을 정면으로 위반한 법무부 인공지능 식별추적시스템 구축 사업의 위험성에 심각한 우려를 표하며 정부에 이 사업의 즉각 중단을 요구한다. 우리 단체들은 공익 소송으로 이 사업으로 자신의 개인정보가 위법적으로 처리된 외국과 국내의 피해자들과 함께 법적 대응에 나설 것이다. 나아가 국회가 생체인식 기술 기반의 대규모 감시 시스템 등 고위험 인공지능의 사용을 유예하고 이를 규제하는 법률적 대책을 마련할 것을 촉구한다.끝

2021년 10월 21일

공익법센터 어필, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 외국인이주노동운동협의회, 진보네트워크센터

 

[관련기사 참조]