정보인권연구소 작성

공익소송 패소비용 제도개선을 위한 민사소송법 등 개정방안 국회토론회 개최

[내려받기] PI20220112공익소송토론회자료집

 

일시 장소 : 2022. 1. 12.(수) 오후 2시~4시, 웨비나 / 유튜브 생방송

1. 취지와 목적

  • 국가, 행정청, 지방자치단체, 대기업 등을 상대로 제기되는 공익소송의 경우 입증이나 경제적 부담 측면에서 원고에게 불리하고 기존의 제도 및 판례의 개선을 촉구하는 속성상 패소 가능성이 적지 않음. 공익소송이 승소한 경우 그 이익은 대다수 국민에게 돌아가고, 사회 제도적 변화로 이어지기도 함. 그러나 패소하는 경우 공익소송의 특수성이 전혀 고려되지 않고 여타 소송과 마찬기자로 민사소송법의 소송비용 규정이 그대로 적용되어 패소당사자가 소송비용을 부담함. 그동안 개인 및 시민사회단체들이 불합리한 제도개선, 국가권력 남용 억제 등을 목적으로 다양한 공익소송을 제기해 왔으나, 수많은 공익소송에서 패소비용 부담으로 고통을 겪었을 뿐 아니라 이는 이후 또다른 소송을 수행하는 데 상당한 걸림돌이 되어 왔음.
  • 이에 공익소송 제기 주체들이 패소 비용에 대한 두려움으로 공익 소송의 동인을 상실하지 않도록 제도적 장치를 마련할 필요가 있다는 지적이 계속 있었음. 그동안 대한변호사협회가 2018. 11. 공익소송 소송비용 문제에 대한 토론회를 열고 법안 개정등 제도 개선 필요성을 제기한 바 있고, 2020.1. 공익인권 시민사회단체들 주최로 공개 토론회를 개최하였으며 2021. 3. 더불어민주당 백혜련 의원과 대한변협, 공익인권 시민사회단체들이 공동으로 공익소송 패소비용 제도 개선 취지의 토론회를 개최하여 사회적 공감대는 형성되었다고 볼 수 있음.
  • 이제 구체적인 제도 개선방안을 확정하고 관련 법개정에 착수하여 제도개선으로 나아갈 수 있도록 더불어민주당 박주민 의원, 대한변호사협회, 민주사회를 위한 변호사모임 공익인권변론센터, 정보인권연구소, 진보네트워크센터, 투명사회를 위한 정보공개센터, 참여연대, 천주교인권위원회가 공동으로 그간의 토론과 논의를 바탕으로 구체적인 입법방안을 논의하는 국회 토론회를 개최함.

2. 개요

  • 제목 : 공익소송 패소비용 제도 개선을 위한 민사소송법 등 개정 방안 국회 토론회 개최
  • 일시 장소 : 2022. 1. 12. 수요일 14:00 / 웨비나, 유튜브 박주민 채널
  • 공동주최 : 더불어민주당 박주민 국회의원, 대한변호사협회, 민주사회를 위한 변호사모임 공익인권변론센터, 정보인권연구소, 진보네트워크센터, 투명사회를 위한 정보공개센터, 참여연대, 천주교인권위원회
  • 프로그램
    • 사회 : 박종운 대한변협 공익소송 등 소송비용 제도개선 TF 위원장
    • 발제 : 박호균 대한변협 공익소송 등 소송비용 제도개선 TF 위원
    • 토론
      - 이종구 단국대 법학과 교수
      - 이승은 법원행정처 사법지원실 사무관
      - 허진민 참여연대 공익법센터 소장
      - 김창형 법무부 국가소송과 사무관
      - 정제형 재단법인 동천 변호사
    • 종합토론 및 질의응답

3. 등록 안내

* 등록 후에는 웨비나 참가에 대한 정보가 포함된 확인 이메일을 받게 됩니다.

[논평] 돌아온 ‘챗봇이루다’는 과연 안전할까?

위법 수집 학습데이터 재사용 여부, 사기업의 영리목적 상품· 서비스개발이 ‘과학적 연구’인지 등 여전히 미해결

동의 없는 가명정보 사용은 ‘전사회 공익’으로 공유되는 연구결과에 한정하도록 개보법 개정해야

챗봇 ‘이루다’가 내년 1월 베타테스트를 거쳐 정식 서비스로 돌아온다고 한다. 지난해 12월 23일 서비스 개시 후 성차별⋅혐오 발언, 회원 개인정보 무단 활용 등으로 출시 3주 만에 서비스를 중단하고 개인정보보호법 위반으로 과징금 5,550만 원과 과태료 4,780만 원을 부과받은 지 근 1년 만이다. 그러나 당시 제기된 문제 중 다수는 여전히 해결되지 않고 지금도 논쟁 중이다. 개발사 스캐터랩은 다른 서비스 이용 회원의 대화데이터 1억 건을 동의 없이 수집, 목적 외 이용하여 위법이 확인되었는데, 이를 파기하겠다고 한 적이 없어 이번 재출시 서비스 개발에 사용한 것이 아닌지 의심스럽다. 이 부분에 대해 개발사 스캐터랩은 명확히 밝여야 할 것이다. 만약 우려가 사실이라면, 이 또한 확인된 법위반 상태를 교정한 것이 아니라 ‘재범’이라고 할 수 있을 것이다. 최근 미국, 영국, 호주, 프랑스 등 각국 개인정보보호 감독기관들은 위법한 인공지능 학습데이터의 수집 및 사용의 중단을 요구하는 데서 더 나아가 해당 데이터의 삭제를 명령하였다는 사실을 참고할 필요가 있다. 

개인정보보호위가 지난 4월 챗봇 이루다 개발사 스캐터랩에 대하여 인정한 법위반 사실은 △스캐터랩이 ‘연애의 과학’과 ‘텍스트앳’이라는 서비스 이용 회원들의 대화내용을 수집하면서 챗봇 이루다의 학습용데이터로 사용한다는 사실을 명시하지 않고 정보주체의 명시적 동의를 받지 않은 점, △성관련 심리테스트 서비스하면서 응답결과를 불법 보관하여 민감정보에 대해 고지 및 별도 동의 받지 않은 점, △60만명의 회원정보 일부, 카카오톡 대화문장 94억여 건을 회원탈퇴 후에도 별도 학습용 DB로 저장하고 이루다 개발에 사용한 점, △1년 이상 서비스 미이용자들의 개인정보를 파기하거나 분리 보관하지 않은 점, △미성년자의 대화내용 수집, △개발자들의 마켓 Github에 테스트샘플 100건의 카카오톡 대화 포함 공개한 점이었다. 그러나 이 외에도 중요한 법적 쟁점을 던져주었다. 카카오톡 대화를 수집하면서 상대방의 동의를 얻지 않아도 되는지, Github 등 개발자들의 공개 플랫폼에 가명정보를 올리는 것을 과학적 연구의 일환으로 볼 수 있는지, 기업 내부의 영리목적의 챗봇 개발을 과학적 연구로 볼 수 있는지 등은 여전히 해결되지 않은 과제이다. 그럼에도 사건을 조사했던 개인정보보호위, 당사자인 개발사도 그 어떤 명확한 대답을 내놓지 않은 상태에서 사실상 동일한 서비스의 인공지능 제품을 내놓는 것에 우려를 표하지 않을 수 없다. 

특히 지난 4월 심의에서 개인정보보호위가 사기업 내부의 영리목적의 상품서비스 개발을 ‘과학적 연구’라는 범위로 판단한 것은 향후 기업의 다양한 AI상품, 서비스 개발을 애초 정보주체로부터 동의받은 수집목적과 무관하게 양립가능한 것으로 해석될 수 있다는 점에서 시민사회의 우려 의견이 컸다. 방대한 학습데이터가 중요한 AI산업에서 앞으로 다종다양한 상품과 서비스 개발이 이루어질 것인데, 기업들이 장래 불명의 마케팅이나 상업적 이용을 위해 수집 목적 달성 후에도 개인정보를 무한대로 보관하고 과학적 연구라는 미명하에 마음대로 활용한다면, 제2의, 제3의 챗봇이루다 사태는 반복될 것이 틀림없다. 이는 기업과 소비자, 이용자 간의 신뢰를 깨트릴 뿐 아니라 장기적으로 인공지능 산업 자체에도 부정적 결과를 초래할 것이다. 근본적으로 사기업의 영리목적 AI 제품 서비스 개발조차 ‘과학적 연구’로 해석할 여지가 있는 개인정보보호법의 ‘과학적 연구’ 범위를 제한하는 법개정이 이루어져야 한다. 유럽의 GDPR의 경우 ‘과학적 연구’에 대하여 연구자, 과학적 지식 및 기술적 기반을 강건하도록 하는 목적에 부합하고 연구 결과가 유럽연합 전역에 공유, 환원되는 것을 전제로 함을 전문에서 밝히고 있다. 마찬가지로 방식이 과학적이라고 해서 사적기업의 독점적 상품, 서비스의 연구개발에까지 동의를 면제하는 것은 정보주체의 동의권을 사실상 무력화하는 것이며 목적제한, 최소수집이라는 개인정보보호의 가장 기본적 원칙을 형해화 한다는 점을 인식해야 한다. 

또한 자동화된 의사결정에 이를 수 있는 챗봇이나 인공지능이 등장할 때 정보주체를 보호하기 위한 법제 마련 등 관련 제도 개선이 반드시 이루어져야 한다. 특히 주요 영역에서 사용되는 인공지능 알고리즘이 차별, 편향적인 결과물을 산출하는데 그 시정이 불가능하다면 폐기하는 것이 공익에 부합한다. 인간의 사회적, 역사적 오류와 편향을 담은 학습데이터의 내재적 한계가 혐오와 차별을 용인하는 이유가 될 수는 없다. 이에 이탈리아, 네덜란드 등 각국 개인정보보호 감독기관들은 배달플랫폼 알고리즘의 노동자 차별과 사회복지 급여 알고리즘의 신청자 차별에 대하여 단호한 제재 조치에 나서고 있다. 그러나 한국의 개인정보보호위가 9월 국회에 제출한 개인정보보호법 2차 개정안에는 인공지능 시대, 신기술 환경에서 위협받는 정보주체의 권리 보호 장치가 여전히 부족하다. 더욱이 개인정보보호위는 2022년도 업무 계획에서 “가명정보·마이데이터 양대 축으로 데이터 경제 활성화”를 내세우기도 하였다. 과기부나 산자부 등과 같이 산업육성 부처에서나 제시할 법한 내용을 “인간의 존엄성”과 “개인정보보호”를 소관임무로 부여받은 기본권 보호 부처에서 발표했다는 점이 놀랍다. 개인정보보호 감독기구가 챗봇 이루다 사태를 통해 채비해야 할 업무는 인공지능 등 새로운 신기술의 시대에 취약한 정보주체의 권리 보호 방안을 마련하고, 기업의 자율적 윤리기준을 넘어 의무와 책임이 동반되는 명확한 법규 마련이라는 점을 잊어서는 안될 것이다. 끝.

【참고】 이루다 관련 시민사회 대응 경과 (2021년)

개인정보보호위원회는 정보주체의 권리를 보호하는 소명을 최우선시 해야 한다

1. 어제(12/22) 개인정보보호위원회는 2022년 업무계획을 발표하면서 주요 과제로 ① 공공부문 개인정보 과다수집 원천 차단 및 생체·민감정보 안전관리 강화 ② 사각지대 없는 국민 개인정보보호 강화 ③ 개인정보 유출 신속 대응체계 구축 ④ 가명정보·마이데이터 양대 축으로 데이터 경제 활성화를 밝혔다. 정보주체의 개인정보를 보호하기 위하여 활동해 온 우리 단체들은 개인정보보호위원회가 내년도 업무에서 정보주체 권리 보호 기구로서의 소명을 우선시할 것을 당부한다.

2. 개인정보보호 감독기구는 정보주체 국민의 기본권을 보장하기 위하여 막강한 독립성과 권한을 부여하도록 한 국제 규범 하에서 설치 운영되는 제도이다. 지난 2020년 8월 개인정보보호위원회가 중앙행정기관으로 격상된 것은 데이터 경제가 강조되는 지능정보화시대에 거대 권력을 가진 국가와 기업 처리자로부터 정보주체의 권리를 보다 효과적으로 보호하기 위한 조치였음을 우리는 기억하고 있다. 그러나 어제 발표된 업무계획에서는 개인정보보호위원회에 대한 기대와 우려가 크게 교차할 수밖에 없어 우리는 아쉬움을 표한다.

3. 우선 우리 단체들은 “’22년 상반기에 지자체 CCTV 관제센터 실태점검 및 인공지능 학습에 사용되는 생체정보 수집·활용 실태점검을 추진”하겠다는 계획을 환영한다. 올해는 특히 인공지능 얼굴인식을 포함하는 대규모 국책 사업들의 개인정보보호법 위반 논란이 컸던 한 해였다. 개인정보보호위원회는 논란이 된 법무부, 과학기술정보통신부, 수성구, 부천시의 사업도 엄격하게 점검하고 위법사항이 밝혀질 경우 응당한 조치를 취해야 할 것이다. 특히 개인정보보호위원회가 법무부나 과학기술정보통신부 등 중앙행정기관을 상대로 주어진 권한을 발휘하여 제 역할을 할 것인지 우리는 지켜볼 것이다.

4. 더불어 개인정보보호위원회가 아동청소년, 노동자, 빅테크 소비자 등 취약한 정보주체 보호 계획을 밝힌 데 대해서도 우리는 환영한다. 권력관계에서 취약한 이들 정보주체의 보호는 최근 세계 여러나라 개인정보보호 감독기구들의 관여도가 부쩍 증가한 주제이며, 취약한 정보주체에게 동의가 강요되는 상황을 개선하는 것이 주요 과제이다.

특히 아동에 대한 특별한 보호는 아동이 권리 주체라는 관점에서 추진되어야 한다. 아동의 동의를 단순히 법정대리인의 동의로 대체하는 방식의 보호가 아니라, 아동이 친화적 방식으로 설명을 듣고, 스스로 진정한 동의 등 정보주체로서의 권리를 행사할 수 있도록 절차를 구축해야 한다. 나아가 영리목적의 개인정보 처리에 있어 아동의 개인정보에 대한 특별한 보호가 필요하다. 아동의 개인정보에 대한 가명처리, 영리목적의 활용, 프로파일링 등에 대한 보다 구체적인 규제가 필요하다.

또한, 코로나19 위기 이후 회사가 노동자의 건강 등 민감정보를 수집하고 재택 및 유연 근무 환경 하에 디지털 노동 감시가 크게 늘어난 것 또한 문제이다. 인공지능 알고리즘을 이용하여 완전히 또는 부분적으로 자동화된 방식으로 노동자를 분석, 평가, 예측하는 일 또한 크게 늘었다. 이에 개인정보보호위원회가 고용노동부 등 소관부처와 협의하여 근로 환경에서 노동자 개인정보의 처리 및 감시설비의 설치·운영을 원칙적으로 제한하는 제도개선에 나설 필요성이 있다.

최근 세계 각국 개인정보보호 감독기구들이 빅테크 기업들의 맞춤형 광고와 알고리즘 추천 등에서 이용자의 개인정보에 대한 권리를 보호하기 위하여 노력하고 있음을 참고할 필요도 있다. 부당하고 불투명한 이용자 개인정보 처리와 얼굴인식 등 민감한 민감정보의 위법한 처리에 대해서는 해당 데이터를 삭제하는 등 단호하게 대처할 필요가 있다.

5. 그러나 우리 단체들은 개인정보보호위원회가 업무계획 중에 정보주체 보호보다 산업 활성화를 내세운 부분에 대하여 심각한 우려를 표하지 않을 수 없다. ‘데이터 경제 활성화’와 ‘전 국민 마이데이터 활성화’가 개인정보보호 감독기구의 소관인지 의문이다.

개인정보보호위원회는 헌법상 개인정보 자기결정권을 보호하기 위하여 수립된 독립된 중앙행정기관으로서 개인정보보호법 또한 “개인정보의 처리 및 보호에 관한 사항을 정함으로써 개인의 자유와 권리를 보호하고, 나아가 개인의 존엄과 가치를 구현함을 목적으로” 하고 있다. 마이데이터가 개인정보 이동권 등 정보주체의 권리 행사를 넘어 개인정보처리자인 기업의 사업을 ‘활성화’, ‘가속화’하기 위한 것이라면 개인정보보호위원회의 역할을 넘어선 것이다.

이를테면 “공공부문에 한정된 자체결합을 민간으로 확대”하는 사업에 대한 개인정보보호위원회의 역할은, “가명정보 활용을 가속화”하여 “데이터 경제 활성화”를 하는 것이 아니라 마이데이터 사업이 정보주체의 개인정보 자기결정권을 침해하지는 않는지 평가하고 보호 조치를 취하는 것이어야 한다. 그러나 이 업무계획으로 보건대 개인정보보호위원회 내부에서 자기 역할을 제대로 인식하고 있는지 의문스러울 뿐 아니라 매우 우려스럽다.

6. 최근 국가인권실태조사에서는 국민 10명 중 8명이 개인 신상정보 유출을 우려하고 있다고 나타났다. 처리자인 국가와 기업의 개인정보 오남용이 커질수록 초연결시대, 지능정보화시대 개인정보처리에 대한 정보주체들의 신뢰는 계속 줄어들 것이다. 이런 상황에서 개인정보보호위원회의 막대한 권한은 국민의 개인정보를 보호하기 위하여 주어진 것임을 잊지 말아야 할 것이다. 우리 단체들은 개인정보보호위원회가 정보주체의 개인정보를 보호하기 위한 제 역할을 다하는지 앞으로도 계속 지켜볼 것이다.

2021년 12월 23일

민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대

정보주체 관점에서 본 개인정보보호법 개정 방향 국회토론회

[내려받기] 정보주체의 관점에서 본 개인정보보호법 개정방향_토론회 자료집

1.취지와 목적

  • 2020년 1월 국회를 통과한 개인정보보호법은 개인정보의 목적 외 활용 및 제공의 범위를 확대하고 정보주체의 동의 없이 개인정보를 활용할 수 있도록 하는 데 치우쳐 있을 뿐 빅데이터 시대에 개인정보를 보호할 수 있는 장치는 없었음. 이에 1차 개정된 법의 문제점을 보완하고 신기술 환경에서 더욱 위험에 노출될 수 있는 정보주체의 권리를 보호하는데 중점을 두는 방향의 2차 개정의 필요성이 요구됨
  • 그러나 지난 9월 28일 개인정보보호법 2차 개정안이 국회에 제출되었지만, 1차 개정에 담지 못한 정보주체의 권리 강화 방안이 여전히 미흡하다는 비판이 있음. 이에 정보주체의 관점에서 개인정보보호위원회의 2차 개정안의 문제점 및 2차 개정안에 반영되지 못한 의제 등을 검토하여 국회 논의 과정에 정보주체의 입장이 반영될 수 있도록 하고자  아래와 개요와 같이 국회 토론회를 개최함

2.개요

  • 제목 : 국회 토론회 <정보주체 관점에서 본 개인정보보호법 개정 방향 >
  • 일시 : 2021년 12월 16일(목) 오후 2시~5시
  • 장소 : 유튜브 참여연대 채널에서 생중계
  • 공동 주최 : 더불어민주당 민병덕 국회의원, 정의당 배진교 국회의원, 경실련, 민변 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대
  • 참가자
      • 사회 : 한상희 (참여연대 정책자문위원장, 건국대법전원 교수)
      • 발제1.  정보주체의 권리 강화를 위한 개선방안  / 김보라미 (경실련 소비자정의센터 운영위원, 변호사)
      • 지정 토론 : 권건보 (아주대학교 법학전문대학원 교수)
      • 발제2. 개인정보처리자의 책임성 강화 방안 / 서채완 (민변 디지털정보위원회 간사, 변호사)
      • 지정 토론 : 최경진 (가천대학교 법학과 교수)
      • 종합토론
        - 이진규 (네이버 CPO)
        - 오병일 (진보네트워크센터 대표)
        - 이병남 (개인정보보호위원회 개인정보보호정책과 과장)
        - 김보라미 (경실련 소비자정의센터 운영위원)
        - 권건보 (아주대학교 법학전문대학원 교수)
        - 서채완 (민변 디지털정보위원회 간사)
        - 최경진 (가천대학교 법학과 교수)

디지털 노동감시 보고서 및 대응 가이드

  

디지털 노동감시와 관련하여 시민사회가 발간한 실태조사 보고서와 대응 가이드가 나왔습니다. 양대 노총과 시민사회가 함께 노동감시 대응 사업단을 꾸려 진행한 이 사업은 재단법인 공공상생연대기금이 지원하고 진보네트워크센터가 수행하였습니다.
정보인권연구소에서는 상임이사가 노동감시 대응 사업단에 함께 참여하였습니다.

정보통신기술이 고도화 됨에 따라 노동감시는 디지털화되고 점점 더 은밀하게 진행되고 있으며, 일반적인 개인정보는 물론 취향이나 라이프스타일 등 민감한 개인정보까지 수집할 수 있게 되었습니다. 이런 노동감시의 디지털화는 노동자 개인의 인권을 침해하고 업무 스트레스를 증가시킬 뿐만 아니라, 노동조합의 조직이나 활동을 위축시킬 수 있기 때문에 노동조합 차원에서도 디지털 노동감시에 대응할 필요가 있습니다. 이에 노동감시의 실태와 변화 양상을 파악하고 법제 개선 등 대응 방안을 마련하기 위한 <디지털 노동감시 실태조사 및 법제도 개선방안> 보고서가 발간되었습니다.

더불어 노동감시 대응 사업단은 일터에서 진행되는 노동감시를 유형별로 분류하고 이에 대한 대응 방법을 소개하는 <노동감시 대응 가이드>를 발간했습니다. 본 가이드는 각각의 현장에서 도입된 감시설비에 문제가 있는지 확인하고 이에 대응할 수 있는 법제도적 혹은 전략적인 방향을 제시하고자 하였습니다.

디지털 노동감시 규제와 기본권 보호를 위한 근로기준법 개정

[내려받기] 20211129디지털노동감시입법공청회_자료집

사업장 내에서 CCTV, 인터넷 모니터링, 위치추적 앱, 생체인식 시스템 등 다양한 전자감시 시스템의 도입이 증가하고 있습니다. 특히 코로나19 확산으로 재택근무가 확대되면서 소위 ‘보스웨어’를 통해 노동자의 근태를 모니터링하는 회사들이 증가하고 있습니다. 2021년 올해 시행된 사업장 전자감시 실태조사에 따르면, 사업장 내 감시설비 도입 과정에서 노동자에 대한 고지나 노동조합과의 사전 협의가 전반적으로 부족한 것으로 나타났습니다. 사용자는 시설 보호, 근로자의 안전, 영업비밀 보호, 업무 효율성 향상 등 경영상의 목적으로 이러한 시스템을 도입하지만, 적절한 절차와 안전조치가 취해지지 않는다면 노동자의 개인정보를 과도하게 수집하거나 부당하게 감시하는 결과를 초래할 수 있습니다.

그러나 현행 개인정보보호법은 노사간의 불평등한 권력관계의 특수성을 고려하고 있지 않으며, 근로기준법은 사업장 전자감시에 대해 특별히 규율하고 있지 않습니다. 또한, 개인정보보호위원회는 이용자의 개인정보에 비해서 노동자의 개인정보에 대한 감독이 미흡하고, 고용노동부는 직장 내 괴롭힘이나 부당노동행위와 관련되지 않는 한 명확한 감독 권한을 가지고 있지 않습니다. <개인정보보호 가이드라인(인사, 노무편)>의 경우 사업장 내 감시설비 도입과 관련한 절차, 범위, 안전조치 등에 대한 내용을 포함하고 있지 않은데, 이와 관련하여 2017년에 국가인권위원회가 개정을 권고했고 고용노동부가 수용했음에도 불구하고 아직 이행되지 않고 있습니다.

개인정보보호법, 근로자참여법 등 현행 법률의 집행과 감독도 중요하지만, 사업장 내 감시설비 도입을 근로조건의 하나로 명시적으로 규정하고, 감시설비 도입시 노동조합과의 사전 협의를 의무화하며 고용노동부의 감독 권한을 명확히 하는 등 법적 미비점을 개선할 필요가 있습니다. 이러한 취지의 근로기준법 개정안을 발의하면서 여러 이해관계자의 의견을 수렴하여 입법 과정에 참고하고자 합니다.

  • 일시 : 2021년 11월 29일(월) 오후 2시 – 4시
  • 장소 : 국회의원회관 제9간담회실
  • 주최 : 국회의원 강은미(정의당), (재)공공상생연대기금, 노동권연구소, 민주사회를위한변호사모임, 전국민주노동조합총연맹, (사)정보인권연구소, 직장갑질119, 진보네트워크센터, 한국노동조합총연맹
  • 인삿말 :
    • 강은미 의원
    • 양동규 (민주노총 부위원장)
    • 박기영 (한국노총 사무1처장)
  • 사회 : 문은영 (변호사, 서울지방변호사회 노동인권소위원회 위원장)
  • 발제 : 노동감시 규율을 위한 근로기준법 개정안의 취지와 내용  / 김하나 (변호사, 해우 법률사무소)
  • 토론 :
    • 김태욱 (민주노총 법률원 변호사)
    • 김기우 (한국노총 중앙연구원 선임연구위원)
    • 장여경 (정보인권연구소 상임이사)
    • 이준희 (한국경영자총협회 노사협력팀 팀장)
    • 정종일 (개인정보보호위원회 영상정보팀장)
    • 오영민(고용노동부 근로기준정책과 과장)

* 유튜브 채널 강은미 TV에서 온라인으로 생중계될 예정입니다.

 

코로나19와 K-식별, 그리고 인권

[이슈리포트 내려받기] 코로나19와 K-식별, 그리고 인권

[ENGLISH/PDF] K-Identification and Human Rights amidst COVID-19

사단법인 정보인권연구소는 이슈리포트 <코로나19와 K-식별, 그리고 인권>을 발간하였습니다.

코로나19 감염병 위기가 1년 이상 계속되고 있습니다. 코로나19는 사회 전체적인 건강권의 위기임에 분명하지만, 인권활동가들은 인권이 취약한 사람들에게 더욱 큰 인권 침해가 발생해 온 현실에 주목해 왔습니다.
한국의 K-방역 정책은 ‘디지털 식별’에 기반한 정교한 추적이 특징입니다. 때로는 집단별로 구별되는 방역 정책도 시행되어 왔습니다. 그런데 정교한 식별과 추적, 그리고 집단의 구별은 성소수자, 이주민, 홈리스 등 사회적 차별에 취약한 계층의 인권을 위협할 우려가 있습니다. 또 생존의 위기 앞에서 저항하는 노동자, 민중의 집회시위의 권리가 계속하여 억압받고 있습니다. 집회의 참가자가 처벌받고 주최자가 구속되었으며, 감염병 예방법 자체가 확진자와 접촉자를 대체로 범죄자로 취급하고 있는 실정입니다.

이 이슈리포트는 성소수자, 이주민, 보건의료, 홈리스, 집회시위, 법률 분야에서 코로나19와 인권 문제를 고민해 온 한국의 활동가들이 추적 기반 방역 환경에서 경험한 현실에 대한 보고입니다.

보고서는 인권재단 사람의 후원으로 제작되었으며, 국문과 함께 영문 보고서로도 발간되었습니다.
지구적 팬데믹 위기 속에도 인권을 보장하는 방역 정책과 사회적 연대를 위하여 국내외 인권활동가들과 문제 의식을 나누고 사회적 대화를 시작하고자 합니다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물입니다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

K-Identification and Human Rights amidst COVID-19

[ENGLISH / PDF] K-Identification and Human Rights amidst COVID-19

The crisis of COVID-19 has continued for more than a year. Although it is clear that COVID-19 is a crisis to the right of health in society as a whole, human rights activists have paid attention to the reality where more human rights violations occurred to those vulnerable to the abuse of human rights.
Korea’s so-called “K-Disease Control” policy is characterized by its sophisticated tracing based on digital identification. Sometimes, group-specific disease control policies have been implemented. However, these advanced identification, tracing, and group differentiation may threaten the human rights of those vulnerable to social discrimination, such as sexual minorities, migrants, and the homeless. Moreover, the workers and people’s rights to protest continue to be suppressed in the face of this crisis of survival. Rally participants are punished and organizers are arrested. The Infectious Disease Control and Prevention Act generally treats confirmed patients and their contacts as criminals.

This issue report contains the contents of the reality experienced by Korean activists who have been contemplating COVID-19 and human rights issues in the fields of sexual minorities, migrants, health care, homeless people, demonstrations, and the law in a trace-based disease control environment.

This report is sponsored by Human Rights Foundation SARAM. We would like to share awareness of issues with human rights activists at home and abroad and initiate social dialogues for disease control policies and social solidarity that guarantees human rights even in the midst of a global pandemic.

For more information, please contact :
idr.sec@gmail.com

 

Contents

Introduction
Exposure and Discrimination of Sexual Minorities
Discrimination and Exclusion of Foreigners and Migrants
Tracing and Group Management Issues in Disease Control Policies
Discrimination and Exclusion of the Homeless
Restrictions on Freedom of Assembly and Demonstration, and Tracing Participants
Digital Tracing that Promotes Overcriminalization

 

 

Epidemic Intelligence Support System and Automated Processing of Personal Data in South Korea

[ENGLISH / PDF] Epidemic Intelligence Support System and Automated Processing of Personal Data in South Korea

In South Korea, the Epidemic Intelligence Support System (EISS) has officially been in operation since March 26, 2020 to automate the epidemiological investigation procedure of the Coronavirus disease 2019 (COVID-19) after the pandemic. The EISS aims to automatically analyze the movement routes of confirmed patients by collecting and processing personal data from various public and private institutions. However, there is no provision of law planned to limit the analysis and prediction of sensitive personal data that becomes increasingly precise, the purpose and processing of the system, or ensure the rights of the data subjects.
The structure of the Personal Information Protection Act (PIPA) in Korea has not regulated “automated personal data processing” differently from general personal data processing, such as written documents. The problem is that with the development of digital communication technology, a plethora of more various types of personal data are being processed at a faster speed. As AI technology is applied to personal data processing methods in recent years, we are moving towards automated evaluation, analysis, prediction as well as decision-making. Compared to the methods in which personal data was processed manually or through paper documents, this change in personal data processing methods has a significant impact on the fundamental rights of data subjects, such as the right to the protection of personal data. Nevertheless, there is not enough discussion on the legal regulations.
The civil society in Korea has called the problematic human rights in such automated personal data processing “digital rights” and has demanded that they be guaranteed as fundamental rights protected by the Constitution. Chapter 2 outlines the progress of how Korean society developed by raising questions whenever the impact of the personal data processing methods on fundamental rights increased. Chapter 3 examines international norms related to automated personal data processing, such as profiling, and solely automated decision-making. Chapter 4 looks into problems with the EISS as a profiling system for sensitive data. Chapter 5 presents a legal regulation idea for the EISS to protect the rights of data subjects, and we concludes with Chapter 6.

This report is written by Chang Yeo-kyung from Institute for Digital Rights in South Korea, and sponsored by Human Rights Foundation SARAM. We would like to share awareness of issues with human rights activists at home and abroad and initiate social dialogues for disease control policies and social solidarity that guarantees human rights even in the midst of a global pandemic.

For more information, please contact :
idr.sec@gmail.com

Contents

1. Introduction
2. Growing awareness of problems with automated personal data processing and fundamental rights
3. European norms for automated personal data processing and profiling
--A. Concept of profiling
--B. Principles of general profiling process
--C. Profiling of solely automated decision-making
--D. Comparison with the norms of Korean PIPA
4. Automated personal data processing and profiling of EISS
--A. Overview of EISS
--B. Personal data processing of EISS
5. Direction of EISS regulations
6. Conclusion

 

국가기관, 지자체 등이 구축하는 생체정보 활용 인공지능 시스템 전면 중단해야

- 과기부 주도 인공지능 산업의 위험성 드러나
생체정보 등 공공데이터의 민간기업 AI 학습용데이터 제공은 불법
- 개보위, 전국 지자체 추진 중인 생체정보 활용 사업 전수조사해야

언론보도에 따르면, 과학기술정보통신부(이하, ‘과기부’) 산하 정보통신산업진흥원이 대구 수성구의 ‘인공지능(AI) 융합 국민안전 확보 및 신속대응 지원 사업’에 선정한 5개 민간업체 중 한 업체가 인공지능 학습용으로 제공받은 시민들의 ‘얼굴 영상’ 10만여 건을 통제구역(실증랩) 밖으로 무단 반출한 것이 발각되었다. 법무부와 과기부의 얼굴인식 인공지능 추적식별 시스템 구축 사업에 내⋅외국인 얼굴정보 1억 7천여건이 무단 제공되어 충격을 준 것에 이어, 지자체가 CCTV를 통해 확보한 국민들의 영상정보를 인공지능 학습데이터로 민간기업에 무단으로 제공하였을 뿐 아니라 통제된 장소에서만 정보를 다루기 때문에 안전하다고 발표했던 과기부의 해명이 그야말로 거짓임이 드러난 것이다. 특히 이번에 적발된 업체 씨이랩은 2014년부터 국방부, 중소벤처기업부, 과기부 등 정부 부처나 공공기관의 기술 용역 과제 13건을 수주해온 것으로 알려져 이와 유사한 개인정보 유출 사례가 추가로 있을 수 있다는 의심이 든다. 과기부는 즉각 해당 사업을 중단하고, 적발된 업체를 사법처리할 뿐 아니라 이후 인공지능 관련 사업에서 퇴출시켜야 할 것이다. 

두 달이 지나도록 과기부는 민간업체가 관련 영상정보를 무단 반출한 사실조차 몰랐다고 하니 관리감독조차 제대로 이루어지지 않았다는 것은 명백하다. 데이터뉴딜, 인공지능 산업의 주무부처로 자처하고 있는 과기부가 과연 자신들이 주도하여 개발하고 있는 얼굴 등 생체정보를 활용한 인공지능시스템의 실태를 제대로 파악하고 있는지조차 의문이다. 국민의 생체정보 등을 보호할 의무가 있는 국가와 지자체가 앞다투어 인공지능 시스템 구축 사업 명분으로 정보주체 모르게 생체정보를 민간기업에 제공하고, 개인정보보호법상 정보처리자의 의무를 면제하도록 ‘위탁’형식이라는 꼼수까지 부린 것은 국가가 나서서 불법을 조장한 행태로 비난받아 마땅하며 그러한 사업은 전면 중단해야 한다. 

지난 10월 국회 국정감사에서 드러난 법무부의 얼굴인식 인공지능 식별 추적시스템 뿐 아니라, 이번 대구 수성구의 인공지능 시스템 등 전국의 많은 지방자치단체들이 치안이나 방역 등을 이유로 얼굴인식 인공지능 시스템을 운영 중이거나 개발 중인 것으로 알려지고 있다. 부천시가 도입 개발하고 있는 지능형 역학시스템은 시내 방범용 CCTV를 활용해 코로나19 등 감염병 확진자의 이동경로·마스크 착용 여부·밀접 접촉자 등을 추적한다는 명분이고, 경기 안산시가 2022년 시범도입을 준비 중인 아동학대 실시간 탐지 시스템도 어린이집 CCTV를 활용해 아동학대를 실시간 탐지한다는 목적이다. 이미 범죄예방용으로 인공지능 감시시스템을 시범 운영하는 곳도 있다. 제주 경찰은 안면인식·침입감지 기능을 갖춘 CCTV를 신변보호 대상자 집 주변에 설치해 특정 인물이 주변을 배회하면 대상자와 112 상황실에 실시간으로 얼굴 사진을 전송한다. 경찰청은 2022년부터는 이 시스템을 전국으로 확대할 계획이라고 한다. 

이처럼 국가기관, 지자체 등이 공적 목적으로 보유하고 있는 다양한 개인정보와 얼굴, 지문과 같은 생체정보, 질병, 건강정보와 같은 민감정보를 사회적 합의나 논의 없이 민간기업의 인공지능 기술 개발에 무단 제공하면서 개인정보보호법 위반 여부나 인권, 프라이버시 등 기본권에 미칠 영향을 고려하지 않았다면 큰 문제이다. 막대한 예산이 집행되고 사람의 민감한 얼굴정보를 사용하는 정부 주도 사업에서 현행 개인정보보호법의 준수 여부를 철저하게 검토하거나 주무 부처인 개인정보보호위원회와의 협의는 기본임에도, 최근 언론보도로 알려진 사례들은 개인정보보호위원회의 검토조차 거치지 않은 것으로 보인다. 개인정보 보호의 검토 없이 우후죽순 늘어나는 국가 주도의 생체정보 활용 인공지능 시스템 개발 사업에 관하여 개인정보 감독기구로서 개인정보보호위원회의 제 역할이 절실하다. 최근 드러난 사례 이외에도 전국적으로 추진 중인 유사 사업이 더 많을 것이라는 점에서, 개인정보보호위원회가 공공기관과 전국 지자체 등이 개발 중인 생체정보 활용 인공지능 시스템 사업 현황과 실태를 전수 조사할 것을 요구한다. 

전세계적으로 법집행기관이 얼굴인식 등 생체정보를 활용한 인공지능 시스템을 사용하는 것에 대해 대량감시 위험과 유출시 피해 회복 불가능의 우려에서 규제방안 마련에 사회적 논의를 진행하고 있는 마당에 우리나라만 유독 아무런 견제장치도 없이 국가기관과 지자체들이 앞다투어 인공지능시스템을 운영하려고 하는 것은 부끄러운 일이다. 인공지능은 산업기술적 측면 뿐 아니라 우리 삶 전체를 바꿀 새로운 현상이기 때문에 인권을 중심으로 한 통합적이고 총체적 접근이 필요하다. 인공지능 산업 육성에만 초점을 맞출 것이 아니라, 인공지능으로 발생할 수 있는 인권 제약에 대하여 제대로 된 관리감독체계가 마련되어야 한다. 연이어 드러나는 과기부 주도의 인공지능 시스템 관련 사건들이 이를 여실히 보여주지 않는가. 더 늦기 전에 인공지능의 위험성을 통제할 수 있는 법제를 마련할 것과 이를 위해 인공지능으로 영향을 받는 당사자를 비롯한 시민사회가 함께 참여하는 범국가 차원의 인공지능 컨트롤타워를 마련할 것을 촉구한다. 끝.

[관련기사 참조] 정부가 ‘연구용’ 줬더니, 얼굴 영상 10만건 빼돌렸다

[내려받기] 20211117_논평_생체정보활용인공지능시스템중단촉구