교육/자료 부터

경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제

사단법인 정보인권연구소는 이슈리포트 <정보인권> 통권 제10호로 “경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제”를 발간하였다. 이 연구는 4.9통일평화재단의 지원으로 제작되었으며 진보네트워크센터도 필자로 함께 참여하였다.

최근 경찰은 치안활동에 첨단과학기술을 결합한 ‘스마트치안’을 강조하면서, 지문, 유전정보 등 고전적 형태의 생체인식정보를 넘어 얼굴정보, 행동정보 등 새로운 형태의 생체정보를 활용하는 치안활동을 확대해 가고 있다.

특히 경찰과 사실상 공동관제하고 있는 지방자치단체 CCTV가 최근 급격히 지능화하고 있다. 경기도 부천시의 경우 코로나19 대응을 위해 확진자의 얼굴 사진과 CCTV 영상 속 시민들의 얼굴을 대조해 같은 사람을 찾아내고 동선을 파악하는 ‘확진자 동선추적 시스템’을 개발하고 있다고 밝히기도 했다.

이미 경찰은 CCTV, 블랙박스 등 범죄현장에서 찍힌 용의자 사진과 구속된 9대 수법범죄자 데이터베이스를 비교·검색하여, 용의자의 신원확인을 신속하게 지원하는 <범죄예방 3D얼굴인식시스템>을 개발 및 관리해 왔다. 이 시스템에는 2019년 현재 이미 198,330건의 얼굴인식정보가 포함되어 있다. 경찰은 3D얼굴인식시스템을 계속 고도화할 계획으로, 2024년에는 실시간 CCTV 연계 얼굴인식을 목표로 하고 있으며, 인공지능을 이용하여 나이 등 대상자 특성에 대한 자동화된 식별도 추구하고 있다.

또 경찰청과 과학기술정보통신부, 산업통상자원부는 공동으로 2018년부터 5개년에 걸쳐 ‘실종아동등 신원확인을 위한 복합인지기술개발사업’을 진행하고 있다. 이 사업은 △ 유전정보, △ 얼굴정보, △ 행동정보, △ 시·공간정보 등을 수집하고 연계하여 인공지능 기반으로 분석하여 고도화된 신원분석을 목표로 하고 있다. 현재는 ‘실종아동수색’이라는 목적에 한정하여 개발되고 있으나, 일단 기술적 기반이 갖추어지면 그 활용이 향후 범죄 수사, 위험방지 등 다양한 경찰활동으로 확대될 가능성이 존재한다.

미국에서는 잘못된 얼굴인식으로 경찰이 무고한 흑인을 체포하는 등 얼굴인식 기술을 둘러싼 많은 논란이 빚어져 왔고, 경찰의 얼굴인식 기술 사용에 대하여 샌프란시스코, 워싱턴 주 등에서 규제법을 도입한 바 있다. 유럽연합에서는 인권기구인 기본권청이 법집행기관의 얼굴인식기술 사용이 유럽 개인정보보호법 GDPR 및 경찰디렉티브에 위배될 가능성을 지적하며 법률에 따른 통제를 제안하였다. 지난 9월에는 영국 항소법원이 경찰의 실시간 얼굴인식 사용에 대한 시민단체 소송에서 최초의 위법 판결을 내렸다. 법원은 경찰이 얼굴인식 기술의 차별적 영향을 적절히 고려하지 못했고, 평등법에 따른 의무를 다하지 못했으며, 민감정보 처리에 대한 개인정보 보호법을 준수하지 못했다고 지적했다.

이슈리포트는 I. 서론 II. 얼굴인식 기술의 개념 III. 해외 현황 및 관련 법제도 IV. 국내 현황 및 관련 법제도 V. 결론 및 제언으로 구성되어 있으며, 경찰 등 법집행기관의 얼굴인식 감시기술의 사용에 대한 해외 사례 및 법제도를 소개하고 나아가 국내 개인정보 보호법 적용 및 그 한계에 대하여 살펴보았다. 이슈리포트는 결론적으로 민감정보인 생체인식정보 처리의 제한에서 경찰 등 법집행 목적을 제외한 현행 개인정보 보호 법령의 개선과 함께 경찰 등 법집행기관의 얼굴인식 기술 사용을 법률에 따라 엄격하게 통제할 것을 제안하였다. 또한 집회시위 등 국민 기본권의 본질을 중대하게 침해할 우려가 있는 분야에서는 얼굴인식기술의 사용을 금지할 것과 국민을 보호하기 위한 법적 근거가 갖추어지기 전에는 법집행기관의 얼굴인식정보 처리를 중단할 것을 제안하였다.

△이슈리포트 <정보인권>은 사단법인 정보인권연구소 후원회원을 위한 비정기간행물이다.
일시후원/후원회원 신청 http://idr.jinbo.net/member

[이슈리포트 내려받기] 경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제

법 집행기관의 얼굴인식 기술 사용 현황과 진단

 

생체인식 정보를 활용한 인공지능 기술, 특히 그중에서도 얼굴인식 기술에 대한 규제는 이미 세계적 이슈 중 하나입니다. 미국은 공공기관의 얼굴인식 기술 사용을 전면적으로 통제하거나 금지하는 조례들이 여러 지역에서 통과되고 시행되었으며 주 단위 규제를 넘어 연방 차원의 법안 또한 논의되고 있습니다. 또한 유럽연합은 기존의 보호장치에 더해 공공장소에서의 얼굴인식 기술 사용 금지를 고려하기도 했습니다.

인종에 대한 차별, 성별에 따른 차별, 해소되지 않는 결함과 근본적 권리 침해 가능성 등 규제의 배경이 된 연구 결과와 사례에 따르면 얼굴인식 기술의 위험성은 이미 편익을 넘어선 것으로 보입니다. 한국의 개인정보 보호법은 최근 개정을 통해 특별히 보호받아야 하는 민감정보로 얼굴인식 정보와 같은 생체인식 정보를 포함하게 되었지만, 수사기관과 기업이 이를 피해갈 우회로는 여전히 많은 상황입니다.

본 간담회는 수사기관 등 법 집행기관이 현재 어떠한 방식으로 얼굴인식 기술을 사용하고 있는지, 정보주체의 권리 침해 등 문제는 없는지 검토하고, 이에 대해 인권에 기반한 논의와 민주적 통제 방안을 고민해보고자 합니다.


  • 일시: 2020년 11월 25일(수) 오후 2시
  • 장소: 온라인 웨비나(ZOOM)
  • 사회: 이호중 (서강대학교 법학전문대학원 교수/사단법인 정보인권연구소 이사장)
  • 발제: 김민 (진보네트워크센터 정책활동가) , 장여경 (사단법인 정보인권연구소 상임이사)
  • 토론: 김하나 (해우 법률사무소 변호사), 이지은 (참여연대 공익법센터 간사)
  • 사전 참가 신청 링크 : https://forms.gle/tSB68BjDonH9xoFL7

 

  • 문의: 사단법인 정보인권연구소, 진보네트워크센터 02-774-4551
  • 주최: 사단법인 정보인권연구소, 진보네트워크센터

시민단체, 인공지능 채용 공공기관 13곳에 정보공개 청구 및 결과 발표

실태 파악조차 되지 않는 공공기관 AI면접, 투명성과 책임성 필요

- 시민단체, 채용절차에 인공지능 알고리즘 사용한 공공기관 13곳에 정보공개 청구
- 개인정보 보호법 위반 기관들에 대해 개인정보 보호위원회 신고 및 정보공개 거부처분 취소소송 제기

“채용 과정에 끼어든 AI = 기회는 불평등할 것입니다. 과정은 불공정할 것입니다. 결과는 차별적일 것입니다”
“블랙박스에 갇힌 채용 과정, 믿을 수 있습니까?”

  1. 지난 2020년 10월 23일, 민주사회를 위한 변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터는 공공기관의 채용 과정에 도입된 인공지능 알고리즘 (이하 AI면접)에 관해 개인정보 보호위원회 신고 및 정보공개 거부처분 취소소송을 제기했습니다.
  2. 우리 단체들은 그간 “공공기관의 공정한 채용절차 준수 유무”, “개인정보 침해 여부 검토”, “AI면접의 차별성과 편향적 결과 검토” 등 공공기관의 AI면접 사용 실태를 파악하고자 13곳의 공공기관에 정보공개 청구를 진행해왔습니다. 허나 대부분의 기관이 AI면접 사용과 관련한 주요 자료에 대해 “시험관리에 관한 사항으로 업무의 공정한 수행에 어려움 발생”, “업체의 비밀(저작권, 기술력)에 관한 사항” 등의 사유로 정보를 비공개하였습니다. 특히 인천국제공항공사, 한국국제협력단, 한전KDN의 경우 단순 계약자료 등 기초적인 정보공개 청구 문항에 대하여도 “AI면접 관련 자료관리 및 운영은 용역사에서 수행하므로 당사는 요청한 자료가 없다”, “AI면접 관련 사항은 업체에 일임하고 있으니 업체로 문의하라” 며 대부분 정보 부존재 처리하였습니다. 이는 정보가 부존재하는 게 아니라 공공기관으로서의 책임감이 부존재하는 태도입니다. (별첨1. 정보공개 청구 문안 및 답변 요약 참조)
  3. 채용 절차는 그 공정함을 위하여 자세한 사항에 대하여 비공개를 해야 할 필요성이 있을 수도 있습니다.
    하지만 지원자는 물론이고 채용의 주체인 공공기관마저 그 결정 이유를 제대로 알 수 없는 알고리즘에 의한 채용 절차가 과연 공정하다고 볼 수 있을지 의문입니다. 지난 22일 인천국제공항공사 등을 대상으로 감사를 진행한 심상정 의원에 따르면, 해당 기관에서 AI면접을 도입하며 그 측정방법과 알고리즘에 대해 아무런 기술적 검토도, 외부 자문도 없었다는 사실이 드러나기도 했습니다. (별첨2. 채용의 공정성과 인공지능 참조)
  4. 민간업체의 영업비밀이 중요하다고 하지만, 공공기관의 의사결정에 이르는 인공지능 프로그램에 대한 기본적인 사항은 국민 앞에 투명하게 공개되어야 마땅합니다.
    기업의 기술 보호라는 사익이 중요한지, 공공기관의 투명성 확보 및 인공지능 기술과 채용 과정에 대한 국민의 불신을 해소시키는 공익이 더 중요한지 엄중히 따져봐야 할 것입니다. OECD의 <인공지능 권고안>, 유럽연합 <신뢰할 수 있는 인공지능 윤리 가이드라인>, 영국 <공공부문 인공지능 활용 가이드> 등 인공지능 관련 국제 규범에는 공정성, 책무성, 투명성과 설명가능성 등이 빠짐없이 등장합니다. 특히 공공기관 인공지능의 경우, 캐나다 정부의 훈령 등 세계 여러 나라 규범에서 책임성을 보장하고 윤리적이며 합법적으로 사용할 것을 명시하고 있습니다. (별첨3. 공공기관 인공지능 규범 참조)
  5. 또한 정보공개 청구 답변을 분석한 결과, 개인정보 보호법 위반 사실 및 혐의를 다수 발견하였습니다.
    특히 여러 공공기관들이 채용 절차를 민간업체에 위탁하면서 그 지원자의 개인정보를 보호해야 할 책임을 다하지 않았으며, 그 결과 민간업체에 넘어간 지원자의 개인정보들이 사적인 기술 개발을 위하여 오남용될 우려가 존재하는 상황입니다. (별첨4. 공공기관 인공지능 채용의 개인정보 보호법 위반 신고서 요지 참조) 아울러 대부분의 공공기관이 채택한 AI면접 프로그램의 공급사가 사실상 한 곳의 민간업체에 쏠려 있었습니다. 공공 조달 절차가 특정 민간업체 솔루션에 의존해서는 안 되고, 사업추진 이전에 소프트웨어사업 영향평가를 시행하고 그 결과서를 작성, 공개하도록 되어 있는 점을 고려하여 볼때 공공기관 AI채용 프로그램의 조달 및 위탁 절차가 공정하였는지 또한 점검해볼 필요가 있습니다.
  6. 각종 권력형 비리로 얼룩진 채용 과정에 대한 개혁은 이 시대의 시급한 과제 중 하나임에도 불구하고, 공공기관은 이에 역행하는 모습을 보여주고 있습니다. 신뢰할 수 있는 공공기관이라면 유행에 휩쓸려 무턱대고 새로운 기술을 도입하는 게 아니라, 신중히 검토하고 평가해봐야 할 것입니다.
  7. 2020년 10월 현재, AI면접을 도입했거나 계획중인 공공기관은 20여곳에 달합니다. 공공기관의 주인은 국민이며 그 업무에 불투명한 기술이 도입되어 차별이 발생하거나 현행 법률에 대한 위반이 발생하는 것을 묵과할 수는 없습니다. 우리 단체들은 앞으로도 공공기관 인공지능이 마땅히 갖추어야 할 투명성과 합법성을 촉구하고 감시하는 활동을 계속할 예정입니다. 끝.

2020 한국인터넷거버넌스포럼(KrIGF) “팬데믹 시대의 인터넷거버넌스 : 뉴노멀, 연결, 안전” 개최

 

다자간인터넷거버넌스협의회(KIGA)가 주최하고 인터넷 관련 공공기관, 시민단체, 학계, 기업, 기술 커뮤니티가 공동 주관하는 “2020 한국인터넷거버넌스포럼(KrIGF)”이 오는 8월 21일(금)에 온라인 웨비나로 개최됩니다.

한국인터넷거버넌스포럼은 주요 인터넷 관련 공공정책 이슈에 대한 다양한 이해관계자 커뮤니티의 대화와 토론의 촉진을 목적으로 합니다.

– 주제: 팬데믹 시대의 인터넷거버넌스 : 뉴노멀, 연결, 안전

– 일시 : 2020.8.21(금), 10:00~18:00

– 장소 : Zoom 온라인 웨비나

– 참가비 : 무료

– 홈페이지(krigf.kr)를 통해 각 워크샵 및 튜토리얼의 제안취지 및 주요 쟁점을 확인하실 수 있습니다.

– 사전등록 후 Zoom을 통해 참석하고 있는 사진을 인증하여 사무국 이메일(krigf@kiga.or.kr)로 보내주시는 분들께 커피쿠폰(200명) 제공 (인증사진은 추후 KrIGF 결과보고서에 게시 될 수 있음을 사전에 알려드립니다.)

– 행사 참석하여 Q&A, 설문조사 등을 작성해주시는 분들을 추첨하여 KT GiGA Genie (10명), 치킨쿠폰(10명)을 선정하여 드립니다. (추후 개별 연락 예정)

– 문의 : KIGA 사무국 (02-3446-5934, krigf@kiga.or.kr)

– 사전등록링크 : https://docs.google.com/forms/d/1IyI8YMpucEIXXcsukXn2zcirQY-Go82Y21mulV-bBKo/viewform?fbclid=IwAR0y5I_KNQxU_gWY-xiF25HBEdpkZG6-Ky86Eh0Ah3pBLLrUi2011qroceY&edit_requested=true

 

인권활동가를 위한 연속강좌 <신기술 환경과 인권운동>

사단법인 정보인권연구소는
최근 인권침해 논란이 커지고 있는 신기술에 대한 인권활동가 이해도를 증진하기 위하여
연속 강좌 <신기술 환경과 인권운동>을 마련하였습니다.

강좌 내용은 영상 보기를 참고하시기 바랍니다
* 강좌 문의 : 이메일 idr.sec@gmail.com

강좌 영상 보기

 

인공지능 거버넌스와 시민사회

* 코로나19의 지구적 유행이 매우 우려스러운 상황입니다. 모든 분들의 건강을 기원합니다. 특히 우리 사회에서 인권이 취약한 분들과 소수자 분들이 이 어려운 시기를 함께 잘 극복할 수 있도록 사회적 지지와 연대가 필요한 때입니다.

지난해 연말 정부가 인공지능 국가전략을 발표하였습니다.

그러나 이 국가전략은 안타깝게도 인공지능으로부터 영향을 받는 당사자를 비롯해 시민 참여에 대한 고민이 부족하다는 비판을 받고 있습니다.

2020. 2. 23. "인공지능 국가전략, 비판적 검토와 과제" 공개토론회
오철우  박사님의 발제 영상 공유합니다.

#진보네트워크센터 따오기팀에서 제작하였습니다.

[공개토론회] 인공지능 국가전략, 비판적 검토와 과제

 

공개토론회 「인공지능 국가전략, 비판적 검토와 과제」
- 오는 2월 21일(금) 오후3시, 서울 광화문 사회복지공동모금회 별관 강의실B

정부는 지난해 12월 17일 문재인 대통령 주재로 열린 제53회 국무회의에서 전부처가 참여한 「인공지능(AI) 국가전략」을 발표하였습니다. AI 국가전략은 AI 생태계 조성, AI 인재형 국가, 사람 중심의 AI 구현 등 3대 분야에서 9대 전략을 제시하면서 AI 분야별 법제 정비 계획도 밝혔습니다.
특히 ‘사람 중심 AI’ 분야에서는 일자리 안전망 확충, AI 윤리 정립 등의 과제를 제시하였습니다.

그러나 이 국가전략은 산업 중심 전략으로 노동자, 소비자, 이용자 보호를 위한 구체적인 내용을 담고 있지 않습니다.
법제 정비에 있어서는 인공지능 의사결정이 민주주의와 인권, 사회적 차별에 미치는 영향에 대응해야 할 과제가 있습니다.

사단법인 정보인권연구소는 AI 국가전략을 비판적으로 검토하고 과제를 제시하는 토론회를 개최합니다.
인공지능과 그 사회적 문제에 관심이 있으신 분들의 많은 참석을 바랍니다.

참가신청(링크)

❖ 토론회 개요

  • 제목 : 공개토론회 「인공지능 국가전략, 비판적 검토와 과제」
  • 일시 : 2020년 2월 21일(금) 오후3시~5시
  • 장소 : 광화문 사회복지공동모금회 별관(나눔문화센터) 지하1층 강의실B
  • 주최/주관 : 사단법인 정보인권연구소

❖ 토론회 구성

오후
3:00~3:10
사회 : 이호중
/ 정보인권연구소 이사장, 서강대학교 법학전문대학원 교수
3:10~3:30 발제 인공지능 거버넌스와 시민사회 오철우 / 서울과학기술대 강사, 과학기술학 박사
3:30~3:50 발제 인공지능 국가전략에 대한 검토와 제언 선지원 / 정보통신정책연구원 ICT전략연구실 부연구위원
3:50~4:00 토론 임완철 / 성신여자대학교 교육학과 겸임교수, 서울시교육청 미래교육(에듀테크)정책자문관, 정보인권연구소 연구위원
4:00~4:10 토론 허유선 / 중앙대학교 HK+ 인공지능인문학 사업단, 동국대 철학과 강사
4:10~4:20 토론 김하나 / 민주사회를위한변호사모임 디지털정보위원회·노동위원회
4:20~4:30 토론 홍석만 / 참세상연구소 연구실장, 「부채전쟁」 저자
4:30~4:40 토론 국가인권위원회 인권정책과
4:40~5:00 플로어 토론 및 참석자 전체 토론

❖ 사단법인 정보인권연구소 소개

사단법인 정보인권연구소는 시민사회 관점에서 정보인권을 지지하는 대안적 정책을 연구하고 생산하기 위해 2018년 창립하였습니다(이사장: 이호중 서강대학교 법학전문대학원 교수). http://idr.jinbo.net

※ 자료집 다운로드 [인공지능 국가전략, 비판적 검토와 과제]