[번역] 유럽평의회<알고리즘 시스템의 인권 영향에 대한 대응 지침>

* 원문 : Guidelines on addressing the human rights impacts of algorithmic systems. Appendix to Recommendation CM/Rec(2020)1 of the Committee of Ministers to member States on the human rights impacts of algorithmic systems.

 

제1373차 각료 대표단 회기 2020년 4월 8일 각료위원회 채택

권고 CM/Rec(2020)1 부록

 

A. 범위 및 맥락

1. 이 지침은 알고리즘 시스템의 설계, 개발 및 진행 중인 배치에 대한 모든 조치에서 국가, 공공 및 민간 부문 행위자에 대해 조언하기 위해 고안되었다. 유럽인권협약(“협약”) 및 기타 관련 조약에 명시된 바와 같이 모든 개인의 인권과 기본적 자유가 기술 발전 전반에 걸쳐 효과적으로 보호되도록 보장하기 위하여, 유럽 평의회 회원국은 알고리즘 시스템 사용에서 인권 침해를 억지하고, 모든 행위자로 하여금 인권을 존중 및 증진하고 침해 가능성을 방지하게끔 노력하도록 환경을 조성하는 입법 및 규제 체제를 개발해야 한다. 국가의 의무 및 관할권과 별개로, 공공 및 민간 부문 행위자는 국제적으로 인정된 인권을 존중할 책임이 있다.

2. 이 권고의 목적 하에서, ‘알고리즘 시스템’이란 종종 수학적 최적화 기술을 사용하여 데이터 수집, 결합, 정리, 정렬, 분류 및 추론 뿐 아니라 선택, 우선 순위, 권장 사항 및 의사 결정과 같은 업무를 하나 이상 수행하는 응용프로그램으로 이해된다. 적용되는 설정에서 요구 사항을 충족하기 위해 하나 이상의 알고리즘에 의존하는 알고리즘 시스템은 대규모 및 실시간으로 적응형 서비스를 생성하는 방식으로 업무를 자동화한다.

3. 일반적으로 대규모 데이터셋에서 패턴을 감지하여 작동하는 알고리즘 시스템은 (특히 정밀도, 타겟팅 및 일관성 향상을 통해) 서비스 성능을 개선하고 새로운 솔루션을 제공하며 업무 및 시스템 성능의 효율성 및 효과성 측면에서 성과를 낼 가능성을 제공한다. 이는 디지털 정보의 분류 및 검색 가능성을 크게 향상시켰고 의료 진단, 운송 및 물류와 같은 분야에서 중요한 발전을 촉진하여 전 세계적으로 더 광범위하고 빠른 정보 공유를 가능하게 하고 새로운 형태의 협업 및 협력을 가능하게 했다. 그 결과 알고리즘 시스템은 현대 인간 생활의 많은 측면에 스며들었다.

4. 그러나 일상 생활에서 알고리즘 시스템에 대한 의존도가 높아짐에 따라 공정한 재판을 받을 권리, 프라이버시권 및 개인정보에 대한 권리, 사상·양심 및 종교의 자유, 의사 표현의 자유, 집회의 자유, 평등권, 경제적·사회적 권리 등에서 중대한 인권 문제도 제기되고 있다. 알고리즘 시스템의 기능은 종종 온라인 및 오프라인에서 개인 및 집단의 신원 및 행동에 대한 대규모 디지털 추적으로 수집된 데이터의 체계적인 집계 및 분석을 기반으로 한다. 대규모 추적은 개인의 사생활 침해와 고도로 개인화된 조작 가능성의 증가 외에도 알고리즘 시스템의 제안 단계부터 이후 전체 수명 주기에 걸쳐 고려되어야 하는 인권의 행사에 심각한 악영향을 미칠 수 있다.

5. 이러한 손실이 합리화와 정확성의 향상으로 상쇄된다는 주장이 자주 제기되지만 대부분의 알고리즘 시스템은 오류가 불가피한 통계 모델을 기반으로 하며 때로는 기존의 편향, 오류 및 가정을 유지, 복제 및 강화하는 피드백 순환구조를 가지고 있다는 사실에 주목해야 한다. 더 큰 데이터셋이 반복적인 패턴과 상관 관계를 찾을 수 있는 더 나은 기회를 제공하는 것처럼 보일 수 있지만 정확도는 데이터셋의 크기에 따라 자동으로 증가하지 않는다. 알고리즘 시스템이 많은 사람들에게 영향을 미친 결과, 위양성 및 위음성 형태의 오류와 이들 오류 및 내재된 편향의 영향을 받는 사람들의 수도 확대되어 인권 행사에 다양한 방식의 추가 간섭이 유발될 것이다.

6. 알고리즘 시스템은 개인정보에만 기반하여 결과물을 처리 및 생성하지 않는다. 알고리즘 시스템은 시뮬레이션, 합성 데이터 또는 일반화된 규칙이나 절차 등 비관찰 및 비개인정보를 기반으로도 작동할 수 있다. 그러나 그러한 사용 또한 인권에 부정적인 영향을 미칠 수 있다. 특히 알고리즘 시스템을 사용하여 의사 결정을 지원하고 권장 사항을 적용하거나 물리적 환경을 형성할 때 해당 데이터가 처리되지 않거나 달리 고려되지 않은 개인 및 집단은 직접적으로 관련 되고 상당한 영향을 받을 수 있다.

7. 많은 알고리즘 시스템은 개발 및 구현 단계가 밀접하게 얽혀 있는 최적화 기술을 사용한다. 알고리즘 시스템은 미리 정의된 결과물의 좁은 범위에 기반한 결과를 달성하기 위해 사용시마다 그 기능이 조정될 수 있다. 이러한 프로세스는 특히 대규모로 운영될 때 환경을 형성하거나 방해할 수 있다. 프로세스는 특정 가치를 다른 것보다 우선시하며, 예를 들어 일반적인 이익을 특정 손실보다 우선시할 수 있다. 이러한 작동은 일반적으로 명시적이고, 투명하며, 책임성 있고, 영향을 받는 개인이 통제할 수 있는 방식으로 이루어지지 않으며, 특히 소수자 및 소외집단 또는 취약집단에 부정적인 영향을 미칠 수 있다.

8. 일상 생활에서 알고리즘 시스템의 광범위한 유형과 적용을 감안할 때 알고리즘 시스템이 인권에 미치는 긍정적 또는 부정적 영향의 수준은 항상 알고리즘이 사용되는 특정 목적, 기능, 정확성, 복잡성, 효과 및 배치 규모에 따른다. 알고리즘 시스템의 영향은 또한 그것들이 사용되는 보다 광범위한 조직적, 주제별, 사회적, 법적 맥락에 따라 달라지며, 그 각각은 특정 공공 및 윤리적 가치와 연관된다. 이메일 스팸 필터, 건강 관련 데이터 분석 또는 교통 흐름 합리화 등 응용 프로그램의 쓰임새는 매우 다양하다. 또한 알고리즘 시스템은 경찰 및 국경 통제의 맥락에서 예측 목적으로, 자금 세탁 및 사기를 방지하기 위한 목적으로, 또는 노동, 고용, 교육 시설의 공적·사적 채용과 선발 절차 등에서 사용된다.

9. 알고리즘 시스템의 설계, 개발 및 진행 중인 배치로 인해 인권에 부정적일 수 있는 영향을 평가할 때 지속적으로 평가하고 시스템의 사용 맥락, 법적 근거, 목적, 정확성, 부작용 및 규모를 문서화해야 한다. 처리되는 데이터의 규모, 특성 및 미래 가치로 인해 이러한 시스템이 적대적 머신 러닝 또는 기타 수단(사이버 공격 등)을 통해 공격을 받거나 혼동을 일으킬 수 있는 내재적 위험도 고려해야 한다. 알고리즘 시스템이 인권에 미칠 수 있는 영향의 정도를 평가할 때는 인권 침해를 야기할 수 있는 심각성, 규모 및 가능성을 고려해야 한다.

10. 알고리즘 시스템이 민주적 절차나 법치에 대한 영향을 비롯하여 개인, 특정 집단 또는 인구집단 일반에 대해 부정적인 인권 영향을 생성할 가능성이 있는 경우 이러한 영향은 인권과 관련한 국가의 의무 및 민간 부문의 책임을 불러온다.

11. 국가에서 공공 서비스 또는 공공 정책 전달을 위해 알고리즘 시스템을 사용하면 개인이 여기서 탈퇴(opt out)할 가능성이 없거나 탈퇴 결정의 결과로 부정적인 결과를 겪게 되기 때문에, 경우에 따라 알고리즘 시스템의 적용은 인권에 더 특별하고 높은 위험을 유발할 수 있다. 공공 기관이나 민간 당사자가 특별한 비중이나 법적 결과를 수반하는 의사 결정 과정에서 알고리즘 시스템을 사용하면 유사하게 높은 위험이 발생한다. 예를 들어, 법적 분석, 예측 또는 개인별 위험 평가 목적으로 사법 분야에서 알고리즘 시스템을 사용하는 것은 협약 제6조에 명시된 공정한 재판을 받을 권리에 따라 세심한 주의를 기울여 도입되어야 한다. 이 권고에서 ‘고위험’이라는 용어는 개인에게 심각한 결과를 초래할 수 있는 절차 또는 결정에서 알고리즘 시스템의 사용이 언급되거나 혹은 대안이 없을 경우 분배 불공정을 유발하거나 확대하는 등 인권 침해 가능성이 특히 높은 상황에 적용된다.

12. 인권에 부정적일 수 있는 영향을 평가할 때 명확하게 공적이거나 명확하게 민간에 속하지 않은 알고리즘 시스템이 광범위하게 사용되는 (책임 할당의 문제로 귀결되는) 상황에 특히 주의를 기울여야 한다. 이는 공공 서비스의 일부가 민간 부문 제공자를 아웃소싱하여 다른 서비스 제공자에게 의존하게 되는 경우이거나, 공공 기관이 민간 부문에서 알고리즘 시스템 및 서비스를 조달하는 경우, 또는 회사가 국가에서 정의한 공공 정책 목표를 달성하기 위해 알고리즘 시스템을 배치하는 경우일 수 있다.

13. 교통이나 통신에서처럼 전통적으로 공공 기관이 수행하는 기능이 민간 당사자의 알고리즘 시스템 제공에 전체 또는 부분적으로 의존하게 되는 경우도 역시 복잡하다. 이들 시스템이 그후 상업적인 이유로 철수될 때 그 결과는 품질 및 효율성의 감소로부터 개인 및 공동체가 필수적으로 간주하는 서비스의 손실에 이르기까지 다양할 수 있다. 특히 민간 부문 행위자가 영향력을 행사하거나 통제할 수 있는 지위를 유지하는 방식으로 시장을 지배하는 상황에서 국가는 필수 서비스가 상업적 생존 가능성에 관계없이 계속 이용 가능하도록 보장하기 위해 비상 사태에 대비해야 한다.

14. 알고리즘 시스템의 설계, 개발 및 진행 중인 배치에는 소프트웨어 설계자, 프로그래머, 데이터 소스, 데이터 작업자, 소유자, 판매자, 사용자 또는 고객, 인프라 제공자, 공공 및 민간 행위자와 기관을 비롯한 많은 행위자가 관여한다. 또한 많은 알고리즘 시스템은 학습 방식이든 비학습 방식이든 상당한 수준으로 때로는 고의적으로 불투명하게 작동한다. 입력 데이터, 최적화 대상 및 모델을 비롯하여 시스템의 가장 중요한 목표와 매개변수를 통상적으로 설정하는 설계자 또는 운영자조차도 시스템이 결정을 내리기 위해 어떤 정보에 의존하는지 알지 못할 가능성이 높으며, 시스템이 작동하도록 의도된 것보다 더 넓은 환경에서 시스템이 사용자에게 미치는 직간접적 영향에 대해 확실히 알지 못할 수 있다.

15. 이러한 복잡성을 감안할 때 회원국은 이러한 프로세스의 구체적인 인권 영향을 인식하고 이들 시스템에 대한 모든 투자에 있어 효과적인 모니터링, 평가, 검토 절차 및 부작용에 대한 시정 조치는 물론, 필요한 경우 인권 기준을 충족하지 못하는 프로세스를 포기할 수 있는 적절한 비상 대책을 포함하여야 한다. 위험 관리 절차는 알고리즘 시스템의 유해한 사용과 그 부정적 영향을 탐지하고 방지해야 한다. 회원국은 사전 예방적 접근법을 취해야 하고, 특정 시스템의 배치가 돌이킬 수 없는 손상의 높은 위험을 초래하거나 그 불투명성으로 인해 인간의 통제 및 감독이 불가능할 때는 이 시스템을 거부하도록 요구해야 한다.

B. 알고리즘 시스템의 맥락에서 인권과 기본적 자유의 보호 및 증진에 관한 국가의 의무

1. 일반 적용 원칙

1.1 입법: 알고리즘 시스템의 설계, 개발 및 진행 중인 배치에 적용할 수 있는 정책과 법률 또는 규정의 초안, 시행 및 평가 절차는 투명하고 책임성 있고 포용적이어야 한다. 국가는 적절한 경우 부문별 수준을 비롯하여 모든 관련 이해관계자 및 영향을 받는 당사자와 정기적으로 협의해야 한다. 국가는 관련 행위자의 법적 준수 여부를 확인하기 위해 적절한 문서 제출을 요구하는 등 법의 집행 가능성 및 집행을 보장해야 한다. 공공 및 민간 부문 행위자가 그 법적 의무를 이행하지 않는 경우 책임을 져야 한다.

1.2. 지속적인 검토: 제안 단계로부터 영향평가에 이르기까지 알고리즘 시스템의 전체 수명 주기 동안 개별 시스템의 인권 영향 및 다른 기술과의 상호 작용을 정기적으로 평가해야 한다. 이러한 평가는 이들 시스템이 작동하는 속도와 규모, 그리고 시스템이 작동하는 기술 환경의 빠른 진화 때문에 필요하다. 평가는 영향을 받거나 영향을 받을 가능성이 있는 사람들과의 광범위하고 효과적인 협의를 기반으로 수행되어야 한다.

1.3 민주적 참여 및 인식 제고: 인권과 민주적 자유의 완전한 행사를 보장하기 위해 국가는 알고리즘 시스템의 기능, 권한 및 결과적 영향에 대한 일반 대중의 인식을 촉진해야 한다. 이는 자원을 조작, 착취, 기만 또는 배포할 가능성이 있는 사용을 비롯하여 모든 개인과 집단이 자신의 권리를 인식하고 이를 실행하는 방법과 자신의 이익을 위해 디지털 기술을 사용하는 방법을 알 수 있도록 해야 한다. 또한, 알고리즘 시스템을 고려 중이거나 사용 중인 공공, 민간 및 시민 사회 부문을 비롯한 모든 관련 행위자가 알고리즘 시스템을 유능하고 비판적으로 고려하고 사용할 수 있도록 미디어, 디지털 및 정보 리터러시의 수준을 (예를 들어 연령, 성별, 인종, 민족, 문화 또는 사회경제적 배경과 관련된 다양성을 고려하여) 알맞고 포용적인 방식으로 촉진, 장려 및 지원해야 한다.

1.4 제도적 체제: 알고리즘 시스템의 설계, 개발 및 진행 중인 배치를 인권과 양립시키기 위하여, 국가는 일반 또는 부문별 기준(benchmarks)과 안전장치를 수립하는 적절한 제도 및 규제 체제와 표준을 식별하고 개발해야 한다. 이러한 노력들은 개별 시스템의 누적적 효과성을 비롯하여 인권에 대한 직간접적 위험을 즉시 식별하고 적절한 시정 조치를 개시할 수 있도록 해야 한다. 국가는 적절한 자원을 갖춘 규제 및 감독 당국에서 사용할 수 있도록 관련 전문 지식에 투자해야 한다. 국가는 독립적 감독 기관, 평등 기구, 국가 인권 기구, 대학, 표준 수립 기구, 서비스 운영자, 알고리즘 시스템 개발자 및 특히 인권 옹호 등 다양한 분야의 관련 비정부 기구와 긴밀하게 협력해야 한다.

2. 데이터 관리

2.1 정보적 자기결정권: 국가는 알고리즘 시스템의 모든 설계, 개발 및 진행 중인 배치에 있어 개인이 자기 관련 개인정보 처리에 대한 정보를 (그 목적과 가능한 결과를 비롯하여) 사전에 얻고 상호 운용성을 비롯하여 자신의 개인정보를 통제할 수 있는 방안을 제공받을 수 있도록 보장하여야 한다. 자동화 및 기타 기계적 인식 형태나 조작에 대해 난독화를 비롯하여 자기 자신, 그 물리적 환경 또는 자신의 활동을 판독하기 어렵게 만들기 위한 개인 또는 집단의 의도적인 노력은 유효한 정보적 자기결정권의 행사로 인식되어야 하며, 이는 민주사회에서 필요하고 법률에 의해 규정될 수 있는 제한을 따라야 한다.

2.2 데이터셋: 국가는 직접 또는 자신을 위해 설계, 개발, 진행 중인 배치 및 조달되는 알고리즘 시스템에서 입력되거나 추출되는 데이터 품질의 결과로 어떤 인권 및 차별금지 원칙이 영향을 받을 수 있는지 신중하게 평가해야 한다. 데이터가 종종 편향을 포함하고 성별, 인종, 종교, 정치적 의견 또는 사회적 출신과 같은 분류 기준의 대리변수 역할을 할 수 있기 때문이다. 데이터셋의 출처와 결함 가능성, 부적절하거나 탈맥락적 사용 가능성, 이러한 결함과 부적절한 사용으로 인한 부정적인 외부 효과, 데이터셋이 사용되거나 사용될 수 있는 환경도 신중하게 평가되어야 한다. 이전에 익명 또는 가명 기반으로 처리된 데이터를 사용하여 개인을 식별할 수 있는 가능성, 자동화된 수단으로 새롭고, 추론적이고 민감할 수 있는 데이터 및 분류 형식의 생성과 같은 내재적 위험에 특별한 주의를 기울여야 한다. 이러한 평가를 바탕으로 국가는 부작용을 방지하고 효과적으로 최소화하는 적절한 조치를 취해야 한다.

2.3 인프라 시설: 데이터 집중화와 데이터 처리 용량의 증가(클라우드 처리 포함) 및 인프라 시설에 대한 선택성 부족은 협약에 따른 인권 의무를 이행하는 국가의 역량에 부정적인 영향을 미칠 수 있다. 따라서 국가는 공공 및 민간 행위자 모두가 고품질 개인정보 처리와 컴퓨팅 기능을 사용할 수 있도록 대안적이고 안전하고 보안이 보장되는 인프라 시설을 개발해야 한다.

3. 분석 및 모델링

3.1 컴퓨팅 실험: 국가는 중대한 인권 영향을 유발할 가능성이 있는 컴퓨팅 실험은 인권영향평가 후에만 수행하도록 보장해야 한다. 참여 개인의 자유롭고 구체적이며 설명에 기반한 명확한 동의가 사전에 획득되어야 하며, 동의를 철회할 수 있는 접근 가능한 수단도 함께 제시되어야 한다. 기만적이거나 착취적인 효과를 위해 고안된 실험은 명시적으로 금지되어야 한다.

3.2. 안전장치 포함: 개인과 사회에 대한 인권 침해와 기타 부정적인 영향의 위험을 방지 및 완화하기 위하여, 국가는 알고리즘 설계, 개발 및 계속 중인 배치 절차가 설계에서부터 안전, 프라이버시, 개인정보보호, 보안 안전장치를 포함하도록 보장해야 한다. 데이터셋 및 모델의 출처와 품질을 보장하기 위해 지역과 국제 표준에 기반한 인증 체계를 설계하고 적용해야 한다. 그러한 안전장치는 조달 절차의 일부를 구성해야 하며 알고리즘 시스템의 특정 사용을 금지하는 규제 체제에 의해 알려지고 준수되어야 한다.

3.3 검사: 완전성, 관련성, 프라이버시, 개인정보보호, 기타 인권, 부당한 차별적 영향, 보안 유출과 관련된 최신 표준에 입각하여 알고리즘 시스템의 생산 및 배치 전과 후에 정기적으로 검사, 평가, 보고, 감사하는 것이 검사 활동의 필수적인 부분을 구성해야 하며, 특히 자동화 시스템이 실시간 환경에서 검사되고 실시간 효과를 생성하는 경우 그러해야 한다. 국가는 시스템이 달성하거나 최적화하려는 목표의 합법성과 정당성, 그리고 인권과 관련하여 미칠 수 있는 영향에 대하여 공개적이고 협의적이며 독립적으로 평가를 수행하기 위하여 노력하여야 한다. 또한 그러한 평가가 조달 절차의 일부를 구성해야 한다. 그러한 시스템 검사 중 인권에 대한 중대한 제한이 식별될 경우 즉각적인 시정이 이루어져야 하며, 그렇지 않은 경우 시정이 이루어질 때까지 시스템이 정지되어야 한다.

3.4 데이터셋 및 시스템의 외부 효과 평가: 편향적이고 차별적인 결과물을 비롯한 알고리즘 시스템의 결과물은 그 배치의 특정한 맥락과 시스템을 학습시키는데 사용되는 데이터셋의 크기 및 특성에 따라 다양할 수 있다. 국가는 이 같은 사실을 충분히 고려하여 알고리즘 시스템이 구현하는 기능이 테스트되고 평가되도록 보장해야 한다. 알고리즘 시스템이 인권에 미칠 수 있는 영향에 따라 검사는 가능한 한 실제 개인정보를 사용하지 않고 수행되어야 하며, 제안된 시스템이 인구집단 및 그 환경에 미치는 외부 효과를 충분히 고려하여 배치 전과 후에 다양하고 대표적인 이해관계자 절차를 포함하는 검사가 이루어져야 한다. 국가는 또한 시스템이 본래 개발된 것과 다른 맥락에서 다른 알고리즘 시스템의 개발에 사용되는 등 검사 표본 또는 결과물이 재사용될 가능성과 위험을 인식해야 한다. 이러한 사용은 새로이 검사되어야 하고 그러한 사용의 적절성에 대한 평가 없이 허용되어서는 안 된다.

3.5 개인정보에 대한 검사: 국가는 개인정보에 대한 알고리즘 시스템의 평가 및 검사가 다양하고 충분히 대표적인 표본 집단으로 수행되도록 보장해야 한다. 관련 인구통계학적 집단은 과대 대표되거나 과소 대표되어서는 안 된다. 또한 고의적이거나 의도하지 않은 편향을 방지하기 위하여 국가는 그러한 활동에 관련된 직원이 충분히 다양한 배경을 갖도록 보장해야 한다. 또한 검사와 배치에 특정 개인, 집단, 인구 및 그 환경에 대한 위험 또는 손실이 표면화하는 경우 알고리즘 시스템의 개발 중단을 보장해야 한다. 관련 입법 체제는 그러한 표출을 억지해야 한다. 실제 환경 하의 검사와 관련해서는 특별한 주의를 기울여야 한다.

3.6 대안적 및 병렬적 접근법: 공공 서비스 전달에서 알고리즘 시스템을 사용하거나 기타 고위험 맥락에서 국가가 이러한 기술을 사용하는 경우, 다른 옵션과 비교하여 알고리즘 시스템을 평가하고 그 수행과 결과물이 적절한지 검사하기 위해 대안적 및 병렬적 모델링과 같은 방법론이 수행되어야 한다.

4. 투명성, 책무성 및 효과적인 구제 수단

4.1 투명성 수준: 국가가 직접 구현하거나 민간 부문 행위자들이 국가를 위해 구현하는 알고리즘 시스템의 공공 조달, 사용, 설계에 관련하여 적절한 수준의 투명성과 기본적인 처리의 기준 및 방법이 설정되어야 한다. 지적 재산 또는 영업 비밀에 대한 입법 체제는 이러한 투명성을 배제해서는 안 되며, 국가 또는 민간 당사자가 그러한 목적을 위해 법률을 악용해서는 안 된다. 투명성 수준은 가능한 한 높아야 하며 부정적인 인권 영향의 심각성에 비례해야 하고, 사용자가 시스템 간에 탐색할 수 있도록 알고리즘 시스템에 대한 윤리 인증 또는 인장을 포함해야 한다. 의사 결정 절차에서 알고리즘 시스템을 사용하여 인권에 대한 높은 위험을 수반하는 경우 과정과 결과의 설명 가능성과 관련하여 특히 높은 기준을 따라야 한다.

4.2. 알고리즘 의사결정의 식별 가능성: 공적 영역이든 사적 영역이든 관계없이 알고리즘 시스템에 의해 수행되거나 지원되는 모든 선택 절차 또는 결정은 인권 행사에 중대한 영향을 미칠 수 있기 때문에, 국가는 알고리즘 선택 또는 결정에 대하여 초기 상호작용에서 명확하고 접근 가능한 방식으로 식별 가능하고 추적 가능하도록 보장해야 한다.

4.3 이의제기 가능성: 알고리즘 관련 결정과 판단으로 영향을 받는 개인 및 집단은 이의를 제기할 수 있는 효과적인 수단을 제공받아야 한다. 알고리즘 시스템의 존재, 프로세스, 근거, 추론 및 개인 및 집단 수준에 대해 미치는 결과가 관련 공공 기관은 물론 그 권리 또는 정당한 이익이 침해될 수 있는 개인에게 시의적절하고 공정하며 쉽게 읽을 수 있고 접근 가능한 방식으로 설명되고 명시되어야 한다는 것이 필수적인 전제 조건이다. 이의제기에는 청문 기회, 결정에 대한 철저한 검토와 자동화되지 않은 결정을 구할 수 있는 방안이 포함되어야 한다. 이 권리는 포기될 수 없으며 쉽게 접근할 수 있는 연락처와 핫라인을 제공받는 등 알고리즘 시스템의 배치 전, 배치 중 및 배치 후에 저렴하고 손쉬운 실현이 보장되어야 한다.

4.4 협의 및 적절한 감독: 국가는 직접 또는 자신을 위해 직간접적으로 구현하는 특정 알고리즘 시스템에 대하여 영향을 받는 개인 또는 집단이 제기하는 이의제기의 수량과 유형에 대응하는 적절한 자원을 갖춘 독립 기관이 적정한 감독을 수행하도록 보장해야 한다. 국가는 특정한 경우에 결과물에 대한 시정 조치가 이루어지도록 보장해야 할 뿐 아니라 문제적 결과가 반복되지 않도록 시스템 자체에 시정 조치를 반영하여야 하며, 이를 개선하거나, 인권에 부정적 영향을 미칠 가능성이 있는 경우 특정 시스템의 도입 또는 진행 중인 배치를 중단할 수도 있어야 한다. 이러한 이의제기와 그 후속 조치에 대한 정보는 정기적으로 문서화되고 공개적으로 접근할 수 있어야 한다.

4.5 효과적인 구제 수단: 협약 제6조, 제13조 및 제14조에 따라, 국가는 공공 또는 민간 부문 행위자의 알고리즘 시스템의 사용으로 협약상 권리가 침해당했다고 주장하는 모든 진정에 대하여 공정하게 검토하기 위하여 평등하고 접근 가능하며 저렴하고 독립적이며 효과적인 사법 및 비사법 절차를 보장해야 한다. 국가는 입법 체제를 통해 개인과 집단이 자신의 고충과 관련하여 효과적이고 신속하며 투명하고 기능적이며 효과적인 구제 수단에 접근할 수 있도록 보장해야 한다. 내부적 및 대안적 분쟁 해결 메커니즘이 불충분하거나 영향을 받는 당사자 중 하나가 사법적 심사 또는 항고를 선택하는 경우 사법적 구제가 사용 가능하고 접근 가능한 상태로 남아 있어야 한다.

4.6 장벽: 국가는 직간접적으로 영향을 받는 개인 및 집단이 효과적인 고충 구제 수단을 거부당하는 결과를 낳는 모든 법적, 실무적 또는 기타 관련 장벽을 감소시키기 위해 적극적으로 노력하여야 한다. 여기에는 적절하게 훈련된 직원이 사례를 유능하게 검토하고 적절한 조치를 효과적으로 취할 수 있도록 보장해야 할 필요성이 포함된다.

5. 예방적 조치

5.1 표준: 국가는 인권영향평가의 최신 절차에 관한 적절한 지침(예: 표준, 체계, 지표 및 방법)을 개발하고 구현하기 위하여, 시민 사회를 비롯한 모든 관련 이해관계자와 서로 협력해야 한다. 이러한 절차는 중대한 인권 영향을 미칠 수 있는 모든 알고리즘 시스템에 대하여 그 수명 주기의 모든 단계에서 잠재적 위험을 평가하고 그러한 위험을 예방하거나 완화하기 위한 조치, 보호장치 및 메커니즘을 수립하기 위해 수행되어야 한다. 특히 그러한 시스템이 표적이 아닌 탐색 목적으로 적용될 때 실제 피해를 추적해야 한다. 인권영향평가는 이러한 권리에 높은 위험을 수반하는 모든 알고리즘 시스템에 대해 의무화되어야 한다.

5.2 인권영향평가: 국가는 국가뿐 아니라 국가와 협력하거나 국가를 대신하여 일하는 모든 민간 행위자가 공공 조달 이전, 개발 기간 중, 정규 일정 및 상황별 배치 전반에 걸쳐, 반인권적 결과물의 위험을 식별하기 위하여 정기적이고 협의적으로 인권영향평가를 수행하도록 해야 한다. 기밀 유지 고려 사항 또는 영업 비밀이 효과적인 인권영향평가의 실행을 방해해서는 안 된다. 민간 부문 행위자가 알고리즘 시스템에 의존하는 서비스를 제공하고 그 서비스가 인권의 효과적인 향유를 위해 현대 사회에서 필수적인 것으로 간주되는 경우, 회원국은 대안 솔루션의 장래 실행 가능성을 보존하고 영향을 받는 개인 및 집단이 이러한 서비스에 지속적으로 접근할 수 있도록 보장해야 한다. 인권에 대하여 고위험을 수반하는 알고리즘 시스템의 경우, 영향평가에는 이러한 시스템이 기존의 사회적, 제도적 또는 거버넌스 구조를 변경할 수 있는 가능성에 대한 평가가 포함되어야 하며, 인권에 대한 고위험을 방지하거나 완화하는 방법에 대한 명확한 권장 사항을 포함해야 한다.

5.3 전문성 및 감독: 국가는 고위험 알고리즘 시스템과 관련된 모든 인권영향평가가 독립적인 전문가 검토 및 검사를 위해 제출될 수 있도록 보장해야 한다. 독립적인 감독에 필요한 경우 계층화된 프로세스를 식별하거나 생성해야 한다. 국가에 의해 또는 국가를 위해 수행되는 인권영향평가는 공개적으로 접근할 수 있어야 하고, 적절한 전문가 투여가 있어야 하며, 효과적으로 후속 조치가 취해져야 한다. 후속 조치로는 동적 검사 방법 및 출시 전 시험을 수행하고, 영향을 받을 수 있는 개인과 집단 및 관련 현장 전문가와 협의하며, 적절한 경우 설계, 검사와 검토 단계에서 이들을 실질적인 의사결정권을 가진 행위자로 포함할 수 있다.

5.4. 후속 조치: 인권영향평가가 완화할 수 없는 중대한 인권 위험을 식별하는 상황에서는 공공 기관이 해당 알고리즘 시스템을 구현하거나 사용해서는 안 된다. 이미 배치된 알고리즘 시스템과 관련하여 위험이 식별되면 최소한 위험 완화를 위한 적절한 조치가 취해질 때까지 시스템 구현을 중단해야 한다. 식별된 인권 침해는 즉시 해결 및 구제되어야 하며 추가 침해를 방지하기 위한 조치가 취해져야 한다.

5.5 인간의 관리: 국가는 인권에 중대한 영향을 미치는 알고리즘 시스템의 조달, 개발, 구현, 평가, 검토에 관여하는 모든 관련 직원이 해당되는 인권 및 차별금지 원칙에 대하여 적절하게 훈련되고 철저한 기술적 검토뿐 아니라 인권을 준수해야 하는 자신의 의무를 인식할 수 있도록 보장해야 한다. 시스템 검토 과정에서 다양한 관점을 고려하는 능력을 향상시키기 위해서는 고용 관행이 양성평등과 다양한 인력 확충을 목표로 해야 한다. 공공 부문을 넘어 이러한 접근법을 촉진하기 위해 문서화해야 한다. 또한 국가들은 경험을 공유하고 모범 사례를 발굴하기 위해 협력해야 한다.

5.6 시스템의 상호 작용: 국가는 부정적인 외부 효과를 식별하고 방지하기 위해 여러 알고리즘 시스템이 동일한 환경에서 작동하는 설정을 주의 깊게 모니터링해야 한다. 시스템의 상호 의존과 상호 작용 가능성으로 인해 예방적 접근법이 필요한 경우에 특히 그렇다. 공공 서비스 전달에서 민간 서비스의 조달 또는 참여 메커니즘을 활용할 때, 국가는 알고리즘 시스템의 사용과 상호 작용에 대한 감독, 노하우, 소유권, 통제를 유지해야 할 필요성을 충분히 고려해야 한다.

5.7 공적 토론: 인권 행사에 영향을 미치는 공공 서비스의 어떤 영역을 알고리즘 시스템으로 결정, 판단 또는 최적화하는 대상에서 제외할 것인지 정의하기 위하여, 국가는 지속적이고 포용적이며 간학제적이고 설명에 입각한 공적 토론을 지원하고 참여해야 한다.

6. 연구, 혁신 및 대중적 인식 제고

6.1 권리 촉진 기술: 세금, 조달 또는 기타 인센티브의 사용을 통하여 국가는 인권과 기본적 자유에 대한 평등한 접근과 향유를 향상시키는 알고리즘 시스템 및 기술의 개발을 촉진해야 한다. 여기에는 알고리즘 시스템의 영향을 평가하기 위한 메커니즘의 개발, 취약하고 과소 대표되는 인구집단의 요구를 해결하기 위한 시스템의 개발 뿐 아니라, 비상 대책 또는 개인이 탈퇴할 수 있는 효과적인 기회로서 아날로그 수단을 통하여 기본 서비스의 지속 가능성을 보장하는 단계가 포함될 수 있다.

6.2 공익의 증진: 알고리즘 시스템이 소외되고 취약한 개인과 집단의 이익이 충분히 고려되고 대표되도록 보장하는 등의 조치로 긍정적인 인권 효과를 창출하고 공익을 증진할 수 있는 가능성을 평가, 검사 및 발전시킬 수 있도록 국가는 독립적인 연구를 지원하고 참여해야 한다. 적절한 경우, 상업적으로 가장 실행 가능한 최적화 프로세스를 절대적으로 선호하려는 영향력에 대한 억제가 필요할 수 있다. 국가는 알고리즘 시스템 개발 또는 진행 중인 배치에 종사하는 직원이 규제 기관 및 대중에게 자신이 구축을 담당했던 시스템이 현재 또는 미래의 인권 기준을 준수하지 못한 사실을 알릴 필요가 있다고 인식하고 내부 고발 또는 기타 행동을 취하는 것을 적절히 보호해야 한다.

6.3 인간 중심적이고 지속 가능한 혁신: 국가는 사회적 권리와 국제적으로 인정된 노동 및 고용 기준을 비롯하여 기존 인권과 일치하는 기술의 혁신을 장려해야 한다. 천연자원의 추출과 개발 관련 문제 등 국제적으로 합의된 지속 가능한 개발 목표에 부응하려는 노력 및 기존 환경과 기후 문제를 해결하기 위한 노력들이 민간 부문 행위자들의 경쟁력을 견인해야 한다.

6.4 독립적인 연구: 국가는 알고리즘 시스템의 진행 중인 배치가 사회와 인권에 미치는 영향을 모니터링하기 위해 독립적인 연구를 개시, 장려 및 발표해야 한다. 또한 이러한 독립적인 연구는 알고리즘 시스템의 불투명성, 설명 불가능성 및 이의제기 불가능성과 관련하여 현존하는 책임성 격차에 대응하는 효과적인 책무성 메커니즘 및 솔루션의 개발을 연구해야 한다. 이러한 독립적인 연구에 참여하는 연구자, 언론인, 학자의 공정성, 세계적 대표성 및 보호를 보장하기 위해 적절한 메커니즘이 마련되어야 한다.

C. 알고리즘 시스템의 맥락에서 인권과 기본적 자유에 관한 민간 부문 행위자의 책임

1. 일반 적용 원칙

1.1 인권 존중에 대한 책임: 알고리즘 시스템의 설계, 개발, 판매, 배치, 구현 및 서비스에 관여하는 민간 부문 행위자는 공적 영역에서건 사적 영역에서건 인권을 존중하는 실사를 실시하여야 한다. 그들은 고객은 물론 자신의 활동에 의해 영향을 받는 여타 당사자들의 기본적 자유와 국제적으로 인정된 인권을 존중할 책임이 있다. 이러한 책임은 자신의 인권 의무를 이행하는 국가의 역량이나 의지와 독자적으로 존재한다. 이러한 책임을 충족하기 위한 일환으로 민간 부문 행위자는 인권 침해의 원인이 되거나 유발하지 않도록 하고 혁신적인 프로세스를 포함한 그들의 활동이 인권을 존중하도록 지속적이고 사전적이며 사후적인 조치를 취해야 한다. 그들은 또한 사회에 대한 책임과 민주주의 사회의 가치를 염두에 두어야 한다. 인권 준수를 보장하기 위한 노력들은 문서화되어야 한다.

1.2 조치 규모: 인권을 존중하고 적절한 조치를 취해야 하는 민간 부문 행위자의 책임은 그 규모, 부문, 운영 상황, 소유권 구조 또는 특성에 관계없이 적용된다. 그러나 이들이 책임을 완수하는 수단은 그 자원 및 서비스와 시스템이 인권에 미칠 수 있는 영향의 심각성에 따라 그 규모와 복잡성이 다양할 수 있다. 다양한 민간 부문 행위자가 협력하고 잠재적인 인권 침해에 투여하는 상황에서는 모든 파트너의 노력이 필요하며 이 노력은 각자의 영향력과 역량에 비례해야 한다.

1.3 추가적인 핵심 기준: 인권의 수평적 효과로 인해, 그리고 알고리즘 시스템의 설계, 개발 및 진행 중인 배치로 인하여 민간 부문 행위자가 공공 행위자와 매우 긴밀한 협력 상태로 관여하고 있다는 점을 감안할 때, B장에서 국가의 의무로 설명되고 있는 일부 주요 조항은 국내적 수준에서 법적 및 규제적 요구사항으로 해석되며 민간 부문 행위자로서 기업의 책임으로 해석된다. 국가가 해당 규제 조치를 취했는지 여부와 관계없이 민간 부문 행위자는 지속적인 검토, 민주적 참여 및 인식 제고, 정보적 자기 결정권, 컴퓨팅 실험, 검사 및 알고리즘 의사 결정의 식별 가능성과 관련된 위의 B장의 1.2, 1.3, 2.1, 3.1, 3.3, 4.2.문에 포함된 관련 기준을 준수해야 한다.

1.4 차별: 알고리즘 시스템을 설계, 개발 또는 구현하는 민간 부문 행위자는 시스템의 모든 수명 주기 동안 차별을 조장하거나 고착화하는 것을 방지하기 위해 인권 실사 표준 체계를 따라야 한다. 민간 행위자들은 알고리즘 시스템의 설계, 개발 및 진행 중인 배치가 특별한 필요가 있거나 장애가 있는 사람들, 인권에 대한 접근에서 구조적인 불평등에 직면할 수 있는 사람들을 비롯하여 이러한 시스템의 영향을 받는 개인 및 집단에 대하여 직간접적인 차별적 효과를 미치지 않도록 보장해야 한다.

2. 데이터 관리

2.1 동의 원칙: 민간 부문 행위자는 알고리즘 시스템의 영향을 받는 개인에게 알고리즘 데이터셋에 포함된 개인정보를 비롯하여 개인정보의 모든 사용에 관하여 동의하거나 철회할 수 있는 선택권을 쉽게 접근할 수 있는 형태로 동등하게 행사할수 있음을 알려야 한다. 또한 사용자는 자신의 개인정보가 어떻게 사용되는지, 문제의 알고리즘 시스템의 실제적 및 잠재적 영향이 무엇인지, 개인정보 처리에 어떻게 반대하는지, 특정 결과물에 대해 어떻게 이의를 제기하는지 알 수 있어야 한다. 알고리즘 시스템의 추적, 저장 및 성능 측정 도구 사용에 대한 동의 원칙은 명확하고 간결하며 완전하게 표현되어야 하고 서비스 약관에 숨겨져서는 안 된다.

2.2 개인정보보호 설정: 민간 부문 행위자는 모든 관련 개인정보보호 기준에 따라 서비스에 대한 접근을 계속하면서 프라이버시를 효과적으로 보호받을 수 있는 정보주체의 권리를 보장해야 한다. 일련의 프라이버시 설정 옵션 중에서 선택할 수 있는 옵션은 쉽게 볼 수 있고 중립적이며 이해하기 쉬운 방식으로 제시되어야 하며 프라이버시 증진 기술을 사용해야 한다. 기본 설정은 개인정보 처리의 구체적이고 합법적인 목적에 필요하고 비례적인 개인정보를 수집해야 하며 추적 설정은 옵트아웃 모드가 기본값으로 설정되어야 한다. 예를 들어 보안 목적으로 사용자 개인정보를 차단, 삭제 또는 격리하는 메커니즘을 적용할 때에는 개인정보가 잘못 사용되거나 과도하게 사용되는 경우에 요구되는 적법 절차를 보장하고 신속한 구제조치를 동반하여야 한다.

3. 분석 및 모델링

3.1 데이터 및 모델 품질: 민간 부문 행위자는 데이터셋과 모델의 오류, 편향 및 차별 가능성을 특정 맥락 안에서 적절하게 대응하기 위한 목적으로 알고리즘 시스템 학습에 사용하는 데이터의 품질, 특성 및 출처와 관련된 위험을 알고 있어야 한다.

3.2. 표본 집단: 알고리즘 시스템의 개인정보에 대한 평가 및 검사는 충분히 다양하고 대표적인 표본 집단으로 수행되어야 하며 특정 인구통계학적 집단을 의존하거나 차별하지 않아야 한다. 알고리즘 시스템의 개발, 검사 또는 배치가 특정 개인, 집단, 인구집단 및 환경에 대한 위험 또는 손실의 외부 효과를 수반하는 경우 그 시스템의 개발을 중단하거나 조정해야 한다.

3.3. 시스템 및 데이터 보안: 민간 부문 행위자는 해당되는 표준에 따라 자체 직원 또는 제3자의 불법적인 접근, 제3자의 시스템 간섭 및 장치·데이터·모델 오용을 방지하는 방법으로 알고리즘 시스템을 구성해야 한다.

4. 투명성, 책무성 및 효과적인 구제 수단

4.1 이용 약관: 민간 부문 행위자는 자신이 제공하는 제품 및 서비스에서 중대한 인권 영향을 유발할 수 있는 알고리즘 시스템의 사용에 대하여, 일반 대중은 물론 영향을 받는 당사자는 개인이든 법인이든 관계없이 모든 이들에게 명확하고 간결한 언어 및 접근 가능한 형식으로 알려야 한다. 알고리즘 시스템에 대한 이의와 반대를 허용하기 위하여, 그 특성과 기능에 대한 적절한 정보가 제공되어야 한다. 이용 약관은 합리적으로 간결하고 쉽게 이해할 수 있어야 하며 사용자가 설정을 관리할 수 있음을 명확하고 간결한 언어로 설명해야 한다. 여기에는 시스템 기능, 해당되는 불만 제기 절차, 절차의 다양한 단계, 연락처의 정확한 기능, 표시 시간대 및 예상 결과물을 변경하기 위해 사용 가능한 옵션에 대한 정보가 포함되어야 한다. 영향을 받는 모든 당사자, 신규 고객 또는 적용 규칙이 변경된 제품 및 서비스의 사용자는 관련 변경 사항을 사용자 친화적인 형식으로 통지받고 해당되는 경우 변경 사항에 대한 동의를 요청받아야 한다. 동의하지 않는다고 해서 기본 서비스를 사용할 수 없게 되어서는 안 된다.

4.2 이의제기 가능성: 이의제기가 가능하도록 민간 부문 행위자는 인간 검토자가 접근 가능한 상태를 유지하고 쉽게 접근할 수 있는 연락처 및 핫라인을 제공하는 등 직접적인 접촉이 가능하도록 보장해야 한다. 개인과 집단은 이의를 제기할 수 있을 뿐만 아니라 개선을 위한 제안을 하고 사람의 검토가 체계적으로 요구되는 분야 등에서 기타 유용한 피드백을 제공할 수 있어야 한다. 고객 불만 처리에 관여하는 모든 관련 직원은 해당 인권 기준에 대해 적절하게 숙지하고 있어야 하며 정기적인 교육 기회를 보장받아야 한다.

4.3. 투명성: 민간 부문 행위자는 그들이 제공하는 제품 및 서비스와 관련하여 영향을 받는 개인 및 집단이 제기한 불만의 수와 유형, 불만의 결과에 대한 정보를 공개해야 한다. 이는 그 결과가 특정 사례에 대한 구제 조치로 이어지고 대규모 피해가 발생하기 전에 불만 사항으로부터 교훈을 얻어 오류의 시정을 시스템에 반영하기 위함이다.

4.4 효과적인 구제 수단: 민간 부문 행위자는 인권 침해 가능성이 있는 시스템의 도입 또는 진행 중인 사용에 이의를 제기하거나 권리 침해를 구제하려는 개인, 집단 및 법인이 온라인과 오프라인에서 집단 시정 메커니즘을 비롯하여 효과적인 구제 수단 및 분쟁 해결 시스템을 이용할 수 있도록 보장해야 한다. 사용 가능한 구제 수단의 범위는 한정되지 않을 수 있다. 우선순위 지정이 필요하고 대응 지연이 복구 가능성에 영향을 미칠 수 있는 경우 가장 심각한 인권 영향을 먼저 해결해야 한다. 모든 불만 사항은 공정하고 독립적인 검토를 허용해야 하며 부당한 지연 없이 처리되어야 하고 적법 절차를 보장하며 성실하게 수행되어야 한다. 관련 메커니즘은 불만 제기자가 독립적인 사법 기관 또는 규제 기관의 국가적 심사 메커니즘을 통해 청구할 수 있는 기회에 부정적인 영향을 미쳐서는 안 된다. 구제 수단에 효과적으로 접근할 수 있는 권리를 포기하거나 방해하는 내용이 이용 약관에 포함되어서는 안 된다. 기업 협회는 무역 협회와 협력하여 모범적인 불만 처리 메커니즘을 수립하는 데 더 많은 투자를 해야 한다.

4.5 협의: 민간 부문 행위자는 개인 및 영향을 받는 당사자의 이익을 대표하는 소비자 단체, 인권 단체 및 기타 단체는 물론, 개인정보보호 기관 및 기타 독립적인 행정청 또는 규제 당국과 함께 알고리즘 시스템의 설계, 개발, 진행 중인 배치 및 평가 뿐 아니라 그 불만 처리 메카니즘에 대한 참여 절차에 적극적으로 참여해야 한다.

5. 예방적 조치

5.1 지속적인 평가: 민간 부문 행위자는 알고리즘 시스템의 설계, 개발 및 진행 중인 배치가 가능한 기술적 오류뿐 아니라 시스템에 야기할 수 있는 잠재적인 법적, 사회적, 윤리적 영향을 탐지하기 위해 지속적으로 평가 및 검사가 이루어지도록 내부 절차를 개발하고 문서화해야 한다. 알고리즘 시스템의 적용이 스스로 회피하거나 완화할 수 있는 마이크로 타겟팅 프로세스를 비롯하여 인권에 고위험을 수반하는 경우, 민간 부문 행위자는 문제되는 서비스의 재설계를 포함하여 이러한 위험을 관리하는 방법에 대한 조언과 지침을 구하기 위해 모든 관련 소관 감독 기관에 통지하고 협의할 수 있어야 한다. 민간 부문 행위자는 정기적이고 독립적인 전문가 검토 및 감독을 위해 이러한 알고리즘 시스템을 제출해야 한다.

5.2 직원 교육: 인권영향평가 및 알고리즘 시스템 검토에 관여하는 모든 관련 직원은 적절한 교육을 받아야 하며 해당 개인정보보호 및 프라이버시 표준 및 그 이상으로 인권을 존중해야 할 책임을 인식해야 한다.

5.3 인권영향평가: 인권영향평가는 영향을 받는 개인 및 집단의 적극적인 참여와 함께 가능한 한 공개적으로 수행되어야 한다. 고위험 알고리즘 시스템을 배치하는 경우, 진행되는 인권영향평가의 결과, 위험 완화를 위해 식별된 기술, 관련 모니터링 및 검토 절차에 대한 사항이 법으로 보호되는 비밀을 침해하지 않고 공개적으로 접근 가능해야 한다. 비밀 규칙을 시행해야 하는 경우 모든 기밀 정보는 평가 보고서의 별도 부록으로 제공되어야 한다. 이 부록은 관련 감독 당국이 접근할 수 있어야 한다.

5.4 후속 조치: 민간 부문 행위자는 인권 행사에 대한 부정적인 영향과 위험을 방지하고 완화하려는 목적으로, 알고리즘 시스템의 전체 수명 주기 동안 기록된 발견 사항에 기반하여 적절한 조치를 취하고 대응 효과를 모니터링함으로써 인권영향평가에 대한 적절한 후속 조치를 보장해야 한다. 식별된 오류는 가능한한 신속하게 해결되어야 하고, 적절한 경우 관련 활동이 일시 중단되어야 한다. 이를 위해서는 설계, 검사 및 배치 단계 전반에 걸쳐 정기적이고 지속적인 품질 보증 검사와 실시간 감사가 필요하다. 나아가 상황별 현장별 알고리즘 시스템의 인권 영향을 모니터링하고 적절하고 시기적절한 방식으로 오류와 피해를 시정하기 위하여 영향을 받는 개인과의 정기적인 협의가 추가적으로 필요하다. 이는 부정적인 인권 영향을 악화시키고 고착화할 수 있는 피드백 순환구조의 위험을 고려할 때 특히 중요하다.

6. 연구, 혁신 및 대중적 인식 제고

6.1 연구: 민간 부문 행위자는 긍정적인 인권 영향을 창출하고 공익을 증진할 수 있는 알고리즘 시스템을 평가, 검사 및 발전시키는 것을 목표로, 연구 윤리에 따라 수행되는 연구에 참여하고 자금을 지원하고 이를 출판해야 한다. 그들은 또한 이러한 목표를 가진 독립적인 연구를 지원하고 연구자와 연구 기관의 진실성을 존중하여야 한다. 이러한 연구는 알고리즘 시스템의 영향을 평가하기 위한 메커니즘의 개발과 취약하고 소외된 인구집단의 요구를 해결하기 위한 알고리즘 시스템의 개발과 관련될 수 있다. 민간 부문 행위자는 알고리즘 시스템의 배치와 관련된 위험을 식별하고 대응하기 위해 특히 인권 우려가 높은 지역에서 지역 시민 사회 단체와 효과적인 의사 소통 방안을 찾아야 한다.

6.2 데이터 접근: 알고리즘 시스템과 디지털화된 서비스가 권리 행사, 커뮤니케이션 네트워크 및 민주주의 체제에 미치는 영향을 분석하기 위해 민간 부문 행위자는 삭제를 위해 분류된 데이터에 적절한 당사자, 특히 독립 연구자, 언론 및 시민 사회 단체가 접근하도록 하는 등 관련 개인정보 및 메타 데이터셋에 대한 접근을 확대해야 한다. 이러한 접근 확대는 법적으로 보호되는 이익과 모든 해당 프라이버시 및 개인정보보호 원칙을 완전히 존중하여 이루어져야 한다.