Skip to main content

인공지능 시스템이 좋은 거버넌스에 미치는 영향에 대한 의견, 유엔인권이사회 자문위원회 제출

By 2025-05-055월 8th, 2025알림

정보인권연구소는 5월 5일 유엔인권이사회 자문위원회에 <인공지능 시스템이 좋은 거버넌스(good governance)에 미치는 영향에 대한 의견>을 제출했습니다.

[의견 국문 PDF 보기]
[의견 영문 PDF 보기]

자문위원회는 유엔인권이사회의 요청으로 인공지능 시스템이 좋은 거버넌스에 미치는 영향에 대하여 연구하고 있습니다(결의안 57/5). 이 연구는 인공지능 시스템이 좋은 거버넌스를 통해 인권을 증진하고 보호하는 데 기여할 수 있는 분야와 인공지능 시스템이 좋은 거버넌스와 인권에 문제를 야기하는 분야를 확인하고, 위험 기반 접근 방식에 따라 인공지능 시스템을 개발, 배치, 사용 및 관리하는 세계 우수 사례에 대해 주목하며, 이에 필요한 안전 장치들을 파악하고자 합니다.
https://www.ohchr.org/en/calls-for-input/2025/call-inputs-study-human-rights-council-advisory-committee-role-good-governance

정보인권연구소는 인공지능 시스템이 좋은 거버넌스에 미칠 수 있는 잠재적 이점을 활용하고 부정적 인권 영향을 방지하기 위해서는, 그 영향을 받은 사람들에게 AI의 설명가능성, 해석가능성 및 이의제기 가능성이 보장되어야 한다고 지적하였습니다. 그러나 이러한 가능성은 딥러닝 등 최신 AI기법의 고유한 특성으로 인해 완전히 실현되기 어려울수 있기 때문에 사전적이고 정기적으로 위험을 식별하고 방지 또는 완화하는 인권영향평가의 실시가 필요하며, 이는 특히 공공서비스 AI에서 필수적입니다. 또한 인권에 중대한 영향을 미칠 우려가 있는 영역의 AI 기반 의사결정에 대해서는, 문서화, 기록, 설명, 인간의 감독 등의 의무를 체계화하고, 이러한 수단을 통해 인공지능으로 발생한 피해를 독립적인 감독기관이 조사하고 피해자를 구제할 수 있도록 제도화할 필요가 있습니다.

사회집단 편향 문제의 해결은 기술 기업이나 기술 엘리트의 노력에만 맡겨두어서는 안되며, 국내적으로나 국제적으로 차별을 어떻게 식별하고 인공지능 차별을 어떻게 방지해야 할지에 대한 원칙과 규범이 수립될 필요가 있습니다. 국가는 인공지능 알고리즘으로 인한 차별 문제를 해결하기 위하여 차별 금지와 관련된 절차, 관행 및 제도를 식별하고 개선해야 합니다. 특히 인공지능 거버넌스에는 차별적 영향을 받을 위험이 큰 개인 또는 그를 대리할 수 있는 단체가 참여하여야 합니다.

그러나 지난 1월 21일 국회를 통과한 한국의 인공지능기본법은 이러한 기준을 충족하고 있지 않습니다. 정보인권연구소는 유엔인권이사회가 AI 거버넌스에서 인권기반접근의 원칙을 명확히 수립해 줄 것을 요청하였습니다. 특히 유엔인권이사회가 AI로 인한 인권 침해를 독립적으로 감독하고 구제할 수 있는 피해구제의 원칙을 옹호할 필요가 있습니다.