“2026년 1월 인공지능기본법 시행, 어떤 일이 벌어지나”
- 정보인권, 교육, 노동, 문화, 보건의료, 소비자단체 우려 표명
“고위험 이용사업자의 책무를 광범위하게 면제하는 하위법령이 그 영향을 받는 시민의 안전과 인권을 인공지능 위험에 방치해”
1. 22개 노동시민사회단체는 2025. 12. 8. (월) 10:30, 참여연대 아름드리홀에서 정부가 추진 중인 「인공지능발전과 신뢰기반 조성에 관한 법률(이하, ‘인공지능기본법”)」시행령(안) 등 하위법령(안)의 문제점을 비판하고 대안을 촉구하는 기자설명회를 개최하였습니다. 정보인권, 교육, 노동, 문화, 보건의료, 소비자단체들은 한목소리로 고위험 이용사업자의 책무를 광범위하게 면제하는 하위법령이 그 영향을 받는 시민의 안전과 인권을 인공지능의 위험 앞에 방치할 우려가 있다고 지적하였습니다.
2. 지난 2024년 1월 23일 공포되고 2026년 1월 22일 시행을 앞둔 인공지능기본법의 하위법령, 즉 시행령(초안), 고시(안) 및 가이드라인(안) 등이 9월 17일 공개되었습니다. 이 가운데 시행령(안)은 11월 13일 일부 조항 수정 후 입법예고되어 12월 23일까지 국민의 입법의견 수렴을 거치는 중입니다. 인공지능기본법은 ▲사람의 잠재의식에 영향을 주거나 연령, 장애 등 취약성을 악용해 행동을 유도하는 인공지능 등을 금지하는 규정이 없고, ▲고영향 인공지능 사업자의 범위가 협소하며, ▲고영향 인공지능 사업자의 책무 규정이 미흡하고 그 위반에 대해서도 과기정통부 시정명령을 이행하지 않을 때에야 과태료를 부과하는 등 실효성이 의문이며, ▲인공지능의 영향받는 자의 권리 및 구제에 대한 조항을 두고 있지 않으며, ▲국방 또는 국가안보 목적의 인공지능에 대한 이 법 적용을 광범위하게 배제하고 있다는 점에서 시민사회의 비판을 받아 왔습니다. 이처럼 인공지능기본법의 법률 조항들이 인공지능의 위험을 방지하는 데 여러 한계를 가지고 있기 때문에 하위법령은 시민의 안전과 기본권을 보호할 수 있는 조치들을 보완할 필요가 있습니다. 그러나 현재의 하위법령(안)은 법률 조항이 위임한 구체적인 보호 사항도 규정하지 않은 경우가 많았고, 오히려 사업자의 책무와 관련하여 법률에 없는 유예 사항을 여러 가지 추가하였습니다.
3. 디지털정의네트워크 오병일 대표는 법률이 시행령으로 고영향 인공지능의 추가를 위임하였음에도 시행령(안)은 이에 대해 아무 것도 규정하지 않았기 때문에 공공장소 얼굴인식, 직장과 학교의 감정인식 등 시민의 안전과 인권에 위험한 인공지능이 규제의 사각지대에 놓이게 되었다고 지적하였습니다. 특히 병원, 채용회사, 금융기관 등 업무상 목적으로 인공지능을 이용하는 사업자를 모두 ‘이용자’로 보고 위험관리, 설명, 사람의 관리·감독 등 ‘이용사업자’의 책무를 일체 배제하는 것은 큰 문제라고 비판하였습니다. 뉴스사업자나 영상제작자와 같이 실제 AI 시스템을 이용하는 사업자 역시 ‘이용자’로 규정되었기 때문에 딥페이크물임을 표시해야 하는 의무를 면제받게 되었습니다. 따라서 “업무 목적으로” 인공지능을 이용하여 영향받는 자에 대하여 직접적인 영향을 미치는 인공지능 사업자는 ‘이용사업자’로서 이에 합당한 책무를 져야 한다는 지적입니다.
민주사회를 위한 변호사모임 디지털정보위원회 김하나 위원장은 고영향 인공지능 사업자 책무 중 주요 사항에 대하여 시행령(안)은 아무런 언급을 하지 않고, 권고사항에 불과한 고시나 가이드라인에만 기재되어 있는 경우가 많았다고 지적하였습니다. 법률이 위임한 중요 사항과 국민의 권리 의무에 직접적인 영향을 미치는 사항에 대해서는 반드시 시행령에 규정하여야 한다는 것입니다. 또한 시행령(안)이 법률에서 위임하지 않은 사실조사의 면제를 규정하거나 상당 기간(미상)의 계도기간을 운영하도록 한 것은 위임범위를 벗어난 것이며, 인공지능 제품 및 서비스로 인한 안전 사고나 인권 침해가 발생하여도 시민 안전이나 인권 보호보다 기업 민원을 중시하겠다는 것인지 반문하였습니다.
4. 한편, 각 부문별로 하위법령(안)의 문제점을 지적하는 목소리도 잇따랐습니다. 공공운수노조 든든한콜센터지부 김현주 지부장은 AI 도입으로 이미 콜센터 노동자들이 해고·감시·책임 공백·고객 안전 위험 등 심각한 피해를 겪고 있는 현실에 대해 소개하고, AI로부터 영향을 받는 상담사들이나 고객들을 보호할 법적 장치가 시급하다는 점을 비판하였습니다.
이어 전국교직원노동조합 참교육연구소 최선정 소장 겸 대변인은, 정부의 AI 인재양성 정책이 교육을 산업 수요에 종속시키고 학생·교사의 권리와 교육의 공공성을 약화시킬 것이라고 우려하면서, 기술의 윤리적 문제를 통제할 수 있는 '비판적 AI 시민'을 양성하는 방향으로 정책 방향을 전환할 것을 요구하였습니다.
또한 문화연대 하장호 정책위원장은 AI 산업에 편중된 정부 정책의 추진으로 인하여 문화예술 분야가 겪을 심각한 생존권 위협, 노동권 침해, 그리고 근본적인 사회적 문화 토대 붕괴 위험에 대한 사회적 논의와 대책 마련이 심각하게 부족하다고 지적하였습니다.
5. 한편, 보건의료단체연합 전진한 정책국장은 보건의료 현장에 충분히 검증되지 않은 AI가 무분별하게 도입되고 있다고 우려를 표하면서 이로 인하여 오진·안전 위협·비용 부당 청구 등 심각한 위험이 초래하고 있음에도 인공지능기본법은 이를 규제하지 못하고 사실상 의료 분야를 무법지대로 방치하고 있다고 비판하였습니다.
마지막으로 한국소비자연맹 정지연 사무총장은 AI 도입으로 인해 소비자가 챗봇 응대로 불편을 겪거나 사람이 대면할 권리가 침해되는 문제가 발생하고 있고 AI로 인한 피해가 나타났을 때 소비자가 입증 책임을 질 수밖에 없는 상황에 대하여 우려를 표하면서 사회적 약자 및 취약계층을 보호하고 소비자의 참여권을 제도화하는 안전장치가 반드시 필요하다고 지적하였습니다.
6. 성장중심적인 ‘AI 강국’이 이재명 정부의 국정 최우선 과제인 만큼, AI 위험으로부터 영향받는 사람의 권리를 보호하는 것이 더욱 중요합니다. 이에 시민사회는 인공지능이 시민의 생명과 안전, 기본권 및 민주주의에 가져올 위험에 대비하는 것이 국가의 책무라는 점을 꾸준히 짚으면서 대안을 제시해 왔습니다. 시민사회는 오늘(12/8) 기자설명회를 마치고 인공지능기본법의 시행령(안), 고시(안) 및 가이드라인(안) 등 하위법에 대해 일차적으로 의견서를 제출했으며, 향후 노동, 교육, 문화예술, 보건의료, 소비자 등 부문별 시민사회 의견서 제출도 계속될 예정입니다. 끝.
▣ 기자설명회 개요
- 제목 : “2026년 1월 인공지능기본법 시행, 어떤 일이 벌어지나”- <인공지능기본법 시행령안 등 하위법령의 문제점과 대안> 기자설명회
- 일시 장소 : 2025. 12. 8. 오전 10시 30분 / 참여연대 아름드리홀(2층)
- 공동 주최 : 민주사회를 위한 변호사 모임 디지털정의위원회, 디지털정의네트워크, 정보인권연구소, 참여연대, 공공운수노조, 무상의료운동본부, 문화연대, 미디어기독연대, 민주주의법학연구회, 보건의료단체연합(건강권실현을위한행동하는간호사회,건강사회를위한 약사회,건강사회를위한치과의사회,노동건강연대,인도주의실천의사협의회,참의료실현청년한의사회), 시민사회단체연대회의, 서울YMCA시민중계실,언론개혁시민연대 정책위원회, 인권교육온다, 전국교직원노동조합, 전국금속노동조합,전국민주노동조합총연맹, 청소년인권운동연대 지음, 표현의 자유와 언론탄압공동대책위원회, 한국소비자연맹, 한국여성민우회, 한국여성소비자연합(이상 22개 단체)
- 프로그램
- 사회: 참여연대 공익법센터 이지은 선임간사
- 하위법령(안)의 핵심 문제(1): 디지털정의네트워크 오병일 대표
- 하위법령(안)의 핵심 문제(2): 민주사회를위한변호사모임 디지털정보위원회 김하나 위원장
- 하위법령(안)의 부문별 문제점 및 제안
- 노동: 공공운수노조 든든한콜센터지부 김현주 지부장
- 교육: 전국교직원노동조합 참교육연구소 최선정 소장 겸 대변인
- 문화예술: 문화연대 하장호 정책위원장
- 보건의료: 보건의료단체연합 전진한 정책국장
- 소비자: 한국소비자연맹 정지연 사무총장
▣ 붙임 자료
[시행령 입법예고안에 대한 시민사회 의견서 주요내용]
우리는 시행령(안)이 다음과 같은 의견을 반영하여 수정, 보완이 되어야 한다는 점을 다시 한번 강조한다.
- 첫째, 우리나라 인공지능기본법은 영향받는 자의 권리를 규정하고 있지만, 시행령(안)은 영향받는 자의 권리 보호 및 구제를 위한 아무런 조치도 포함하고 있지 않다. 영향받는 자가 설명요구권을 행사할 수 있는 구체적인 이행방안도 제공하고 있지 않으며, 고영향 인공지능 사업자의 책무에도 사실상 AI 시스템을 이용하는 사업자인 이용자 보호방안만을 명시하고 있을 뿐이다. 과학기술정보통신부는 영향받는 자의 권리 보호와 구제를 위한 실효성있는 조치를 시행령(안)에 규정해야 한다.
- 둘째, 우리나라 인공지능기본법은 유럽연합 인공지능기본법과 달리 공공장소 얼굴인식, 취약성 공격, 직장과 학교의 감정인식 등 인권침해 소지가 큰 인공지능 시스템을 금지하고 있지 않다. 따라서 적어도 시행령의 고영향 인공지능에 관한 정의 및 책무 규정에서 안전과 인권에 위험한 인공지능과 그에 대한 조치를 충분히 규정하여야 마땅하다. 그럼에도 시행령(안)은 법률에서 시행령으로 명시적으로 위임한 고영향 인공지능에 관한 사항에 대해서조차 아무런 규정을 두지 않고 있다.
- 셋째, 시행령(안)은 법령 규정 외적으로 ‘이용사업자’를 협소하게 해석함으로써 인공지능 제품이나 서비스를 업무에 사용하는 사업자를 모두 ‘이용자’로서 보고 일체의 책무를 배제하였다. 이로 인하여 병원, 채용회사, 금융기관 등 업무상 목적으로 인공지능을 이용하는 사업자가 환자, 채용 구직자, 대출 신청자 등 ‘영향받는 자’에 대해서 위험관리, 설명, 사람의 관리·감독 등의 책무를 지지 않아도 된다. “제공받은 제품 또는 서비스를 형태나 내용의 변경 없이 그대로 이용하는” 이용자와 달리, 인공지능을 “업무 목적으로” 이용하여 영향받는 자에 대하여 직접적인 영향을 미치는 병원, 채용회사, 금융기관 등 사업자는 ‘이용사업자’에 해당하는 합당한 책무를 져야 한다.
- 넷째, 시행령(안)은 뉴스사업자나 영상제작자와 같이 실제 AI 시스템을 이용하는 당사자를 이용자로 규정하여 딥페이크물임을 표시해야 하는 의무를 면제하고 있다. 실제 딥페이크물을 제작하지 않는 AI 사업자가 이러한 표시 의무를 부담할 수도 없는 상황이다. 그렇다면, 딥페이크물에 대한 고지 및 표시 의무는 누가 이행해야 하는가? 이러한 문제를 해결하기 위해서도 AI 시스템을 이용하는 사업자를 ‘이용사업자’로 포섭하여 합당한 책무를 지도록 할 필요가 있다.
- 다섯째, 인공지능기본법은 국방 또는 국가안보 목적으로만 개발·이용되는 인공지능을 국가정보원장, 국방부장관, 경찰청장의 자체적인 지정만으로 이 법의 적용범위에서 광범위하게 배제하였다. 현재 국방 또는 국가안보 목적 인공지능을 규율할 수 있는 법안이 추진조차 되고 있지 않기 때문에, 가장 인권침해가 심각한 인공지능에 대한 규제 공백이 우려된다. 그럼에도 시행령(안)은 국가안보핵심기술 등 ‘국방 또는 국가안보 목적으로만 개발ㆍ이용되는 인공지능’ 분야를 폭넓게 인정하고 있다. 이중용도(dual use)로 사용될 수 있는 인공지능이 국방 또는 국가안보 목적 예외로 이 법에서 규정한 최소한의 의무를 배제한 채 은밀하게 개발·운영되는 일이 없도록, 최소한 적용제외 인공지능에 대해서는 국가인공지능위원회가 심의·결정하도록 하여야 한다.
- 여섯째, 시행령(안)은 안전성 확보 의무가 적용되는 최첨단 인공지능(frontier AI)의 기준으로 ‘학습에 사용된 누적 연산량이 10의26승 이상’으로 매우 좁게 설정하고 있다. 나아가 기술적 요건에 더하여 과학기술정보통신부가 AI 기술 발전 수준, 위험도 등을 고려하여 고시하는 기준에 해당해야 하므로 그 범위는 더욱 협소하다. 현재 이 기준을 충족하는 인공지능 시스템이 과연 몇 개나 있을지 의문이다. 향후 기술 발전에 따라 기준을 변경하더라도 현재 주요 최첨단 인공지능을 포괄할 수 있도록 10의25승 이상으로 규정할 필요가 있다. 또한, 의무 대상 사업자는 자신의 위험 관리 체계 및 시스템에 대한 주요 정보를 공개하도록 해야 한다.
- 일곱째, 고영향 사업자 책무에 있어서 시행령(안)은 “이행하여야” 하며(법 제34조 제1항), 고시는 “준수하도록 권고할 수 있다”고 정하고 있을 뿐이다(법 제34조 제2항). 시행령과 고시, 가이드라인은 그 법적 지위가 상이하다. 권고에 불과한 사항에 대해서는 특히 비용이 많이 소요되는 조치의 경우 사업자의 준수를 기대하기 어렵고 위반 시 제재도 어려울 수밖에 없다. 그럼에도 시행령(안)에는 명시되어야 마땅한 중요한 사항에 대해서 아무런 언급을 하지 않고, 고시나 가이드라인에만 기재되어 있는 경우가 많다. 특히 법률이 위임한 중요 사항과 국민의 권리 의무에 직접적인 영향을 미치는 사항에 대해서는 반드시 시행령에 규정하여야 할 것이다. 따라서 고영향 인공지능 사업자의 책무에 대한 고시 및 가이드라인의 주요 내용은 시행령으로 규정하여야 한다.
- 여덟째, 시행령(안)은 법률에서 위임하지 않은 사실조사의 면제를 규정하거나 상당 기간(미상)의 계도기간을 운영하도록 하였다. 인공지능 제품 및 서비스로 인한 안전 사고나 인권 침해가 발생하여도 국가가 최소한의 행정 조사를 포기하거나 사실상 과태료를 미부과하겠다는 방침인 것이다. 사실조사와 과태료에 대해서는 기업들이 많은 민원을 제기한 바 있는 만큼, 그 면제 또는 유예는 시민 안전이나 인권 보호보다 기업 민원을 중시한 결과가 아닌지 의문스럽다. 이러한 전반적인 규제 설계는, 당분간 소비자를 비롯하여 그 영향을 받는 사람을 보호할 수 있는 설명 방안이나 사람의 관리‧감독, 문서의 작성‧보관 등 책무를 다하지 않고 인공지능 제품이나 서비스를 시장에 출시하여도 된다는 신호를 국가적 차원에서 공식화한 것이나 다르지 않다.
세계적으로 주목받고 있는 한국의 인공지능기본법이 인공지능 위험으로부터 영향받는 시민을 보호하고 국제인권규범에 부합하는 인권기반접근을 달성할 수 있도록, 시민사회는 시행령(안)에 대해 다음과 같이 의견을 제시하며, 반드시 반영되기를 촉구한다.
[고시 및 가이드라인에 대한 시민사회 의견서 주요내용]
우리는 다음과 같은 사항의 개선을 권고하였다.
- 첫째, 안전성 확보 고시(안) 및 AI 안전성 확보 가이드라인(안)과 관련하여, 우선 본 고시와 가이드라인이 모든 인공지능을 대상으로 한 것이 아니므로 최첨단 인공지능 안전성 확보 고시 등으로 명확하게 규정할 것을 제안하였다. 또한 특정 AI 시스템을 대상으로 하고 있어 AI 모델 제공자가 수범 대상이 되는지 모호하다는 점, AI 시스템을 대상으로 할 경우 AI 모델의 고유한 위험성을 통제하기 힘들다는 점, 의무 대상인지 여부를 누가 판단할 것인지가 모호하다는 점을 지적하였다. 또한, 시행령(안)에서도 이미 비판하였지만, 고시와 가이드라인에서도 안전성 확보 의무 대상을 지나치게 협소하게 규정하고 있다는 점을 비판하였다. 이와 함께 과학기술정보통신부는 의무 대상 사업자의 목록을, 의무 대상 사업자는 자신의 위험 관리 체계 및 시스템에 대한 주요 정보를 공개하도록 할 필요가 있음을 제기하였다.
- 둘째, 사업자책무 고시(안) 및 고영향 AI 사업자 책무 가이드라인(안)과 관련하여, 인공지능 개발사업자와 이용사업자별로 책무가 다를 수 있는데 그 구분이 모호하고 자의적이라는 점을 지적하였다. 또한 시행령(안)의 문제와도 연결되는데, AI 시스템을 업무상 이용하는 사업자 역시 이용자로 규정하고 있어서 영향받는 자의 권리 보호와 이용자(또는 이용사업자)의 책무가 규정되지 않은 것은 큰 문제이다. 사업자 책무 가이드라인은 안전성 확보 가이드라인에 비해 그 내용이 구체적이지 않아 매우 부실하게 작성되어 있어, 전반적으로 재검토될 필요가 있다.
- 셋째, AI 투명성 확보 가이드라인(안)과 관련하여, 인공지능기본법은 인공지능개발사업자와 이용사업자에 의무를 부과하며, 단순히 인공지능제품∙서비스를 이용한 결과물을 자신의 서비스 등에 활용하는 자는 인공지능기본법상 사업자에 해당하지 않아 투명성 확보 의무가 없다고 명시하고 있음. 이에 따라 YTN와 같은 뉴스사업자나 영화제작자 등 생성 인공지능 기술을 활용해 콘텐츠를 제작한 주제들은 아무런 표시 의무가 없고, 생성형 AI 서비스를 제공하는 사업자는 표시할 수 있는 기능만 제공하면 되기 때문에, 실제 표시 의무를 수행해야 할 주체가 없어지게 됨. 이용자로 명시되어 있는 사업자라고 하더라도 인공지능 개발 및 이를 바탕으로 하는 자신의 고유의 서비스 제공을 위하여 주도권을 가지고 인공지능을 활용하는 경우에는 단순 ‘이용자’가 아닌 인공지능이용사업자로 규율되어야 할 것임.
- 넷째, 고영향 AI 판단 가이드라인(안)의 경우, 전반적으로 영향 인공지능의 개별 목록의 의미에 대하여 문언과 다르게 임의로 축소 해석하거나, 추가적인 제한 요건을 부가하는 등의 방식으로 고영향 인공지능의 범주를 최소화하려 하고 있는데, 이는 상위법에 위배될 소지가 있고, 기본권 보호의 측면에서도 바람직하지 않다.
- 다섯째, AI 영향평가 가이드라인(안)에 대해서는 기본권 영향평가로 이름을 변경할 것, 평가 수행 주체의 독립성과 전문성 요건을 규정할 것, 국가인권위원회와의 협력을 규정할 것, 사전 준비 단계에서 평가팀의 준비단계도 검토할 것, 이해관계자 및 AI 시스템이 사용되는 사회적 맥락에 대한 파악의 필요성, 영향받는 자와의 협의를 필수적인 절차의 하나로 명시할 것, 영향받는 기본권을 제한하지 말 것 등 다양한 개선을 권고하였다. <끝>
