정부, AI 규제 프레임워크 발표

정부, AI 규제 프레임워크 발표, 리스크 기반 4단계 분류 적용

2025년 9월 24일, 과학기술정보통신부가 국내 최초의 체계적인 인공지능(AI) 규제 프레임워크를 공식 발표했다. 이번 프레임워크는 EU의 AI 규제법을 벤치마킹하되, 한국의 산업 환경과 기술 발전 수준을 고려해 맞춤형으로 설계됐다. 핵심은 AI 기술을 리스크 수준에 따라 4단계로 분류하고, 각 단계별로 차별화된 규제를 적용하는 것이다. 정부는 이를 통해 AI 기술 혁신은 촉진하면서도 잠재적 위험은 효과적으로 관리하겠다는 방침이다.

4단계 리스크 분류 체계는 다음과 같다. 첫째, ‘최소 리스크’는 스팸 필터, 추천 알고리즘 등 일상적인 AI로 규제 대상에서 제외된다. 둘째, ‘제한적 리스크’는 챗봇, 콘텐츠 생성 AI 등으로 투명성 의무만 부과된다. 셋째, ‘고위험’은 의료 진단, 자율주행, 신용평가, 채용 심사 등 인간의 생명과 권리에 직접 영향을 미치는 AI로 엄격한 사전 심사와 정기 감사를 받아야 한다. 넷째, ‘수용 불가 리스크’는 대규모 감시, 사회적 신용점수, 잠재의식 조작 등으로 원칙적으로 금지된다.

고위험 AI에 대한 규제가 특히 강화됐다. 의료 AI의 경우, 식약처 승인과 함께 임상시험 데이터 제출이 의무화되고, 오진율이 5% 이상이면 즉시 사용이 중단된다. 자율주행차는 안전성 인증을 받아야 하며, 사고 발생 시 블랙박스 데이터를 30일 이내 제출해야 한다. 채용 AI는 성별, 나이, 출신 지역 등에 대한 편향성 테스트를 통과해야 하고, 지원자가 요청하면 AI 평가 근거를 공개해야 한다.

기업 지원책과 글로벌 경쟁력 강화

규제와 함께 AI 산업 육성 지원책도 대폭 강화된다. 정부는 2030년까지 AI 산업에 50조원을 투자하고, AI 전문 인력 10만명을 양성한다는 계획을 발표했다. 특히 중소기업과 스타트업을 위한 ‘AI 규제 샌드박스’를 확대 운영해, 혁신적인 AI 서비스를 2년간 규제 없이 시범 운영할 수 있도록 했다. 또한 AI 개발에 필요한 공공 데이터 100TB를 무료로 개방하고, 슈퍼컴퓨터 사용료를 50% 할인해준다.

AI 윤리 인증제도 도입된다. 기업이 자발적으로 AI 윤리 기준을 준수하면 ‘신뢰할 수 있는 AI’ 인증을 부여하고, 공공 입찰 시 가점을 제공한다. 인증 기준은 ▲설명 가능성 ▲공정성 ▲투명성 ▲책임성 ▲안전성 ▲프라이버시 보호 등 6개 영역으로 구성된다. 네이버, 카카오, 삼성전자 등 대기업들은 이미 인증 신청을 준비 중이며, 인증 획득 시 해외 진출에도 유리할 것으로 예상된다.

개인정보 보호와 AI 보안도 크게 강화된다. AI가 처리하는 모든 개인정보는 가명화 또는 익명화가 의무화되고, 정보 주체가 요청하면 AI의 의사결정 과정을 설명해야 한다. 또한 AI 시스템에 대한 해킹이나 적대적 공격을 막기 위해 보안 인증을 의무화하고, 중요 인프라에 사용되는 AI는 연 2회 보안 감사를 받아야 한다.

업계 반응은 대체로 긍정적이다. 한국인공지능협회는 “명확한 가이드라인 제시로 기업들의 불확실성이 해소됐다”고 평가했다. 다만 일부에서는 “고위험 AI 규제가 지나치게 엄격해 혁신을 저해할 수 있다”는 우려도 제기됐다. 정부는 이러한 의견을 수렴해 6개월간 시범 운영 후 규제 수준을 조정할 예정이다. 이번 AI 규제 프레임워크는 2026년 1월부터 본격 시행되며, 한국이 ‘신뢰할 수 있는 AI 선도국’으로 자리매김하는 계기가 될 것으로 기대된다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다