AI 기술을 위한 변화하는 풍경
인공 지능 분야는 중대하게 변모하며, 그 다양한 응용 프로그램들을 관리하기 위한 새로운 규제와 표준을 정립하고 있는 중입니다. 다가오는 규제는 고위험 소프트웨어부터 한정적인 영향 기술, 유럽 연합 내에서 금지되는 결코 허용되지 않는 시스템까지 다양한 AI 범주를 네 가지 명백한 그룹으로 구분합니다.
고위험 시스템을 위한 엄격한 지침
교육 분야에서 학생의 지원 평가나 입학 프로세스에 사용되는 AI 기술과 같은 고위험 시스템들은 EU 시장에 진입하기 전 엄격한 준수 조치를 요구합니다. 이는 시장 진입 전 제조업체에 의한 철저한 위험 평가를 필수로 하며 시민들이 AI 지원을 통해 내린 결정에 대해 이의를 제기할 수 있도록 하여 책임과 투명성을 보장합니다.
논란이 되는 AI 관행 금지
이 법안은 명확한 현업 사용자의 기본적인 권리를 침해하는 소프트웨어를 명백히 금지합니다. 이는 감시를 가능케 하는 기술, 예측 프로파일링을 위한 민감한 데이터의 악용, 또는 사회 평가 체계의 은밀한 사용과 같은 기술을 포함합니다. 또한, 직장이나 교육 기관에서의 감정 모니터링은 엄격히 금지되어 침입적인 관행으로부터 개인들을 보호합니다.
감시 및 집행을 강화
이러한 규정을 효과적으로 집행하기 위해 EU 내에서 AI 부서 및 EU 회원국 대표로 구성된 자문 회의 등 새로운 모니터링 기관이 설립될 예정입니다. EU 법률을 위반한 기업들은 매년 순이익과 연결된 상벌 혹은 사전 정의된 벌금을 부과받게 될 것이며, 불이행에 대한 엄중한 후유증이 따를 것입니다.