2026년 1월 22일
한국은 목요일 세계 최초로 AI 모델의 안전한 사용을 포괄적으로 규율하는 법을 공식 시행했다.
「인공지능 발전 및 신뢰기반 구축에 관한 기본법」이 발효되면서 기업과 AI 개발자는 딥페이크 콘텐츠 및 AI가 생성한 허위정보에 대응할 책임을 보다 명확히 지게 되었다.
일상생활이나 사람들의 안전에 영향을 미치는 콘텐츠를 생성할 수 있는 고위험 AI 모델을 사용하는 기업은 자사 서비스가 AI 기반임을 이용자에게 알리고 적절한 안전조치를 마련할 책임이 있다.
이런 적용 사례에는 채용 과정, 대출 심사, 의료 상담 등이 포함된다.
AI 모델이 생성한 콘텐츠에는 AI 생성임을 보여주는 워터마크를 표시하도록 규정되어 있다.

관련TRT World - AI-powered taxis transport foreign guests at South Korea’s APEC summit
“AI가 생성한 콘텐츠에 워터마크를 적용하는 것은 딥페이크 등 AI 기술 악용으로 인한 부작용을 막기 위한 최소한의 안전장치”라고 과학부 관계자는 말했다.
또한 이 법은 한국에서 사업을 하는 해외 기업에게 글로벌 연간 매출이 1조원 이상이거나 국내 매출이 100억원 이상이거나 국내 일일 이용자가 100만 명 이상인 경우 현지 대리인을 지정하도록 요구한다.
현재 OpenAI와 구글은 이 기준에 해당한다.
법 위반 시 최대 3천만 원의 벌금이 부과될 수 있다. 다만 정부는 민간 부문이 적응할 수 있도록 처벌 적용에 앞서 1년의 유예기간을 둘 계획이다.
법에 따라 과학부 장관은 AI 산업 진흥의 일환으로 3년마다 정책 청사진을 제시해야 한다.

관련TRT World - South Korea blocks DeepSeek over data concerns
출처:AA






