내년 1월부터 ‘AI 생성물’ 명확히 알려야

과학기술정보통신부는 ‘인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)’ 시행령 제정안을 마련해 12일부터 내달 22일까지 40일간 입법예고를 한다고 12일 밝혔다. 이번 시행령에는 안전성 확보 의무 대상이 되는 ‘고영향AI’에 대한 명확한 기준이 포함됐다. 정부는 학습에 사용된 누적 연산량이 ‘10의 26제곱 부동소수점연산(FLOPs·플롭스)’ 이상인 경우 고영향AI라고 규정했다. AI 기업들이 누적 연산량을 대중에게 공개하고 있지는 않지만 업계에서는 오픈AI의 가장 최신 모델인 ‘GPT-5’ 정도가 해당 기준에 부합할 것으로 보고 있다. 네이버, 카카오 등 국내 AI 기업이 개발한 대규모언어모델(LLM)은 고영향AI에는 포함되지 않을 가능성이 높다. 정부는 최근 딥페이크를 악용한 범죄 행위가 늘고 있다는 점을 고려해 딥페이크 등 AI 생성물에는 AI를 활용했다는 것을 사용자가 명확히 인식할 수 있게 고지해야 한다는 내용도 담았다. 또 고영향AI 혹은 생성형