[주장] 초거대 AI 시대, 헌법 127조를 "인간중심 과학기술"로 재설계해야

IE003501870_STD.jpg

산업화의 막바지이던 1987년, 개정헌법에 포함되었던 제127조는 "국가는 과학기술로 국민경제 발전에 노력해야 한다"라는 단문으로 과학기술의 위상을 정의했다. 압축 성장이 정점을 지나던 당시에는 과학기술을 경제 성장의 엔진으로 보는 시각이 지배적이었을 것이다. 그러나 초거대 AI와 전방위적 디지털 감시가 일상이 된 2025년의 오늘, 이 조항은 과학기술을 경제수단으로만 한정하며 우리 국민의 존엄·자유·안전·평등을 위협할 수 있는 부작용과 이에 대한 국가 책임을 규정하지 못하고 있다.

우려는 현실이 되고 있다. 지난 23일 대한민국 정책브리핑에 따르면 경찰청은 2029년까지 보디캠 1만 4000대를 도입한다고 한다. 지방자치단체들은 통합관제센터를 AI 얼굴 인식 기반으로 고도화하고, 개인정보위는 관제 인력 자격 기준과 열람 절차를 별도 법으로 정비하겠다고 밝혔다. 데이터의 바다 속에서 첨단 기술은 헌법의 보호망을 넘어 국민의 일거수일투족을 기록하지만, 헌법적 대응 논리와 권리 구제 장치는 찾기 어렵다.

세계 주요 규범은 개발촉진보다 "위험관리"를 최우선 가치로 삼고 있다. EU의 AI법은 고위험 AI에 문제 발생 시 원인을 추적하는 "자동로그화", 필요 시 즉시 긴급조치가 가능한 "휴먼 오버라이드", 의사결정 과정을 인간이 이해할 수 있는 형태로 제시하는 "설명가능성"을 의무화하고 생체 감시·사회적 신용시스템과 같은 기본권 침해형 기술은 원천 금지했다.

미국은 2023년 행정명령 14110호를 통해 거대 언어모델의 안전성 평가 결과를 정부에 사전 제출하도록 하고, 특히 국방 및 정보·수사용 AI 모델은 반드시 별도 등록제로 관리해 투명성을 강화시켰다. 이는 기업 경영 부문도 마찬가지다. 세계 최초 AI 경영 시스템 국제표준인 ISO/IEC 42001은 CEO가 이와 관련된 윤리헌장을 수립하고 위험평가와 사후 모니터링을 직접 책임지도록 요구했다. AI의 책임성을 재무감사 수준으로 끌어 올린 것이다.

전체 내용보기