AI CCTV 도입, 범죄 대응의 명분은 어디까지 허용되는가

실종자 수색과 범죄 대응에 기여
광범위한 개인정보 수집 우려도
허용 범위 및 통제 체계 요구돼
최소 침해 위한 명확한 기준 필요

 

서울시가 서울 전역에 설치된 약 12만 3천여 대의 CCTV를 한 번에 검색할 수 있는 AI 영상 분석 시스템을 구축하겠다고 밝혔다.

 

서울시는 해당 시스템이 전 자치구에 도입되면 서울 전역의 CCTV를 하나의 네트워크처럼 활용할 수 있어 실종자 수색과 범죄 대응의 골든타임 확보에 기여할 것이라고 설명한다.


그런데 이 같은 보도 어디에서도 해당 시스템이 서울 시민의 얼굴 정보를 AI를 통해 분석하고 축적하는 구조로 이어질 수 있다는 점에 대한 문제의식은 찾아보기 어렵다.

 

안면 정보는 개인을 식별할 수 있는 가장 민감한 개인정보에 해당한다. 이러한 정보가 공공기관에 의해 광범위하게 수집되고 관리되는 체계가 구축된다면, 사생활 침해 가능성에 대한 검토가 선행되어야 하는 것이 마땅하다.

 

명확한 법적 기준과 관리 장치가 마련되지 않는다면, 이러한 시스템은 편의성이라는 명분 아래 기본권 침해로 이어질 가능성을 내포하게 된다.


한때 중국이 CCTV 안면 인식 기술을 활용해 국민을 광범위하게 통제한다는 소식이 전해진 바 있다. 우리는 이를 두고 기본적인 인권조차 보장되지 않는 국가의 모습이라고 비판해 왔다. 그런데 이제 유사한 기술이 우리 사회에도 도입되는 상황에 이르렀다.


물론 범죄 대응의 효율성을 높이겠다는 취지는 충분히 공감할 수 있다. 다만 그 명분이 존재한다는 이유만으로, 국가기관이 필요하다고 판단하는 순간 시민 전체의 얼굴 정보를 일괄적으로 검색하고 분석하는 것이 정당화될 수 있는지는 별도의 문제다.


AI 기반 기술은 분명 인간에게 큰 편의를 제공한다. 그러나 그 이면에는 개인정보 침해 가능성이 항상 함께 존재한다는점을 간과해서는 안 된다.

 

기술이 발전할수록 수사 방식 역시 더욱 정교해질 것이고, 특정 범죄자의 음성을 기반으로 통화 내용을 분석하거나 이를 활용해 검거에 나서는 방식 또한 머지않아 현실이 될 수 있다.

 

문제는 이러한 기술이 어디까지 허용되고, 어떤 기준 아래 사용되는지에 대한 통제가 충분히 마련되어 있는지이다.


범죄 대응이라는 목적의 정당성은 누구도 부정하기 어렵지만 그 명분이 확대될 경우, 개인의 신체나 위치 정보까지 국가가 직접 관리하는 수준으로 나아가지 않으리라는 보장은 없다. 수사 편의를 이유로 통신자료 제공이 이루어지는 현 제도에서도 유사한 논란이 반복되어 왔다.


일부 위헌 판단 이후 사후 통지 절차가 도입되기는 했지만, 개인 정보가 국가 권력의 필요에 따라 제공된다는 구조 자체는 크게 달라지지 않았다. 기술이 발전할수록 이러한 문제는 더욱 확대될 수밖에 없다.


이미 우리는 일상에서 다양한 형태의 감시 기술과 함께 살아가고 있다. 각종 운동시설 출입에 안면 인식이 활용되고, 도로에 나서면 골목마다 설치된 CCTV와 일정 간격으로 배치된 과속 단속 카메라가 작동한다.

 

이러한 장치들이 개별적으로 존재할 때도 충분히 촘촘한 감시 환경이었는데, 만약 이 모든 시스템이 하나로 통합된다면 개인의 사생활은 사실상 보호되기 어려운 구조가 될 수밖에 없다.


더욱이 안면 인식과 AI 분석 기술은 앞으로도 계속 발전할 것이다. 이러한 기술이 축적된 데이터를 기반으로 고도화되고, 그 정보가 하나의 기관에 통합 관리되는 구조로 나아간다면 개인의 일상은 상시적으로 분석되고 평가될 대상이 될 가능성을 배제하기 어렵다.

 

이른바 ‘빅브라더’라는 표현이 더 이상 과장된 비유로만 들리지 않는 이유다.


결국 중요한 것은 기술의 발전을 막는 것이 아니라, 그 활용을 어디까지 허용할 것인지에 대한 기준을 명확히 설정하는 일이다.

 

AI 시대일수록 개인정보 보호와 관련된 법적·제도적 장치를 정교하게 마련하고, 동의 없는 정보 수집과 활용을 엄격히 제한하려는 사회적 합의가 필요하다. 그것이야말로 기술의 편의성과 개인의 자유가 충돌하지 않도록 하기 위한 최소한의 조건이다.