R&D 나침반




2030년 5월 5일, 어린이날을 맞아 아이를 위한 선물을 준비하고 퇴근을 기다리고 있던 김성도 씨는 휴대폰에 아이의 이름이 뜨자 반갑게 전화를 받았다. 올해 학교에 들어간 딸이 하교 시간에 건 영상통화라 평소와 다름없는 대화가 오갈 줄 알았지만, 곧 그는 충격과 공포, 분노에 사로잡혔다. 영상통화 속 딸은 상처투성이의 얼굴을 하고 눈물을 흘리면서 자신이 괴한에게 잡혀있다고 말하고 있었다. 가상의 이야기지만 이는 디지털 기능이 발전하면 머지않은 시간 내에 언제든, 누구에게나 일어날 수 있는 일이다. 이미 전문가들 사이에서는 인공지능기술(AI)을 통해 얼굴과 음성을 합성하는 ‘딥페이크’를 통해 주변 지인의 얼굴과 목소리를 실시간으로 합성하고, 이를 보이스피싱 등의 범죄에 활용할 수 있다는 우려가 나오고 있다. 실제 지난해 3월에는 볼로디미르 젤렌스키 우크라이나 대통령이 연단에 서서 우크라이나인들과 군인들을 향해 “러시아와의 전쟁에서 무기를 내려놓으라”고 말하는 모습이 담긴 영상이 유튜브, 페이스북 등 사회관계망서비스(SNS)를 통해 순식간에 전 세계로 퍼져나간 적이 있었다.

이 영상 역시 딥페이크 영상으로, 다행히도 큰 문제로 번지지 않은 채 신속하게 온라인에서 사라졌다. 하지만 비슷한 상황이 사회의 감시망을 피해 개인에게 일어난다면 어떨까. 실제 미국과 유럽에서는 할리우드 배우 등 유명인의 얼굴을 합성한 포르노 영상이 번지다가 최근에는 일반인까지 대상이 되면서 더 큰 사회적 문제가 되고 있다. AI 기술 발달로 1분 이하의 짧은 샘플만 있다면 세상을 떠난 그리운 가족의 목소리를 재현할 수 있는 시대가 됐지만 이를 악용한 범죄 가능성도 커지고 있다. 김문구 한국전자통신연구원(ETRI) 책임연구원(박사)은 “3~5년 후 ‘범용 인공지능시대’가 오면 약 3분의 통화 녹음으로도 누구나 쉽게 목소리를 카피할 수 있는 시대가 온다”며 “기술이 발전할수록 실체와 거짓을 판별하기 어려워지는 것”이라고 말했다. 디지털 기술이 발달하면서 인류의 삶이 편리해졌지만 이면에는 이로 인한 범죄 등을 비롯한 각종 부작용이 발생하고 있다. 이를 ‘디지털 역기능’이라고 부른다. 디지털 활용 기술의 특징인 익명성, 가상성, 접근 용이성, 모방성, 경로 의존성은 디지털 기술의 악용을 더욱 가속화하고 있다. 앞서 언급한 딥페이크뿐만 아니라 게임 중독, 사이버폭력, 디지털 격차로 인해 발생하는 문제, 디지털 치매, 디지털 테러 등도 디지털 역기능에 포함된다.


실제 한국과학기술기획평가원(KISTEP)이 지난해 7월 국내 디지털 역기능 전문가 32명을 대상으로 심층 설문조사를 한 결과, 전문가들은 디지털 역기능의 심각성 수준이 현재 6.8점(10점 만점)으로 매우 높은 수준이라고 우려했다. 이들은 향후 이 심각성이 58% 이상 증가할 것이라고 내다봤다. 또한 미래 디지털 역기능에 가장 큰 영향을 미칠 기술로는 AI(50%)가 꼽혔으며 메타버스(21.9%), 블록체인(15.6%), 지능형 로봇(12.5%) 순으로 나타났다.

과학자들이 AI 기술을 가장 우려하는 이유는 AI 기술이 빠르게 진화하면서 인간과 유사한 수준으로 자연스러운 대화와 이미지 생산이 가능해지고 있지만, 이로 인해 보다 정교한 수준의 허위 정보 생산과 편향성을 유발하는 문제점을 만들고 있기 때문이다. 지난해 미국 존스홉킨스대와 조지아공과대, 워싱턴대는 공동 연구를 통해 AI 모델 중 하나인 CLIP을 바탕으로 설계된 로봇이 인간의 얼굴을 보고 이 중 범죄자를 구분하도록 지시받았을 때,백인 남성보다 흑인 남성을범죄자로 분류할 확률이 10% 더 높다는 사실을 확인했다. 가정주부를 구분하라는 명령을 받았을 때는 백인 남성보다는 유색인종 여성을 선택할 확률이 높다는 점도 발견했다. AI가 인터넷상의 방대한 자료를 학습하는 과정에서 왜곡된 정보나 편견, 잘못된 정보까지 습득하는 문제가 생기는 게 주요 원인이다. 디지털 역기능에 대한 문제와 피해가 커지면서 기업과 학계는 디지털 기술 성장에 따른 부작용을 최소화하기 위한 고민을 계속하고 있다.

실제 마이크로소프트(MS)는 자사의 안면인식 소프트웨어 기반 AI가 흑인을 백인보다 무례하다는 식으로 해석하는점을 포착하고 2022년 6월 안면인식 기술에서 감정 인식 기능을 제거하겠다고 발표했다. 감정 인식 기술은 소프트웨어를 활용해 얼굴 표정, 목소리 톤 또는 단어선택과 같은 여러 특성을 살펴본 뒤 인간의 감정 상태를 자동 감지하는 기술이다. KAIST는 2022년 초 AI 모델 학습 데이터의 편향성을 분석·탐지·완화·제거하는 ‘MAF 2022’를 개발했다. 데이터를 학습하는 과정에서 편향된 데이터를 학습하는 것은 아닌지, 개발한 AI가 사용되는 분야에 맞춰 공정한 결과를 내는지를 분석하고 조치하는 역할을 하는 시스템이다. 지난해 11월에는 인텔이 딥페이크 여부를 판단하는 도구인 ‘페이크캣처FakeCatcher)’를 출시했다. 페이크캣처는 사람의 얼굴에서 혈류를 탐지하는 기술을 활용해 딥페이크 영상을 판별한다. 심장이 수축하면서 피를 내보낼 때 정맥의 색깔이 바뀌는 현상을 활용했다. 육안으로는 파악하기 어렵지만 살아 있는 조직의 혈관에 빛이 흡수되거나 반사되는 양을 측정하면 이 변화를 감지할 수 있다.

AI 블랙박스 문제를 해결하기 위한 분야인 ‘설명 가능한 인공지능 기술(eXplainable AI)’에 대한 연구도 활발히 이뤄지고 있다. AI는 높은 정확도로 정답에 가까운 답을 내놓지만 AI가 어떻게 이 답을 찾아냈는지는 알기 어려운 경우가 많다. 이를 ‘AI의 블랙박스화’라고 부른다. AI는 사람이 직접 설계한 논리에 따라서 결과를 만들어내는 것이 아니라, 학습된 데이터를 통해 스스로 모델을 만들기 때문에 데이터의 어떤 속성이 결론(답)에 영향을 미쳤는지에 대해서 AI 스스로도 알지 못한다.

AI의 결과를 이해할 수 있고 AI가 왜 오류가 났는지, AI의 결과를 얼마나 신뢰해야 하는지를 판단하는 ‘근거’를 만드는게 이 연구 분야의 방향이다. 미국 국방부 산하 고등연구계 획국(DARPA)은 2017년부터 AI 내부를 사람이 확인할 수 있는 설명 모델과 인터페이스 프로그램 개발을 추진하고 있다. 링크트인은 2021년부터 설명 가능한 인공지능을 채용과 광고, 마케팅 분야에 적용하고 있다. 예를 들어 링크트인은 고객들이 계약을 취소할 위험을 예측하고, 왜 그런지도 설명해주는 AI 소프트웨어를 영업 분야에서 활용하고 있다.