딥페이크로 구현된 미드 '만달로리안' 시즌 2에 등장한 '루크 스카이워커' ⓒ데일리포스트=이미지 제공/Lucasfilm

[데일리포스트=김정은 기자] 휴머노이드 ‘소피아’처럼 사람을 닮은 인공지능(AI) 로봇이 등장하기 시작하면서 종종 등장하는 용어가 있다. 바로 ‘언캐니 밸리(불쾌한 골짜기, Uncanny valley)’다.

이는 1970년 로봇 공학자 모리 마사히로(森 政弘)가 주장한 개념으로 로봇이 인간과 닮을수록 호감도가 증가하다가 어느 구간에서 갑자기 강한 공포감·거부감·불쾌감 등을 느끼게 된다는 이론이다. 

이런 가운데 "언캐니 밸리를 넘어, 오히려 AI가 생성한 얼굴을 더 신뢰할 수 있을 정도에 달했다"는 최신 연구 결과가 나와 주목된다. 관련 논문은 미 국립과학원회보(PNAS)에 게재됐다. 

ⓒ데일리포스트=이미지 제공/PNAS

 
AI를 활용한 음성·이미지·영상의 합성은 할리우드 영화급의 특수 효과 기술이었지만, 지금은 누구나 마음만 먹으면 이용 가능한 기술이다. 가령 오픈 소스 도구인 '아파타리파이(Avatarify)'를 사용하면 줌이나 스카이프에서 실시간으로 다른 사람이 될 수 있다.

랭커스터 대학의 심리학자 소피 나이팅게일과 UC 버클리의 정보 과학자 허니 패리드는 인공지능 알고리즘의 일종인 GAN 기반으로 식별기조차 진짜 얼굴과 구분할 수 없을 정도의 현실적인 얼굴을 생성했다. 

아래는 식별기가 제대로 판정한 얼굴 모습이다. 상단은 진짜 얼굴 사진, 하단은 합성 얼굴 사진이다. 즉, 하단 얼굴은 합성이라고 판정이 나왔다.

ⓒ데일리포스트=이미지 제공/PNAS

식별기가 제대로 판정할 수 없었던 얼굴 사례다. 상단은 실제 얼굴인데 합성 판정이 나온 사진이며, 하단은 합성인데 실제 판정을 받은 얼굴이다.

ⓒ데일리포스트=이미지 제공/PNAS

다음으로 연구팀은 실험 참가자를 모집해 실제 얼굴 사진과 합성으로 만든 가짜 얼굴 사진 총 128장을 기반으로 테스트를 실시했다.

연구팀은 실험 참가자 그룹을 세 그룹으로 나눴다. 우선 315명으로 구성된 A그룹은 진짜와 가짜만 구분하도록 했다. 219명을 대상으로 한 B그룹 역시 진짜인지 가짜인지 여부를 구분하지만, 테스트 실시 전에 가짜를 식별하는 방법을 교육했다. 223명으로 구성된 C그룹은 사진을 '매우 신뢰할 수 있는'~'매우 신뢰할 수 없는'의 7단계로 사진을 분류하도록 했다.

A그룹의 실험 결과, 진짜 가짜의 판정 정밀도는 48.2%로 확인됐다. B그룹은 구별 방법을 교육했음에도 판정 정밀도는 약 59%로 확인됐다. 

그리고 C그룹의 실험에선 실제 얼굴의 신뢰도는 평균 4.48이었지만, 가짜 얼굴의 신뢰도는 4.82로 "AI가 생성한 얼굴 사진이 신뢰도가 더 높다"는 결과가 나왔다.

신뢰도 점수가 높았던 얼굴 사진(상단)과 점수가 낮았던 얼굴 사진(하단)이다. 점수 옆 표기가 'R'이면 실제 얼굴 사진이고 'S'가 합성 얼굴 사진이다. 

ⓒ데일리포스트=이미지 제공/PNAS

이러한 결과는 연구팀도 예상하지 못한 것이었다. 나이팅게일 박사는 "생성된 모든 얼굴을 실제와 구분할 수 없다는 의미는 아니다"라며 "하지만 사람들은 일반적인 얼굴을 신뢰할 가능성이 더 높기 때문에, 평균적인 얼굴에 가까운 합성 얼굴이 신뢰도가 높았을 가능성이 있다"고 설명했다. 

AI 기술을 이용해 이미지나 동영상을 합성하는 딥페이크(deepfake) 기술의 발전 속도에 우려감이 높아지고 있다. 딥페이크를 자동 검출하는 기술도 개발되고 있지만, 매일 업로드되는 방대한 콘텐츠 대책으로는 정밀도와 속도가 불충분하기 때문에, 우리는 스스로 진짜와 가짜를 구분해야 한다. 

ⓒ데일리포스트=이미지 제공/unsplash

하지만 기술의 급속한 발전 속에 언캐니 밸리를 넘을 만큼 완벽한 가짜를 식별해 내기란 매우 어렵다는 사실을 이번 연구 결과는 시사하고 있다. 그리고 실제와 가짜를 구분하지 못하는 것은 심각한 결과로 이어질 수 있다. 

연구팀은 "이처럼 정교한 합성 얼굴은 음란물 혹은 범죄와 같은 용도로 악용되는 데 매우 효과적인 만큼, 보다 엄격한 윤리 지침과 법적 제도가 필요하다"고 언급했다. 

저작권자 © 데일리포스트 무단전재 및 재배포 금지