'아우라(Aura)'는 꽤 대중적인 말이다. 이를테면 잘 생긴 배우의 '범접할 수 없는 포스' 따위를 일컬을 때 널리 사용된다. 언제부터인가 우린 '아우라'라는 단어를 특별한 걸 수식하는 수사로 일상에서 빈번하게 쓰고 있다.
발터 벤야민은 1939년 출간한 <기술복제시대의 예술작품>에서 사진과 영화와 같은 복제 기술이 예술의 고유한 '일회적 현존성', 즉 아우라를 해체한다고 생각했다. 단 한 번의 연극 공연은 이제 영상으로 기록돼 수만번 반복 재생된다. 예술가가 혼을 다 해 그린 단 한 장의 그림은 사진으로 복제돼 누구든 어디에서든 감상할 수 있다. 예술의 종말인가? 벤야민은 이를 뒤틀어 이것이 오히려 '예술의 민주화(정치화)'를 불러 올 것이라고 봤다. 여기에서 아우라는 '특별한 경험'이면서 '무너뜨려야 할 권위'라는 이중적인 의미를 갖는다.
벤야민은 아우라의 해체를 부정적으로만 보지 않았다. 특히 기술 복제 시대가 파시즘에 복무할 수 있다고 경고하면서도, 그것이 예술을 통한 반파시즘 전선의 선전 선동 도구로도 유용하다는 역설적인 사실을 강조했다. 그렇다면 지금의 'AI시대의 예술작품'은 어떨까.
AI 이미지는 작가의 붓질이나 카메라 렌즈를 거친 빛의 기록이 아니다. 천문학적 데이터를 확률적으로 계산해 도출한 산물이다. 과거 기술 발전은 '원본의 권위'를 해체했으나, 지금의 AI는 '원본 없는 복제'를 통해 물리적 현실 세계에 개입한다. 과거엔 합성물이나 만화를 통해 '원본의 아우라'를 추억(상상)할 수 있었지만, 지금은 원본 없는 그럴 듯한 가상 이미지나 영상을 통해 '아우라'를 존재한 적 없는 아득한 신화 속으로 보내버린다.
이를테면 원래 존재하는 이미지를 합성, 복제해 정치적, 미학적 효과를 달성하는 수고로운 일은 더이상 필요하지 않다. 숫제 '원형의 감정'을 AI의 알고리듬 재료로 집어 넣어 존재하지 않은, 그러나 존재할 법한 새로운 영상과 사진을 창조해 낸다. 이것은 '물리 실험'이 아니라, 일종의 '화학 실험'과 같은 것이다. 그러니 우린 그 '화학 실험'의 결과를 예측하기 쉽지 않다.
'목적을 가진 감정'이 AI 필터를 거쳐 탄생한 AI 가짜 이미지와 영상들은, 지금 전쟁과 정치에 적극 활용되고 있다. 해체할 '아우라'가 없는 '그럴듯한 복제품'들은 '생각의 속도'로 생성돼 SNS와 알고리즘을 타고 널리 퍼져 나간다.
한겨레 보도에 따르면 인스타그램, 페이스북, 스레드 등 SNS에는 보면, 최근 인공지능이나 합성 등으로 만든 여성 이미지를 활용해 ‘윤 어게인’ 주장을 전하는 계정이 늘고 있다고 한다. "얼굴 사진이나 노출이 있는 사진을 올리며 '비슷한 생각을 가진 이용자만 팔로우해주겠다'고 알리며 정치적 의견을 전파하는 식이다. 실제 집회 현장에 짧은 치마를 입고 태극기를 들고 있는 여성 이미지를 합성한 영상을 올리는 유튜브 채널도 등장했다."(5월 7일자 한겨레 "윤 어게인 여성 SNS, 알고 보니 AI·도용…'극우 정치적 피싱' 세계화")
아름다운 여성을 대상화해서, 극우 세계관을 집어 넣어 사람들을 '피싱'하고 있는 셈이다.
뉴욕타임스나 CNN의 보도에 따르면 미국이 일으킨 이란 전쟁에서 AI 생성 가상 이미지는 엄청난 속도로 확산하고 있다. 아마 이번 중동 전쟁은 AI가 전례 없는 규모로 정보 환경을 장악한 최초의 분쟁으로 기록될 것이다. 서구 언론은 '친이란 성향'의 영상들(주로 이란이 이스라엘 시가지나 미군 자산을 폭격하는 영상)을 언급하지만, 그 반대의 경우도 꽤 많다.
이를테면 '가짜 영상'이 퍼지는 것보다 더 주목할 만한 건, 진짜 전쟁이나 학살의 증거 영상이 마치 'AI 가짜 영상'인 것처럼 위장돼 퍼지고 있다는 것이다. 진짜 영상도 AI 가짜 영상이란 취급을 받을 수 있다. 심지어 AI 생성 이미지는 간혹 AI 기반의 AI 판독기도 속여넘긴다.
영국 BBC의 팩트체크 탐사보도팀 'BBC 베리파이(BBC Verify)'는 이란의 미사일이 이스라엘의 텔 아비브에 떨어지는 AI 생성 영상을 추적했다. 일부 X 플랫폼 사용자는 영상의 진위 여부를 확인하기 위해 AI 챗봇인 그록(Grok)을 이용했지만, 그록은 AI가 생성한 영상을 '진짜 영상'으로 잘못 판단했다고 한다. AI도 속이는 AI 영상의 시대다.
이런 영상을 누가 믿느냐고? '가짜 뉴스의 시대'는 가짜를 진짜처럼 믿게 하는 것 못지 않게, 진짜를 가짜처럼 믿게 하는 것이 문제다. 사람들에게 '가짜'를 믿게 하는 것보다 '진실'을 부인하게 하는 게 더 효율적이라는 것이다. 그리하여 AI 생성 이미지의 범람은 사람들로 하여금 진실과 가짜의 구분에 회의감을 느끼게 한다. AI는 그런 인간의 '기만'까지도 충실히 재현하고 있다. '환각'(Hallucination)을 일으키는 AI는 인간을 똑 닮았다. (왜, 불만인가? 실리콘밸리는 AI가 인간을 닮기를 그토록 원하지 않았나? 인간의 결점까지도.)
100년 전 기계 복제의 시대로 들어서면서 이미지(예술)가 아우라를 잃은 대신 예술의 대중화와 민주화에 기여했다면, 지금 AI 시대의 이미지는 인간의 시각적 기호에 가장 최적화된 결과물을 순식간에 뱉어내면서 오직 '소비의 효율성'과 '확산'을 위해서만 존재하는 것처럼 보인다. 인간은 이걸 '스와이프'하면서 AI가 만들어낸 환각 속에서 세상을 냉소하고 확증 편향을 강화한다.
AI가 개입한 정보의 세계에서는 '믿을 수 있는 진실'이 점점 줄어들게 된다. 거짓을 진실처럼 믿게 하는 것보다 더 무서운 것은, 진실을 냉소하는 것이다. 그럴수록 인간은 '정신적 자동완성', 혹은 '감정의 자동완성'의 세계로 나아가는 것이다.
대안은 무엇인가. 제미나이에게 물었다.
"단순히 기술적인 문제를 넘어, AI 결과물을 비판적으로 수용하는 미디어 리터러시 교육과 병행될 때 가장 큰 효과를 거둘 수 있습니다. AI 모델의 편향성을 직접 테스트해 볼 수 있는 오픈 소스 도구나 체크리스트가 궁금하신가요?"




전체댓글 0