정치인, “과도한 AI 이미지 활용은 신뢰도 하락”
스크롤 이동 상태바
정치인, “과도한 AI 이미지 활용은 신뢰도 하락”
이 기사를 공유합니다
거리 표지판에 의미 없는 글자가 적혀 있거나 다른 명백한 오류가 있는 등 인공지능이 생성했다는 명백한 징후가 있더라도, 시청자가 인공지능 사용을 알아차릴 만큼 충분히 예리하거나 주의를 기울이는 경우는 “최상의 시나리오”에서만 가능하다.

새로운 문명의 이기가 등장하면, 인류에 긍정적인 면과 함께 부정적 효과를 가져온다. 새로운 도구를 긍정적으로만 사용하지 않고 끊임없이 부정적인 면을 부각시키려는 인간들이 상존(常存)하기 때문이다.

최근 몇 년 안 되어 인공지능(AI)이라는 새로운 물결(AI Wave)이 치면서 너도나도 이붐냐 저분야 할 것 없이 인공지능 활용 대열에 끼어들고 있다. 그러나 긍정 효과의 인공지능은 탐욕으로 자칫 인생 자체가 파괴될 수도 있는 정치 지도자들에게는 마냥 훌륭한 도구만은 아닐 수 있다.

예를 들어 “전문가들은 도널드 J. 트럼프 대통령의 인공지능 이미지 활용이 새로운 경계를 넘어서면서 대중의 신뢰를 더욱 떨어뜨리고 있다”고 지적한다고 AP 통신이 28일 보도했다.

트럼프 행정부는 인공지능이 생성한 이미지를 온라인에 공유하는 데 주저하지 않고, 만화 같은 이미지(cartoon like visuals)와 밈(memes)을 적극적으로 활용하며 백악관 공식 채널을 통해 홍보해 왔다.

하지만 체포된 후 눈물을 흘리는 인권 변호사 네키마 레비 암스트롱(Nekima Levy Armstrong)의 모습을 사실적으로 편집한 이미지가 공개되면서, 행정부가 현실과 허구(what is real and what is fake)의 경계를 모호하게 만들고 있다는 새로운 우려가 제기되고 있다고 통신은 지적했다.

국토안보부 장관 크리스티 노엠의 공식 계정은 레비 암스트롱 체포 당시의 원본 사진을 게시했고, 이후 백악관 공식 계정은 그녀가 우는 모습이 담긴 조작된 사진을 게시했다. 이 조작된 사진은 미니애폴리스에서 미국 국경순찰대 요원들이 르네 굿과 알렉스 프레티를 총격 살해한 사건 이후 정치권 전반에 걸쳐 퍼진 인공지능으로 편집된 이미지들의 일부이다.

하지만 백악관의 인공지능 활용은 허위 정보 전문가들에게 우려를 불러일으켰다. 인공지능이 생성하거나 편집한 이미지가 확산되면, ‘대중의 진실에 대한 인식을 왜곡하고 불신을 조장할 수 있다’는 것이다.

레비 암스트롱의 사진을 조작한 것에 대한 비판에 대응, 백악관 관계자들은 해당 게시물을 더욱 강경한 입장을 표명했다. 케일런 도어(Kaelan Dorr) 백악관 부대변인은 X에 “밈은 계속될 것”이라고 적었다. 애비게일 잭슨(Abigail Jackson) 백악관 부대변인도 역시 “비판을 조롱하는 게시물”을 공유했다.

코넬대학교 정보과학 교수인 데이비드 랜드(David Rand)는 조작된 이미지를 밈이라고 부르는 것은 “이전의 만화들처럼 농담이나 유머러스한 게시물로 포장하려는 시도로 보인다”며, “조작된 미디어를 게시한 것에 대한 비판으로부터 자신들을 보호하려는 의도일 것”이라고 말했다. 그는 조작된 체포 이미지를 공유한 목적이 과거 행정부가 공유했던 만화 같은 이미지들 보다 “훨씬 더 모호해 보인다”고 덧붙였다.

밈(memes)은 항상 여러 겹의 메시지를 담고 있어, 이해하는 사람들에게는 재미있거나 유익하지만, 이해하지 못하는 사람들에게는 해독하기 어렵다. 인공지능으로 강화되거나 편집된 이미지는 백악관이 온라인에서 많은 시간을 보내는 트럼프 지지층을 공략하기 위해 사용하는 최신 도구일 뿐이라고 인플루언서 마케팅 회사인 토탈 바이럴리티(Total Virality)를 설립한 공화당 커뮤니케이션 컨설턴트 잭 헨(Zach Henry)리는 말했다.

그는 “인터넷에 완전히 몰두한 사람들은 그것을 보자마자 밈이라는 것을 즉시 알아챌 것이며, 할아버지, 할머니 세대는 그것을 보고 밈의 의미를 이해하지 못할 수도 있지만, 진짜처럼 보이기 때문에 자녀나 손주들에게 물어보게 될 것”이라고 말했다.

헨리는 “격렬한 반응을 불러일으켜 입소문을 타게 된다면 더욱 좋다”며 백악관 소셜 미디어팀의 활동을 전반적으로 칭찬했다.

뉴스 미디어 리터러시 연구자인 마이클 A. 스파이크스(Michael A. Spikes) 노스웨스턴 대학교 교수는 “특히 신뢰할 만한 출처를 내세워 조작된 이미지를 유포하는 것은 실제로 무슨 일이 일어나고 있는지를 보여주는 대신, 무슨 일이 일어나고 있는지에 대한 고정관념을 굳히는 결과를 낳는다”고 강조했다.

이어 그는 “정부는 국민이 정보를 신뢰할 수 있고 정확하다고 말할 수 있는 곳이어야 한다. 왜냐하면 정부는 그럴 책임이 있기 때문”이라고 강조하고, “이런 종류의 콘텐츠를 공유하고 만들어내는 것은 신뢰를 무너뜨리는 행위이다. 물론 나는 '신뢰'라는 단어 자체에 대해 항상 회의적인 입장이지만, 정확하고 검증된 정보를 제공해 줄 것이라는 연방 정부에 대한 신뢰를 잃게 만드는 것이며, 이는 심각한 손실이어서, 매우 우려하고 있다.”고 말했다.

스파이크스 교수는 이미 언론 기관과 고등 교육 기관에 대한 불신으로 인한 “제도적 위기”(institutional crises)를 목격하고 있으며, 공식 채널의 이러한 행태가 이러한 문제들을 더욱 악화시킨다고 지적했다.

UCLA 교수이자 유토피아 팟캐스트 진행자인 라메시 스리니바산(Ramesh Srinivasan)은 “많은 사람들이 이제 ‘믿을 만한 정보’(trustable information)를 어디서 얻어야 할지 의문을 품고 있다”면서, “AI 시스템은 신뢰의 부재, 현실이나 진실, 증거로 여겨지는 것이 무엇인지조차 이해하지 못하는 이러한 문제들을 더욱 악화시키고 증폭시키며 가속화할 뿐”이라고 강조했다.

스리니바산은 백악관을 비롯한 고위 관리들이 AI가 생성한 콘텐츠를 공유하는 것은 일반인들이 유사한 콘텐츠를 계속 게시하도록 부추길 뿐만 아니라, 정책 결정권자처럼 신뢰와 권력을 가진 사람들이 출처가 명시되지 않은 합성 콘텐츠를 공유하도록 허용하는 것과 마찬가지라고 지적했다.

이어 그는 소셜미디어 플랫폼이 극단적이고 음모론적인 콘텐츠에 알고리즘적으로 특혜를 주는 경향이 있는데, AI 생성 도구가 이러한 콘텐츠를 손쉽게 만들어낼 수 있다는 점을 고려할 때 “우리는 매우 심각한 문제에 직면해 있다”고 덧붙였다.

이민세관단속국(ICE)의 조치, 시위, 시민과의 상호작용 등을 묘사한 인공지능(AI) 생성 영상이 소셜미디어에 빠르게 확산되고 있다. 르네 굿이 차 안에서 ICE 요원의 총격을 받은 사건 이후, ICE 요원의 정지 명령을 피해 차를 몰고 도망치는 여성들을 담은 AI 생성 영상들이 여러 개 유포되기 시작했다. 또한 이민 단속 현장이나 ICE 요원에게 소리를 지르거나 음식을 던지는 사람들을 묘사한 조작 영상들도 많이 퍼지고 있다.

미디어 리터러시 및 바이럴 AI 영상의 허위 사실 검증을 전문으로 하는 콘텐츠 제작자 제레미 카라스코(Jeremy Carrasco)는 이러한 영상의 대부분이 '참여율 조작'(engagement farming)을 목적으로, 즉 ICE와 같은 인기 키워드 및 검색어를 이용해 클릭 수를 늘리려는 계정에서 제작된 것으로 보인다고 말했다. 하지만 그는 ICE와 국토안전부(DHS)에 반대하는 사람들이 이러한 영상을 시청하는 경우도 있으며, 이들은 마치 팬픽션(fan fiction : 기존 작품을 바탕으로 팬들이 아마추어 적 으로 창작하는 팬 창작물 의 일종)처럼 여기거나, 해당 기관과 소속 공무원들에 대한 실질적인 제재가 이루어지고 있다는 희망을 품고 시청할 수도 있다고 덧붙였다.

하지만 카라스코는 대부분의 시청자가 자신이 보고 있는 것이 ‘가짜인지 아닌지 구별할 수 없다’고 생각하며, “정말 중요한 순간, 즉 위험 부담이 훨씬 큰 순간에 무엇이 진짜이고 무엇이 가짜인지 알 수 있을지 의문을 제기”한다고 강조했다.

거리 표지판에 의미 없는 글자가 적혀 있거나 다른 명백한 오류가 있는 등 인공지능이 생성했다는 명백한 징후가 있더라도, 시청자가 인공지능 사용을 알아차릴 만큼 충분히 예리하거나 주의를 기울이는 경우는 “최상의 시나리오”에서만 가능하다.

이 문제는 이민 단속이나 시위 관련 뉴스에만 국한되지 않는다. 이달 초 니콜라스 마두로(Nicolás Maduro) 베네수엘라 대통령 체포 이후 조작되고 왜곡된 이미지들이 온라인에 급속도로 퍼졌다. 카라스코를 비롯한 전문가들은 “인공지능이 생성한 정치 콘텐츠의 확산이 앞으로 더욱 흔해질 것”이라고 예측한다.

카라스코는 미디어 콘텐츠의 출처 정보를 메타데이터 레이어에 삽입하는 워터마킹 시스템이 널리 도입되는 것이 해결책을 향한 한 걸음이 될 수 있다고 생각한다. 콘텐츠 출처 및 진위성 연합(Coalition for Content Provenance and Authenticity)에서 그러한 시스템을 개발했지만, 카라스코는 이 시스템이 최소한 1년은 더 지나야 널리 채택될 것이라고 예상한다.

이 기사를 공유합니다
관련기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
메인페이지가 로드 됐습니다.
가장많이본 기사
칼럼/수첩/발언대/인터뷰
방송뉴스 포토뉴스
오피니언  
연재코너  
지역뉴스
공지사항
손상윤의 나사랑과 정의를···
뉴스타운TV 기사보기