성경과 세상

가짜 뉴스를 진짜 뉴스 처럼....

달무리지는 2023. 3. 17. 14:10

 

가짜 뉴스를 감시·검증하기 위해 만든 시민단체 ‘바른언론시민행동’이 여론조사를 해보니 ‘사드 전자파가 인체에 유해하다’는 가짜 뉴스를 사실로 믿는 사람이 아직도 37%에 달했다고 한다.

 

‘청담동 술자리’가 실제 있었을 것이라는 사람, 김건희 여사가 유흥업소 출신이라고 믿는 사람도 30%가 넘었다. 대장동 사건을 여전히 ‘윤석열 게이트’라고 생각하는 사람도 31%에 달했다고 한다.

                       18일 오전 경북 성주군 초전면 소성리 사드(THAAD·고고도 미사일 방어체계) 기지. 2022.8.18

 

사람들은 자기 생각과 일치하는 정보는 쉽게 받아들이고 생각과 다른 정보는 그것이 사실이더라도 부정하는 성향이 있다. 실제 그런 실험 결과도 있다.

 

사람들의 이런 속성을 가짜 뉴스 만드는 사람들이 이용한다. 지난 대선 기간 가짜 뉴스 생산자의 77.5%가 정치인·정당·후보 진영이었다는 서울대 SNU팩트체크센터의 분석 결과도 있었다. 일부는 가짜 뉴스로 돈까지 번다.

                                    가짜 뉴스에 대한 인식도(트루스가디언 제공)

 

국방부가 2018년부터 4년간 측정한 사드 레이더 전자파는 유해 기준치의 2만분의 1이었다.

 

휴대전화 기지국의 1000분의 1에 불과했다. 하지만 문재인 정부는 이를 알리지 않고 감췄다. 민주당과 좌파 단체에서 “사드 전자파에 내 몸이 튀겨진다”고 주장해 왔기 때문이다. 정부가 가짜 뉴스를 방조한 것이다.

 

청담동 술자리도 문제의 첼리스트가 거짓말이었다고 고백해 가짜로 드러났다.

 

하지만 의혹을 제기한 김의겸은 후원금을 가득 채웠고, 그와 협업했다는 유튜버들은 ‘슈퍼챗’ 돈벌이를 톡톡히 했다.

 

유시민은 한동훈 법무장관이 노무현재단 계좌를 추적했다는 취지의 주장을 했다가 명예훼손 혐의로 1심에서 벌금 500만원의 유죄판결을 받았다.

 

그런데도 이번 조사에서 ‘검찰이 노무현재단을 내사했다’는 가짜 뉴스를 여전히 사실로 믿는 사람(43%)이 거짓이라는 사람(31%)보다 많았다.

 

조금만 관심을 가져도 진짜와 가짜를 구별할 수 있는 문제들이지만 ‘내 편에 유리하냐, 불리하냐’가 사실 판단의 잣대가 되고 있다. 참으로 심각한 현상이다.

 

------------------------------------------------------챗GPT가 만드는 가짜 뉴스

챗GPT가 전해준 섬뜩한 경고

윤석민 서울대 언론정보학과 교수
입력 2023.03.22. 00:35
 

 

요즘 어딜 가든 챗GPT가 화제다. 미국의 오픈AI사가 개발한 인공지능 챗봇이다. 웬 호들갑인지 궁금해 직접 대화를 시도해 보았다.
챗GPT 그래픽./뉴시스

“서울대학교의 윤석민 교수를 아시나요?”

“네, 윤석민 교수는 대한민국 서울대학교 전기정보공학부 교수이며, 컴퓨터 비전 및 인공지능 분야에서 국내외적으로 인정받는 학자 중 한 분입니다. 또한 인공지능 연구를 위한 대한민국 정부의 AI 전략 수립에도 참여했습니다.”

“내가 알고 있는 분과 다른 분이군요. 혹시 같은 대학교에 같은 이름을 가진 교수가 또 있나요?”

“네, 대학교에 같은 이름을 가진 교수가 있을 가능성이 있습니다. 이 경우, 저는 대상인 윤석민 교수의 전문 분야와 경력 등을 확인하여 구분합니다. 그러나 혼란스러워지는 경우가 있을 수 있으므로, 다시 한번 확인하는 것이 좋겠습니다.”

똑똑해진 인공지능이 천연덕스럽게 대화를 이어간다. 하지만 서울대 전기정보공학부에 윤석민 교수는 없다. 가상 팩트를 지어낸 것이다.

“조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”. 이처럼 말도 안되게 황당한 질문에 대해서도 챗GPT는 척척 답변을 생성한다. “세종대왕의 맥북프로 던짐 사건은 조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다.”

할루시네이션(hallucination) 현상, 즉 AI가 종래 학습한 데이터를 토대로 확률적으로 단어를 선택하고 문장을 구성하는 과정에서 생기는 오류다. 이런 AI를 인간지능을 넘어선 공포스러운 존재로 의인화하는 것은 과장이다(박정훈 칼럼, 3월 3일 자). 하지만 정작 두려운 건 AI를 악용하는 이들이다. 필자 주변의 교수들은 학생들이 챗GPT로 숙제를 해서 낼까 걱정이다. 필자는 다른 걱정을 한다. 흔히 가짜 뉴스로 불리는 허위 조작 정보의 범람이다.

관련해 떠오르는 일화가 있다. 20여 년 전인 2002년 4월 1일, 서울대학교 학보인 대학신문은 마지막 면을 “서울대 민영화” “교내에 지하철역 생긴다” “고시반 신설” 같은 가상 기사들로 채운 특집호를 발행했다. 신문 제호, 현장 사진, 바이라인, 하단의 광고 배치 등을 통해 실제 지면 느낌을 살렸다.

대학 언론 특유의 재치와 풍자가 발현된 유쾌한 만우절 이벤트였다. 그런데 그 부정적 파장이 만만치 않았다. 기사 내용도 비현실적인 데다 신문 1면에 마지막 면이 만우절 기획이라는 사실을 밝혔음에도, 사후 조사에 따르면 그 기사들이 가상임을 깨달은 응답자는 35%에 불과했다. 일각에서는 기사 내용에 충격을 받은 공황(panic) 현상도 나타났다. 대인 채널을 통해 2차, 3차로 허위 정보가 부풀려져 확산된 사실도 확인되었다.

하지만 이 해프닝은 현재 진행 중인 사태에 비하면 웃음거리도 되지 못한다. 챗GPT를 활용하면 누구나 쉽게 그럴듯한 뉴스를 만들 수 있다. 정치, 경제, 국제, 안보 영역을 가리지 않고 언뜻 보아 자연스럽고, 그것이 가상이란 단서가 찾기 어렵게 숨겨져 있거나 아예 존재하지 않는 가상 뉴스가 이벤트성이 아니라 상시로 양산될 수 있게 된 것이다. 속을 알 수 없는 또 다른 인공지능인 포털 알고리즘이 이 뉴스들을 실어 나른다.

시민단체 바른언론시민행동의 여론조사에서 30%가 넘는 응답자들이 여전히 사드 전자파가 인체에 유해하고, 청담동 술자리가 실제 있었으며, 김건희 여사가 유흥업소 출신이고, 대장동 사건은 윤석열 게이트라고 믿고 있는 것으로 나타났다. 이처럼 편향된 인식과 태도를 지닌 이들조차 경악할 수준의 허위 조작 정보 쓰나미가 밀려오고 있다.

최근 미국의 마이크로소프트(MS) 및 트위터는 AI 윤리 책임 부서를 해체하고 그 성원들을 해고하는 조치를 강행했다. 국내에서도 ‘우선 허용, 사후 규제’ 원칙의 AI 산업 육성 법안이 입법 추진 중이다. 뒤처지면 끝이라는 절박한 경쟁 의식 속에 사업자들은 고삐 풀린 말처럼 폭주하고 있다.

이처럼 맹목적인 AI 기술 개발이 초래할 위험에 대한 최소한의 안전장치 마련을 위해 국가가 나서야 한다. 그 출발점은 ‘가상’에 맞서 ‘팩트’를 지키고자 분투하는 힘겨운 사회적 노력들을 지원하는 것이다. 그 중심에 언론이 있다.

초거대 AI 기술 개발에는 천문학적인 국가 예산과 투자가 집중되는 반면, 후자에 대해서는 그 수십 분의 일, 심지어 수백분의 일의 관심도 지원도 주어지고 있지 않다. 이 불균형의 결말이 무엇일지는 생각만으로도 아찔하다.

챗GPT와의 대화에서 필자는 화학공학과 교수를 거쳐, 물리학과 교수가 되었다. 웃음은커녕 두려움에 몸이 떨려온다 이 경고 메시지를 어떻게 수용할지에 우리 미래가 달려있다.

챗GPT가 전해준 섬뜩한 경고

윤석민 서울대 언론정보학과 교수
입력 2023.03.22. 00:35
 
3
 
 
 
 

요즘 어딜 가든 챗GPT가 화제다. 미국의 오픈AI사가 개발한 인공지능 챗봇이다. 웬 호들갑인지 궁금해 직접 대화를 시도해 보았다.

챗GPT 그래픽./뉴시스

“서울대학교의 윤석민 교수를 아시나요?”

“네, 윤석민 교수는 대한민국 서울대학교 전기정보공학부 교수이며, 컴퓨터 비전 및 인공지능 분야에서 국내외적으로 인정받는 학자 중 한 분입니다. 또한 인공지능 연구를 위한 대한민국 정부의 AI 전략 수립에도 참여했습니다.”

“내가 알고 있는 분과 다른 분이군요. 혹시 같은 대학교에 같은 이름을 가진 교수가 또 있나요?”

“네, 대학교에 같은 이름을 가진 교수가 있을 가능성이 있습니다. 이 경우, 저는 대상인 윤석민 교수의 전문 분야와 경력 등을 확인하여 구분합니다. 그러나 혼란스러워지는 경우가 있을 수 있으므로, 다시 한번 확인하는 것이 좋겠습니다.”

똑똑해진 인공지능이 천연덕스럽게 대화를 이어간다. 하지만 서울대 전기정보공학부에 윤석민 교수는 없다. 가상 팩트를 지어낸 것이다.

“조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”. 이처럼 말도 안되게 황당한 질문에 대해서도 챗GPT는 척척 답변을 생성한다. “세종대왕의 맥북프로 던짐 사건은 조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다.”

할루시네이션(hallucination) 현상, 즉 AI가 종래 학습한 데이터를 토대로 확률적으로 단어를 선택하고 문장을 구성하는 과정에서 생기는 오류다. 이런 AI를 인간지능을 넘어선 공포스러운 존재로 의인화하는 것은 과장이다(박정훈 칼럼, 3월 3일 자). 하지만 정작 두려운 건 AI를 악용하는 이들이다. 필자 주변의 교수들은 학생들이 챗GPT로 숙제를 해서 낼까 걱정이다. 필자는 다른 걱정을 한다. 흔히 가짜 뉴스로 불리는 허위 조작 정보의 범람이다.

관련해 떠오르는 일화가 있다. 20여 년 전인 2002년 4월 1일, 서울대학교 학보인 대학신문은 마지막 면을 “서울대 민영화” “교내에 지하철역 생긴다” “고시반 신설” 같은 가상 기사들로 채운 특집호를 발행했다. 신문 제호, 현장 사진, 바이라인, 하단의 광고 배치 등을 통해 실제 지면 느낌을 살렸다.

대학 언론 특유의 재치와 풍자가 발현된 유쾌한 만우절 이벤트였다. 그런데 그 부정적 파장이 만만치 않았다. 기사 내용도 비현실적인 데다 신문 1면에 마지막 면이 만우절 기획이라는 사실을 밝혔음에도, 사후 조사에 따르면 그 기사들이 가상임을 깨달은 응답자는 35%에 불과했다. 일각에서는 기사 내용에 충격을 받은 공황(panic) 현상도 나타났다. 대인 채널을 통해 2차, 3차로 허위 정보가 부풀려져 확산된 사실도 확인되었다.

하지만 이 해프닝은 현재 진행 중인 사태에 비하면 웃음거리도 되지 못한다. 챗GPT를 활용하면 누구나 쉽게 그럴듯한 뉴스를 만들 수 있다. 정치, 경제, 국제, 안보 영역을 가리지 않고 언뜻 보아 자연스럽고, 그것이 가상이란 단서가 찾기 어렵게 숨겨져 있거나 아예 존재하지 않는 가상 뉴스가 이벤트성이 아니라 상시로 양산될 수 있게 된 것이다. 속을 알 수 없는 또 다른 인공지능인 포털 알고리즘이 이 뉴스들을 실어 나른다.

시민단체 바른언론시민행동의 여론조사에서 30%가 넘는 응답자들이 여전히 사드 전자파가 인체에 유해하고, 청담동 술자리가 실제 있었으며, 김건희 여사가 유흥업소 출신이고, 대장동 사건은 윤석열 게이트라고 믿고 있는 것으로 나타났다. 이처럼 편향된 인식과 태도를 지닌 이들조차 경악할 수준의 허위 조작 정보 쓰나미가 밀려오고 있다.

최근 미국의 마이크로소프트(MS) 및 트위터는 AI 윤리 책임 부서를 해체하고 그 성원들을 해고하는 조치를 강행했다. 국내에서도 ‘우선 허용, 사후 규제’ 원칙의 AI 산업 육성 법안이 입법 추진 중이다. 뒤처지면 끝이라는 절박한 경쟁 의식 속에 사업자들은 고삐 풀린 말처럼 폭주하고 있다.

이처럼 맹목적인 AI 기술 개발이 초래할 위험에 대한 최소한의 안전장치 마련을 위해 국가가 나서야 한다. 그 출발점은 ‘가상’에 맞서 ‘팩트’를 지키고자 분투하는 힘겨운 사회적 노력들을 지원하는 것이다. 그 중심에 언론이 있다.

초거대 AI 기술 개발에는 천문학적인 국가 예산과 투자가 집중되는 반면, 후자에 대해서는 그 수십 분의 일, 심지어 수백분의 일의 관심도 지원도 주어지고 있지 않다. 이 불균형의 결말이 무엇일지는 생각만으로도 아찔하다.

챗GPT와의 대화에서 필자는 화학공학과 교수를 거쳐, 물리학과 교수가 되었다. 웃음은커녕 두려움에 몸이 떨려온다 이 경고 메시지를 어떻게 수용할지에 우리 미래가 달려있다.