본문 바로가기
외국 경제 기사 분석

미국 청소년, 온라인 가짜 콘텐츠에 속는 사례 증가

by economic-i 2025. 1. 31.
반응형

American teens are increasingly misled by fake content online, report shows

2025년 1월 30일 화요일 CNN 뉴스

 

미국 청소년들이 인공지능(AI)으로 생성된 가짜 콘텐츠에 점점 더 쉽게 현혹되고 있다는 연구 결과가 발표되었습니다.

비영리 단체인 '커먼 센스 미디어(Common Sense Media)'가 수요일 발표한 연구에 따르면, 13세에서 18세 사이의 청소년 1,000명을 대상으로 조사한 결과, 약 35%가 온라인에서 가짜 콘텐츠에 속은 적이 있다고 답했습니다. 또한 41%는 실제이지만 오해를 불러일으킬 수 있는 콘텐츠를 접한 적이 있으며, 22%는 가짜로 밝혀진 정보를 공유한 경험이 있다고 밝혔습니다.

이 같은 조사 결과는 청소년들이 AI 기술을 빠르게 받아들이고 있는 가운데 나온 것입니다. 지난해 9월 발표된 연구에 따르면, 10명 중 7명의 청소년이 최소 한 번 이상 생성형 AI를 사용해 본 적이 있는 것으로 나타났습니다.

 

 

AI 기술이 발전함에 따라 허위 정보 생성이 더욱 쉬워졌고, 이에 따라 가짜 뉴스, 조작된 사진 및 동영상 등의 유통도 증가하고 있습니다. 최근 코넬대, 워싱턴대, 워털루대의 연구(2024년 7월)에 따르면, 상위 AI 모델조차도 허위 정보를 생성하는 'AI 환각' 현상을 피하지 못하고 있는 것으로 밝혀졌습니다. 이는 신뢰할 수 있는 정보 제공이 더욱 어려워지고 있다는 것을 의미합니다.

이번 조사에 따르면, 가짜 콘텐츠를 접한 청소년들은 AI가 온라인 정보 검증을 더 어렵게 만들 것이라고 생각하는 경향이 높았습니다. 또한 청소년들의 50%에 가까운 응답자는 구글, 애플, 메타, 틱톡, 마이크로소프트 등 주요 기술 기업들이 AI 사용과 관련해 책임 있는 결정을 내리지 않을 것이라고 믿고 있는 것으로 나타났습니다.

연구 보고서는 "생성형 AI가 허위 정보와 조작된 미디어를 빠르고 쉽게 확산시키면서, 미디어 및 정부 기관에 대한 청소년들의 신뢰도가 더욱 낮아질 가능성이 있다"고 지적했습니다.

한편, 미국의 주요 IT 기업들에 대한 불신도 커지고 있습니다. 미국 성인들은 이미 디지털 플랫폼의 관리 부족으로 인해 가짜 뉴스와 오해의 소지가 있는 콘텐츠 증가에 대응해야 하는 상황입니다.

특히 일론 머스크가 2022년 트위터(현 X)를 인수한 이후, 콘텐츠 중재팀을 축소하고 잘못된 정보와 혐오 발언을 확산시키는 계정을 복원하는 등의 조치를 취하면서 플랫폼의 신뢰도가 더욱 하락했습니다. 최근 메타는 타사 팩트체커 대신 '커뮤니티 노트'를 도입하기로 결정했으며, 마크 저커버그 CEO는 이 변화가 페이스북과 인스타그램 등 플랫폼에서 유해한 콘텐츠 증가로 이어질 수 있다고 언급한 바 있습니다.

AI 기술의 발전이 가짜 콘텐츠 확산을 가속화하는 가운데, 이에 대한 대응책 마련이 시급한 상황입니다.


최근 연구에 따르면, 미국 청소년들이 온라인에서 인공지능(AI)이 생성한 가짜 콘텐츠에 쉽게 현혹되고 있으며, 이는 미국뿐만 아니라 한국 사회에도 심각한 영향을 미칠 수 있는 문제로 대두되고 있습니다. AI 기술의 발전은 정보의 생산과 유통을 혁신적으로 변화시키고 있지만, 동시에 허위 정보와 조작된 콘텐츠의 확산을 가속화하면서 사회적 신뢰를 저하시킬 위험이 있습니다. 이에 따라 미국과 한국 사회에 미치는 영향을 분석하고, 효과적인 해결 방안을 모색해보고자 합니다.

 

미국 사회에 미치는 영향

첫째, AI 기반 허위 정보의 증가로 인해 청소년들의 정보 신뢰도가 하락하고 있습니다. 청소년들은 인터넷에서 접하는 정보를 무비판적으로 받아들일 가능성이 크며, 이는 잘못된 지식 습득으로 이어질 수 있습니다.

둘째, 사회적 분열이 심화될 가능성이 높아지고 있습니다. 허위 정보는 특정 정치적, 사회적 이슈와 결합하여 여론을 조작하고, 집단 간 갈등을 조장할 수 있습니다.

셋째, 기업과 소비자 모두에게 경제적 손실이 발생할 수 있습니다. 가짜 뉴스와 조작된 콘텐츠가 확산되면서 브랜드 이미지 훼손 및 소비자 피해가 증가하고 있으며, 이는 시장 신뢰도를 떨어뜨리는 요인이 되고 있습니다.

넷째, 빅테크 기업에 대한 불신이 확대되고 있습니다. AI 기술을 활용하는 주요 기술 기업들이 허위 정보 확산을 방조한다는 인식이 커지면서, 이들 기업에 대한 사회적 압박이 증대되고 있습니다.

 

한국 사회에 미치는 영향

첫째, AI 기반 가짜 뉴스와 조작된 콘텐츠의 증가가 우려됩니다. 한국에서도 허위 정보가 빠르게 퍼질 가능성이 높으며, 이는 여론 형성에 부정적인 영향을 미칠 수 있습니다.

둘째, 청소년들의 교육 환경이 악화될 가능성이 큽니다. 가짜 정보에 반복적으로 노출되면 비판적 사고력이 저하되며, 올바른 정보 습득이 어려워질 수 있습니다.

셋째, 정치적 악용 가능성이 높아지고 있습니다. 특히 선거 기간 동안 AI가 생성한 허위 정보가 악용될 경우, 공정한 민주주의가 위협받을 위험이 있습니다.

넷째, 기업 및 미디어 신뢰도가 하락할 가능성이 있습니다. AI 기술이 활용된 가짜 리뷰나 광고가 증가하면서 소비자들이 기업과 언론을 신뢰하지 않게 될 수 있습니다.

 

문제 해결을 위한 대응 방안

이러한 문제를 해결하기 위해 다음과 같은 구체적인 방안이 필요합니다.

첫째, 디지털 리터러시 교육을 강화해야 합니다. 청소년 및 일반인들에게 AI 콘텐츠 판별 방법과 비판적 사고력을 기르는 교육을 확대하여 허위 정보의 영향을 최소화해야 합니다. 이를 위해 학교와 교육 기관에서는 미디어 리터러시 교육을 필수 과목으로 포함하고, AI 콘텐츠 분석 및 팩트체크 방법을 가르쳐야 합니다. 또한, 부모와 교사를 대상으로 한 교육도 병행하여 가정과 학교에서 함께 올바른 정보 습득 방법을 지도해야 합니다.

둘째, 강력한 AI 규제를 도입해야 합니다. 허위 정보 및 조작된 콘텐츠 유포에 대한 법적 제재를 강화하고, AI 생성 콘텐츠에 대한 투명성 규정을 마련하여 책임성을 높여야 합니다. 각국 정부는 AI 기반 콘텐츠가 생산될 경우 이를 명확히 표시하도록 의무화하고, AI를 악용하여 허위 정보를 유포한 경우 엄격한 법적 처벌을 내리는 방안을 마련해야 합니다. 또한, 플랫폼 기업들에게 AI 생성 콘텐츠에 대한 감시와 필터링 의무를 부여하는 법안을 도입할 필요가 있습니다.

셋째, 사실 확인 시스템을 구축해야 합니다. 정부와 민간 기관이 협력하여 AI 기반 팩트체크 시스템을 도입하고, 신뢰할 수 있는 정보를 제공함으로써 허위 정보 확산을 방지해야 합니다. 예를 들어, 뉴스 및 소셜미디어 플랫폼에서 사용자들이 정보를 검증할 수 있도록 AI 기반 팩트체킹 도구를 제공하고, 가짜 콘텐츠 판별 결과를 명확하게 표시하는 기능을 추가할 필요가 있습니다. 또한, 팩트체크 기관과 언론사 간의 협력을 통해 신뢰할 수 있는 뉴스 공급망을 강화해야 합니다.

팩트 체크

 

넷째, 빅테크 기업의 사회적 책임을 강화해야 합니다. 구글, 메타 등 IT 기업들은 AI 콘텐츠에 대한 모니터링을 강화하고, 윤리적 가이드라인을 마련하여 허위 정보 유포를 방지해야 합니다. 이를 위해 기업들은 AI로 생성된 콘텐츠를 자동 감지하고 경고 메시지를 제공하는 기술을 도입해야 하며, 가짜 뉴스 유포 계정을 차단하는 정책을 시행해야 합니다. 또한, 빅테크 기업들이 AI 기술의 윤리적 사용을 보장할 수 있도록 정부와 협력하여 정기적인 감사를 실시하고, 투명한 운영 방안을 마련해야 합니다.

 

AI 기술의 발전은 정보 혁신을 가져왔지만, 동시에 가짜 콘텐츠의 확산이라는 심각한 문제를 야기하고 있습니다. 미국과 한국 사회 모두 이에 대한 적극적인 대응이 필요하며, 교육 강화, 규제 도입, 사실 확인 시스템 구축, 빅테크 기업의 책임 강화 등의 조치를 통해 신뢰할 수 있는 디지털 환경을 조성해야 합니다. AI가 올바르게 활용될 수 있도록 개인과 사회가 함께 노력해야 할 시점입니다.

반응형