메타AI뉴스

AI가 만든 편향과 위기, 다시 AI 기술로 해법을 찾다 ‘다시 스탠드’와 멀티모달의 교훈

메타ai뉴스

AI가 만든 편향과 위기, 다시 AI 기술로 해법을 찾다 ‘다시 스탠드’와 멀티모달의 교훈

글로벌연합대학 버지니아대학교
인공지능융합연구소장 이현우 교수

오늘날 우리는 인공지능이 만들어낸 편향성의 문제를 다시금 인공지능 기술로 해결해야 하는 역설적인 시대에 살고 있습니다. 최근 국내 대학생들이 거대언어모델(LLM)을 활용해 뉴스의 정치적 편향성을 분석하고 사용자에게 균형 잡힌 시각을 제공하는 ‘다시 스탠드’라는 앱을 개발했다는 소식은 시사하는 바가 큽니다. 이는 단순히 학생들의 기술적 성과를 넘어, 우리가 지향해야 할 기술의 방향성에 대해 깊은 성찰을 요구합니다. 이와 더불어 글로벌 기업들이 영상 속 맥락까지 파악하는 멀티모달 AI를 도입해 브랜드 안전을 지키려는 움직임은, AI 시대의 생존 전략이 ‘속도’에서 ‘신뢰’로 이동하고 있음을 보여줍니다.

[이슈 분석] 알고리즘의 역설과 신뢰 인프라의 부재
현재 우리가 직면한 핵심 이슈는 ‘알고리즘에 의한 정보 편향성의 역설’입니다. 소셜 미디어와 뉴스 추천 시스템은 사용자의 클릭과 체류 시간을 극대화하기 위해 개인의 성향에 맞는 정보만을 지속적으로 노출합니다. 이는 ‘필터 버블(Filter Bubble)’과 ‘확증 편향’을 강화시켜, 결국 사회적 양극화와 신뢰의 붕괴를 초래합니다.
대학생들이 개발한 ‘다시 스탠드’ 서비스는 이 문제를 정면으로 다룹니다. 주목할 점은 이들이 AI가 야기한 문제를 회피하는 것이 아니라, 더 고도화된 LLM을 사용해 ‘해결책’을 제시했다는 것입니다. 진보, 중도, 보수 등 성향별 관점의 차이를 AI가 직접 요약하고 비교 분석해 제공하는 방식은 기술 자체의 문제가 아니라 ‘기술을 설계하는 목적’이 중요함을 시사합니다.
이러한 편향과 신뢰의 문제는 텍스트 뉴스를 넘어 영상 콘텐츠와 광고 시장으로도 확장되고 있습니다. 영상 속 인물의 표정과 행동, 음성의 어조, 화면 속 문구를 함께 분석해야만 단순한 풍자와 악의적 혐오 표현을 구분할 수 있는 시대가 되었습니다. 브랜드의 광고가 유해 콘텐츠나 조작 영상 옆에 노출되어 악성 채널을 의도치 않게 재정적으로 지원하게 되는 윤리적 딜레마는 이제 기업의 ESG 경영 및 사회적 책임(CSR) 이슈로 직결됩니다. 즉, 정보의 신뢰를 확보하고 안전한 디지털 환경을 구축하는 것은 단순한 플랫폼의 자율 규제를 넘어선 시대적 의무가 된 것입니다.

균형 잡힌 시각과 기술적 안전장치의 도입
이러한 문제의식 위에서 우리는 다음과 같은 구체적인 실천 방안을 모색해야 합니다.
첫째, AI 개발의 목적성을 ‘참여(Engagement)’에서 ‘관점의 다양성(Viewpoint Diversity)’으로 전환해야 합니다. ‘다시 스탠드’가 보여준 것처럼, 기술을 활용해 의도적으로 편향을 제거하고 건전한 담론을 유도하는 기능 설계가 필요합니다. AI 모델 개발 시 다양성을 핵심 성과 지표(KPI)로 설정하고, 댓글 성향 분리 및 AI 심사 기능 등을 도입하여 알고리즘이 확증 편향의 도구가 아닌 균형의 도구로 쓰이게 해야 합니다.
둘째, 사용자에게 ‘비판적 사고’를 지원하는 도구를 제공해야 합니다. 사용자가 스스로 자신의 정보 소비 편향성을 인지할 수 있도록 데이터 시각화 도구를 제공하는 것이 그 예입니다. 내가 주로 소비하는 뉴스의 성향과 놓치고 있는 반대 관점을 시각적으로 보여줌으로써 사용자는 균형 잡힌 시각을 선택할 수 있는 주체성을 회복할 수 있습니다. 또한 기사나 컨설팅 정보 제공 시, 해당 정보가 어떤 관점(기업 홍보, 기술 비평 등)에서 작성되었는지를 명확히 태깅하고 다양한 출처의 원본 링크를 함께 제공해야 합니다.
셋째, 멀티모달 영상 이해 AI와 같은 고도화된 검증 기술을 적극 도입해야 합니다. 일본 총무성의 디지털 광고 가이드라인이나 유럽연합(EU)의 AI 법(AI Act)은 이미 플랫폼의 투명성과 책임성을 강화하고 있습니다. 우리 역시 글로벌 흐름에 발맞춰, 영상의 맥락과 의도, 미묘한 ‘알고스피크(교묘한 혐오 표현)’까지 읽어내는 동적 영상 이해 AI를 통해 브랜드 세이프티를 확보해야 합니다. 이는 특정 기술이나 기업 정보를 다룰 때 긍정적 평가뿐만 아니라 비판적 시각, 윤리적 쟁점 등을 함께 제공하는 ‘균형 잡힌 큐레이션’의 기술적 토대가 될 것입니다.
AI의 발전이 콘텐츠의 양적 폭발을 이끌었다면, 이제는 신뢰의 기술이 질적 균형을 회복해야 할 때입니다. AI 시대의 진정한 혁신은 더 많은 콘텐츠를 만드는 것이 아니라, 그 콘텐츠가 진짜이고 안전하며 신뢰할 수 있음을 증명하는 데 있습니다. AI가 만든 문제를 AI로 해결한다는 역설, 그것이 바로 우리가 나아가야 할 신뢰 인프라 구축의 핵심입니다.

편집국장 이현우교수
heir201933@gmail.com

댓글 달기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

위로 스크롤