메타ai뉴스 이현우 교수 칼럼
AI로 AI를 치유하다
트랜스포머의 혁명에서 ‘다시 스탠드’의 도전까지

최근 국내 대학생들이 거대언어모델(LLM)을 활용해 뉴스의 정치적 편향성을 분석하고, 사용자에게 균형 잡힌 시각을 제공하는 ‘다시 스탠드’라는 애플리케이션을 개발했다는 소식이 들려왔습니다. 이 소식은 단순한 학생들의 기술적 성취를 넘어, 우리 언론과 플랫폼이 지향해야 할 방향에 대해 깊은 성찰을 요구합니다.
오늘 칼럼에서는 이 혁신적인 시도가 던지는 메시지를 분석하고, AI 기술의 근간이 된 ‘트랜스포머(Transformer)’의 역사를 되짚어보며, 우리가 나아가야 할 ‘균형 잡힌 AI 저널리즘’의 실천 방안을 모색해 보고자 합니다.
- 알고리즘의 역설과 대학생들의 해법
우리가 직면한 핵심 문제는 ‘알고리즘에 의한 정보 편향성의 역설’입니다. 현재의 소셜 미디어와 뉴스 추천 시스템은 사용자의 클릭 수와 체류 시간을 극대화하기 위해 설계되었습니다. 이 과정에서 개인의 기존 성향에 부합하는 정보만을 지속적으로 노출하는 ‘필터 버블(Filter Bubble)’과 ‘확증 편향(Confirmation Bias)’이 강화됩니다. 이는 결국 사회적 양극화와 신뢰의 붕괴라는 심각한 부작용을 초래하고 있습니다.
주목할 점은 ‘다시 스탠드’ 서비스가 이 문제를 다루는 방식입니다. 이들은 AI가 야기한 문제를 회피하거나 단순히 비판하는 데 그치지 않고, 더 고도화된 AI 기술을 활용해 적극적인 ‘해결책’을 제시했습니다. 진보, 중도, 보수 등 성향별 관점의 차이를 AI가 직접 요약하고 비교 분석하여 제공하는 방식은 기술 자체가 문제가 아니라, ‘기술을 설계하는 목적’이 무엇이냐가 중요함을 시사합니다. 이는 미국의 ‘그라운드뉴스’와 같이 정보 편향성을 객관적으로 인지하려는 시장의 요구가 국내에서도 구체화되고 있음을 보여줍니다.
- 혁신의 기원: 트랜스포머(Transformer)의 탄생과 교훈
이러한 대학생들의 과감한 기술 활용은 AI 역사의 거대한 분기점이 되었던 ‘트랜스포머’의 탄생 과정을 떠올리게 합니다. 오늘날 챗GPT를 비롯한 생성형 AI 혁명의 기반이 된 트랜스포머 모델은 사실 구글 내부의 치열한 고민과 아이러니 속에서 탄생했습니다.
2017년 초, 구글 브레인의 아시시 바스와니(Ashish Vaswani)와 동료들은 구내식당에서 번역 기술의 한계를 논의하고 있었습니다. 당시 딥러닝의 한 축인 순환신경망(RNN)은 문장이 길어질수록 번역 성능이 급격히 떨어지는 한계가 있었습니다. 이때 “RNN을 버리고 어텐션(Attention) 메커니즘만 사용하면 어떨까?”라는 도발적인 제안이 나왔습니다. 어텐션은 문장 내 단어들의 관계와 중요도를 파악하는 기술로, 당시에는 보조적인 수단으로만 여겨졌습니다.
많은 회의적인 시선 속에서도 8명의 연구팀은 연구를 강행했습니다. 그 결과, 입력 문장을 출력 문장으로 변환한다는 의미의 ‘트랜스포머’ 모델이 탄생했습니다. 이 모델은 독일어, 프랑스어 등 복잡한 언어 구조를 기존 구글 번역보다 훨씬 매끄럽게 처리했고, 문맥에 따라 단어의 의미가 달라지는 미묘한 뉘앙스까지 추론해 냈습니다. 그들은 이 결과를 바탕으로 AI 역사상 가장 유명한 논문 중 하나인 “Attention Is All You Need”를 발표했습니다.
- 기술의 소유 vs 기술의 실천: 구글의 딜레마와 오픈AI의 도약
그러나 여기서 우리는 중요한 역사적 교훈을 얻을 수 있습니다. 혁신적인 기술을 개발한 것은 구글이었지만, 그 잠재력을 폭발시킨 것은 구글이 아니었습니다. 연구팀의 일원이었던 노엄 샤지어(Noam Shazeer)는 트랜스포머가 검색을 포함한 모든 기술을 대체할 잠재력이 있다고 주장하며, 챗봇 ‘미나(Meena)’를 개발해 제품화를 시도했습니다. 하지만 구글 경영진은 AI가 생성할 수 있는 편향성, 유해성, 그리고 기존 검색 광고 사업에 미칠 부정적 영향을 우려해 이를 상용화하는 데 주저했습니다. 이것은 전형적인 ‘혁신가의 딜레마’였습니다.
반면, 스타트업이었던 오픈AI는 달랐습니다. 일리야 수츠케버를 비롯한 오픈AI 연구진은 트랜스포머의 가능성을 즉시 알아차렸습니다. 그들은 트랜스포머의 구조 중 문장을 생성하는 ‘디코더’ 부분에 집중하여, 다음 단어를 예측해 문장을 만들어내는 생성 AI 모델인 GPT(Generative Pre-Trained Transformer)를 개발했습니다.
구글이 리스크를 우려해 주춤하는 사이, 오픈AI는 GPT-1, GPT-2를 거쳐 2022년 챗GPT(GPT-3.5)를 공개하며 전 세계에 충격을 안겼습니다. 구글이 내부 연구용으로만 묶어두었던 기술이 외부의 과감한 실행력과 만나 세상을 바꾼 것입니다. 이는 기술을 ‘보유’하는 것보다, 그 기술을 어떤 목적으로 어떻게 ‘실천’하느냐가 훨씬 중요하다는 사실을 뼈저리게 보여줍니다.
- AI 저널리즘이 나아가야 할 길
대학생들이 만든 ‘다시 스탠드’는 구글이 망설였던 그 지점, 즉 기술을 이용해 정보의 불균형을 바로잡으려는 시도를 과감하게 해냈다는 점에서 오픈AI의 초기 행보와 닮아 있습니다. 이제 우리도 이러한 흐름에 발맞춰 AI 정보를 다루는 플랫폼으로서의 책임을 다해야 합니다.
우리는 인공지능 관련 뉴스, 기업 정보, 마케팅 컨설팅 정보를 제공하는 주체로서, 우리 스스로가 알고리즘에 의한 편향성에서 자유로울 수 없음을 인정해야 합니다. AI 분야의 뉴스는 자칫 빅테크 기업의 화려한 발표나 기술 만능주의에 매몰되기 쉽습니다. 이는 기술의 잠재적 위험성이나 윤리적 딜레마, 소외된 목소리를 간과하는 ‘기술 중심적 확증 편향’을 낳을 수 있습니다.
따라서 다음과 같은 구체적인 실천 방안을 통해 균형 잡힌 시각을 견지해야 합니다.
첫째, AI 개발 및 뉴스 큐레이션의 목적성 전환입니다. 단순히 트래픽을 위한 ‘참여(Engagement)’가 아닌 ‘관점의 다양성(Viewpoint Diversity)’을 핵심 성과 지표로 삼아야 합니다. ‘다시 스탠드’가 댓글 성향을 분리하고 AI로 심사하듯, 우리도 기술을 활용해 의도적으로 편향을 제거하고 건전한 담론을 유도하는 기능을 설계해야 합니다.
둘째, ‘균형 잡힌 AI 관점’의 큐레이션 도입입니다. 특정 AI 기술이나 신규 LLM 출시 소식을 다룰 때, 해외 메이저 언론의 긍정적 평가뿐만 아니라 학계의 비판적 분석, 시민 단체의 우려, 경쟁사의 반론을 ‘함께’ 제공해야 합니다. 독자가 한쪽의 목소리만 듣지 않도록 구조적으로 정보를 배치해야 합니다.
셋째, ‘이슈 분석’의 다각화와 프레임워크 적용입니다. AI가 생성하는 분석 리포트나 우리가 제공하는 기사에 대해 ‘기술적 성과’뿐만 아니라 ‘경제적 영향’, ‘사회적/윤리적 쟁점’ 등 다양한 분석 프레임워크를 의무적으로 적용해야 합니다. 이를 통해 독자가 하나의 사안을 입체적으로 조망할 수 있도록 도와야 합니다.
넷째, 투명한 정보 출처 및 관점 명시입니다. 기사나 컨설팅 정보가 기업의 홍보 자료인지, 기술 비평인지, 시장 분석인지 명확히 태깅(Tagging)하고, 가능한 다양한 원본 링크를 제공하여 독자의 ‘비판적 사고’를 지원해야 합니다.
맺음말
트랜스포머를 개발하고도 활용하지 못해 위기를 맞은 구글의 사례는 우리에게 시사하는 바가 큽니다. 기술은 그 자체로 선하거나 악하지 않으며, 그것을 사용하는 인간의 의지에 따라 결과가 달라집니다.
‘다시 스탠드’를 개발한 대학생들은 AI 시대에 민주주의와 사회적 신뢰를 지키기 위한 중요한 화두를 던졌습니다. 우리 또한 단순히 빠르고 자극적인 AI 소식을 전하는 것을 넘어, 기술의 명과 암을 균형 있게 비추는 등대 역할을 해야 합니다. 그것이 AI라는 거대한 파도 속에서 우리가 중심을 잃지 않고 올바른 방향으로 나아가는 유일한 길일 것입니다.
편집국장 이현우교수
heir201933@gmail.com