※ 디지스트신문 DNA 기자들이 취재 현장 안팎에서 보고 느낀 일들을 독자 여러분께 전하고자 ‘OO일기’ 칼럼 시리즈를 연재합니다. 본 ‘OO일기’는 지난 2020년 배현주 전 편집장이 원내 익명성에 대해 고찰한 ‘꼰대 일기’ 칼럼에 영감을 받은 후배 기자들이 선배의 뜻을 이어받아 비정기적으로 ‘일기’ 칼럼들을 발행하며 출발했습니다. 앞으로 디지스트신문 DNA는 사소하고 즐거운 이야기부터 진지한 주제까지, 취재 현장 안팎에서 보이는 다양한 이야기에 대해 자유롭고 넓은 범위로 기자의 경험과 생각을 전하겠습니다. 독자 여러분께 때로는 가벼운 농담 거리를, 때로는 진지한 토론 거리를 던질 ‘OO일기 시리즈’가 우리 학생 사회에서 다양한 담론을 이끌기를 바랍니다.
일기 시리즈 돌아보기
1. [꼰대일기] 모니터 뒤에 사람 있어요
2. [수습기자 일기] 편집장님 방 털기 (DGIST 학생생활관, 과연 안전한가?)
3. [군대일기] 깨달음이 없는 나라도 깨달은 이의 태도를 훔칠 순 있으니까
4. [편집장 일기] 참여하는 사람은 주인이요, 참여하지 않는 사람은 손님이다. (전학대회, 선거시행세칙 개정 뒷이야기)
5. [부편집장 일기] “그 모든 일은 1/500초로 충분하다”… 퓰리처상 사진전을 다녀오고
6. [권대현 편집장의 ‘자유’일기] 샤프펜슬과 전열기구를 금지하는 사회, 자유는 어디까지 존중받아야 하는가
7. [이상아 기자의 ‘평범’일기] 당신도 순간 악해질 수 있습니다
8. [전사빈 기자의 ‘밴드’일기] 넬 - 처절함이 묘사하는 생명력
9. [김신지 기자의 ‘그림’일기] “딸깍”하면 다 되는 세상에서, 내 그림이 의미 있나요?
10. [황인제 수습기자의 ‘투표’일기] 투표는 나비의 날갯짓이다: 혼돈의 시대, 한 표의 힘
11. [노경민 기자의 ‘애주’ 일기] 소주는 죄가 없다
12. [박재영 기자의 ‘교열’일기] 고쳐 쓰기의 중요성 – 4년차 교열팀장의 일기
13. [김신지 기자의 '조교'일기] 수강생 수와 책임감의 선형 비례: 학부생 조교의 관점에서
14. [박재윤 기자의 ‘채식’일기] 먹지 않기 보다는 ‘덜 먹기’: 불완전한 나를 위한 채식
15. [권대현 부편집장의 ‘사과’일기] ‘만능 유감 주의’ 유감, 바른 사과하는 어른 되자
16. [전사빈 기자의 ‘금연’일기] ‘하지 않음’을 적극적으로 수행한다는 것
17. [황인제 기자의 ‘공허’일기] 사실 모든 사람들의 마음 한 편엔 공허함이 있다
18. [김신지 기자의 ‘채집’일기] 학교에서 자란 석류, 직접 먹어보겠습니다
19. [이서하 기자의 ‘수업’일기] 좋은 수업은 어떻게 만들어질까?
20. [권대현 기자의 ‘저널리즘’ 일기] ‘무엇이 뉴스인지 결정하는 과정’
※ 인공지능 전공자가 아니므로 이론적인 오류가 있을 수 있습니다.
가히 인공지능, 정확히는 생성형 인공지능의 시대이다. 필자가 DGIST에 입학한 지 얼마 안 된 새내기였던 2023년 초만 해도 글쓰기란 컴퓨터 앞에서 키보드를 두드리면서 썼다가 지우기를 반복하는 행위였고, 정보를 얻는 가장 주된 수단은 웹 검색이었다. 그러나 ChatGPT처럼 엄청난 양의 텍스트 데이터를 학습하여 적절한 자연어를 출력하는 대규모 언어 모델(Large Language Model, 이하 LLM)이 등장하면서 이 모든 것이 사용자가 입력한 프롬프트를 AI 회사의 서버가 받아 적절한 답변을 생성하여 사용자에게 다시 전송하는 행위로 변모하였다. 생성형 인공지능이 우리에게 가져온 변화와 그 영향은 생성형 인공지능의 내부 구조만큼이나 복잡할 것이다.
위에서 굳이 생성형 인공지능이라고 언급한 이유는 개인적으로 인공지능과 생성형 인공지능의 차이를 구분하고 있기 때문이다. 내가 생각하는 인공지능은 자의식을 가지고 사람만큼이나 복잡한 사고회로를 가지는 일종의 프로그램 또는 기계 장치이다. 사실 회로라고 부를 수 있는 설계구조를 가지는지조차 확신할 수 없다. 아직 세상에 존재하지 않기 때문이다. 자유 의지를 가질 뿐 아니라 윤리적인 면을 고민해야 할 정도로 고차원적인 인공지능이라는 분류에 비해 생성형 인공지능은 소위 ‘끝말잇기’를 아주 잘하는 프로그램이라고 할 수 있다. 다양한 소스로부터 천문학적인 데이터를 이용해 가중치를 학습한 모델에 우리가 프롬프트를 입력하면 학습한 가중치를 바탕으로 그 뒤에 올 확률이 높을 것 같은 단어와 문장을 이어 붙여서 만들어지는 것이 바로 LLM의 답변이기 때문이다.
일반적으로 인공지능 모델의 성능을 높이는 가장 좋은 방법은 단연코 학습 데이터의 양을 늘리는 것이다. 데이터의 양이 많을수록 어느 한 특성을 학습하기보다 현실과 가까운 일반화된 특성을 학습할 확률이 높아진다. 이러한 맥락에서 LLM의 끝말잇기가 매우 자연스럽고 완성도 높은 이유는 압도적인 학습 데이터의 양 때문이다. 인류가 남긴 그리고 현재도 만들어내고 있는 모든 문자 데이터를 학습하는 LLM의 답변은 하드웨어 연산 환경만 뒷받침된다면 앞으로 더 많이 발전할 여지가 크다.
하지만 여기에는 주목할 만한 점이 한 가지 있다. LLM이 자기 자신과 훈련 데이터들에 대한 이해를 바탕으로 정확한 답변을 출력하고 있으리라는 보장이 없다는 것이다. 관련 사고 실험으로 ‘중국어 방’이 있다. 중국어를 하나도 모르는 실험자가 외부 사람과 오직 필담으로만 소통이 가능한 방에 혼자 있고 방 안에는 이 세상에 존재할 수 있는 모든 중국어 문장에 대한 답변을 모아놓은 책자가 있다. 이론상 이 방에 있는 실험자는 방 외부의 모든 중국어 화자와 아무런 무리 없이 글로 소통할 수 있지만, 실험자가 일평생을 방에 들어오는 중국어 문장을 보고 책자에서 적절한 답변을 찾아 다시 내놓는 작업만 한다고 하더라도 자신이 읽고 쓰는 중국어 문장을 이해한다고 말하기에는 다소 무리가 있다. 여기서 실험자를 GPT 모델, 중국어 책자를 훈련으로 조정된 가중치라고 본다면 LLM의 끝말잇기에 대해서도 이와 비슷한 고민을 해볼 수 있다.
최근 스레드를 보면서 종종 글이나 댓글의 근거로 ChatGPT의 답변이 첨부된 게시물들을 볼 수 있다. 이러한 점에 크게 문제의식을 느끼지는 않는다. ChatGPT 웹사이트 하단에 “ChatGPT는 실수를 할 수 있습니다.”라고 명시된 것처럼 대부분의 사람은 LLM의 부정확성을 어느 정도 인지하고 있고, 근거로 LLM의 답변을 첨부한 사람도 진지하게 자신의 의견을 내세우기보다는 다른 시선의 의견도 있다는 것을 간단하게 제시해 보려는 의도였을 것이다. 나 역시 다양한 작업에 LLM을 애용하며 이제는 LLM 없는 생활을 상상할 수 없을 만큼 일상에 깊이 들어와 있다. 또한 엄청난 양의 데이터를 학습한 LLM의 답변은 내가 20여 년을 살면서 학습한 데이터보다 더 많은 사람이 가진 일반화된 데이터로부터 나온 결과물일 수도 있다.
다만 앞서 제시한 중국어 방 사고실험처럼 LLM이 하는 작업이 끝말잇기라는 점을 주목해야 한다. 이것은 마치 규칙이 느슨한 끝말잇기와 같다. “컴퓨터 – 터빈 – 빈쉙쀏바 – 바지”처럼 실제로는 현실에 존재하지 않는 단어나 개념이지만 단순히 맥락상 뒤에 이어질 확률이 높다는 이유만으로 답변에 사용하는 경우가 발생할 수 있기 때문이다. 따라서 생성형 인공지능을 사용하는 사람이라면 이를 의식하여 비판적인 태도로 답변을 받아들이는 태도가 필요하다. LLM보다 더 정확하고 정제된 ‘책’을 읽을 때도 맹목적으로 정보를 받아들이기보다 비판적으로 읽는 것이 중요함을 강조하는 것처럼 LLM이 제공하는 답변도 언제든지 오류가 존재할 가능성을 염두에 두고 받아들여야 한다.
이 글은 생성형 인공지능 사용자들에게 어떤 이론적인 정보를 제공하거나 특정 태도를 촉구하는 거창한 목적보다는, 나 자신에게 비판적 태도를 상기하고 생각을 정리하기 위해 작성되었다. 공부할 때도, UGRP와 학부생 연구원 등의 연구 활동을 할 때에도 생성형 인공지능의 비중은 점점 높아지고 있다. 이러한 상황에서 언제나 LLM이 내놓는 답변이 틀릴 수 있음을 인지하고, 주어진 정보가 정말 올바른지 지속적으로 검증하는 습관을 들이는 것만이 현 AI 홍수 시대에서 제대로 된 공학도가 될 수 있는 길이라고 생각한다.
최연우 기자 cyw040306@dgist.ac.kr
| 2025년 올해의 과학 단어: 인공지능 환각(AI Hallucination) (0) | 2025.12.31 |
|---|---|
| [권대현 기자의 ‘저널리즘’ 일기] ‘무엇이 뉴스인지 결정하는 과정’ (0) | 2025.11.29 |
| 4대 과기원 전철 시대와 글로벌 DGIST: 대구산업선, DGIST 원내 역 신설의 필요성을 말하다 (0) | 2025.10.29 |
| [칼럼] 왜 여러분은 긴 글을 읽지 않을까? (0) | 2025.10.27 |
| [이서하 기자의 ‘수업’일기] 좋은 수업은 어떻게 만들어질까? (0) | 2025.10.25 |
댓글 영역