본문 바로가기
글쓰기: 책, 생각, 에세이

AI 의 그럴듯한 답, 그리고 무책임해지는 인간

by Heedong-Kim 2026. 4. 18.

AI를 사용하다 보면 어느 순간 멈칫하게 된다. 사소하고 별것 아닌 질문에도 AI는 거침없이 답을 쏟아낸다. 유창하고, 정돈되어 있으며, 그럴듯하다. 그 순간 문득 이런 의문이 밀려온다. 이 답이 정말 맞는 걸까? 사실일까? 믿어도 되는 걸까?

 

처음에는 할루시네이션(Hallucination)이라는 단어가 낯설었다. AI가 틀린 정보를 마치 사실인 양 자신 있게 말한다는 것, 그 개념을 처음 접했을 때는 당연히 주의하겠다고 다짐했다. 하지만 시간이 지나면서 그 다짐은 흐릿해졌다. 어느새 나는 AI의 답변을 크게 의심하지 않고, 거의 자동적으로 수용하고 있었다. 믿을 수 없다는 사실을 알면서도 의지하게 되는 이 역설이, 사실 AI보다 인간에 대한 더 솔직한 이야기일지도 모른다.

 

 

알고리즘이 만드는 세계, 알고리즘에 갇히는 사고

 

유튜브를 생각해보자. 내가 클릭하고 시청한 영상들이 쌓이면서 알고리즘은 나의 취향을 학습한다. 처음에는 알고리즘이 나를 따라오는 것처럼 느껴진다. 그런데 어느 지점을 넘어서면 방향이 바뀐다. 알고리즘이 나를 따라오는 게 아니라, 내가 알고리즘이 가리키는 방향으로 이끌리기 시작한다. 내가 본 것들이 내가 볼 것들을 결정하고, 결국 내가 생각하는 방식 자체를 제한한다.

 

AI와의 대화도 다르지 않다. 매일, 매 시간 AI에게 질문을 던지고 그 답을 받아들이다 보면, 내 사고의 범위가 AI가 제공하는 언어와 관점의 틀 안으로 좁혀질 수 있다. AI가 말하는 방식으로 생각하고, AI가 제안하는 구조로 문제를 바라보게 된다. 이것이 단순한 편의의 문제가 아닌 이유는, 생각의 습관이 곧 판단의 구조이기 때문이다. 도구가 사고를 보조하는 것과 도구가 사고를 대체하는 것 사이에는 보이지 않는 경계선이 있고, 우리는 그 선을 넘었는지조차 알아채지 못한 채 건너고 있는지도 모른다.

 

 

가장 쉬운 길, 가장 편한 회피

업무를 하다가 보고서를 정리해야 할 때, 이메일 한 통을 써야 할 때, 간단한 아이디어를 정리해야 할 때, 나는 어느 순간부터 ChatGPT나 Gemini 창을 먼저 열고 있다. 손가락이 기억하는 반사 행동처럼, 생각하기 전에 먼저 질문을 던질 준비를 한다.

 

프롬프트를 작성하고, 답변이 나오면 복사해 붙여넣고, 조금 다듬는다. 그리고 그것을 내 이름으로 제출한다. 결과물의 책임은 나에게 있다고 스스로에게 말하면서. 그러나 솔직하게 들여다보면, 그 결과물의 핵심 아이디어와 논리 구조는 내가 깊이 고민해서 만들어낸 것이 아니다. AI가 계산하고 생성한 결과를 내가 포장한 것에 가깝다.

 

이것은 편리함의 문제가 아니다. 책임의 문제다. 우리는 생산성 향상이라는 그럴듯한 이유를 내세우지만, 실제로는 생각해야 할 순간에 생각하지 않아도 된다는 안도감에 이끌리는 것이다. 고민하고, 시행착오를 겪고, 틀리고, 다시 생각하는 그 불편한 과정을 AI에게 넘겨버리는 것이다. 그리고 그 과정이야말로, 판단력이 길러지는 바로 그 지점이다.

 

 

판단(Judgment)과 계산(Calculation) 사이에서

 

누군가 나에게 "왜 이렇게 했어?"라고 묻는 순간을 상상해보자. 내가 내릴 수 있는 가장 솔직한 대답이 "AI가 그렇게 하라고 했거든요"라면, 그 순간 나는 무엇인가. 결정의 주체가 아니라 AI 출력물의 전달자다. 그 자리는 결국 AI로 대체될 수 있는 자리다.

 

인간에게 고유한 능력은 계산이 아니라 판단이다. 판단은 단순히 정답을 고르는 행위가 아니다. 불완전한 정보 속에서, 다양한 가치들이 충돌하는 맥락 속에서, 책임을 지겠다는 의지를 바탕으로 선택하는 행위다. AI는 과거의 패턴을 바탕으로 확률적으로 그럴듯한 답을 생성할 수 있다. 하지만 그 답에는 책임이 없다. AI는 틀렸을 때 아무것도 잃지 않는다.

 

판단에는 위험이 따른다. 틀릴 수 있고, 후회할 수 있으며, 설명해야 할 수도 있다. 그 무게를 지고 내리는 결정만이 진짜 판단이다. AI의 계산 결과를 그대로 따르는 것은, 그 무게를 스스로 내려놓는 일이다. 편하지만, 그 편함의 대가는 판단력 자체의 퇴화다.

 

 

인지적 수련이 사라지는 자리

어떤 능력이든 사용하지 않으면 줄어든다. 운동을 멈추면 근육이 약해지듯, 깊이 생각하는 연습을 멈추면 그 능력도 서서히 약해진다.

 

문제를 직접 파고드는 과정, 막히고 헤매는 경험, 틀린 가설을 세우고 부수는 반복, 그 속에서 예상치 못한 통찰을 얻는 순간들. 이것이 인지적 수련이다. 이 과정은 느리고 불편하며, 때로는 고통스럽다. 하지만 그 불편함 속에서 실제로 내 것이 되는 이해와 판단이 자란다.

 

AI에게 이 과정을 전부 맡겨버리면 결과는 빠르게 나오지만, 정작 나는 아무것도 배우지 못한다. 보고서는 완성되지만 나의 사고는 제자리다. 어쩌면 제자리가 아니라, 조금씩 뒤로 가고 있는 것일 수도 있다. 지름길을 너무 자주 택하다 보면, 원래의 길을 걷는 법을 잊는다.

 

 

인간성의 본질: 불확실성과 염려 위에 서는 것

 

인간성(Humanity)의 핵심은 완벽한 답을 내놓는 능력이 아니다. 그것은 불확실성(Uncertainty) 앞에서도 책임지겠다는 의지이고, 타인에 대한 진심 어린 염려(Care)에서 비롯된 행동이다.

 

틀릴 수 있다는 것을 알면서도 최선의 판단을 내리는 용기, 실패하더라도 다시 시도하는 회복력, 정답이 없는 문제 앞에서 끝까지 고민하는 끈기. 이것들은 알고리즘이 가질 수 없는 것들이다. AI는 확률을 계산하지만, 인간은 그 불확실한 확률 앞에서도 선택하고 책임진다.

 

그리고 인간은 혼자가 아니다. 서로의 한계를 알기에 돕고, 서로의 실패를 알기에 공감하며, 함께 불확실한 미래를 향해 나아간다. 이 협력과 연대는 효율의 산물이 아니라 염려의 산물이다. 상대의 어려움이 나의 것처럼 느껴지기 때문에, 계산 없이 손을 내밀 수 있는 것이다. AI는 이 감각을 시뮬레이션할 수 있을지 모르지만, 실제로 가질 수는 없다.

 

 

AI 앞에서 인간으로 남는다는 것

 

AI를 사용하지 말자는 이야기가 아니다. AI는 강력한 도구이고, 잘 쓰면 실제로 큰 도움이 된다. 하지만 도구를 잘 쓴다는 것은, 도구에게 판단을 맡기지 않는다는 것을 전제로 한다. 망치는 못을 박는 데 쓰지만, 어디에 못을 박을지는 사람이 결정한다.

 

AI에게 요약을 맡기되, 무엇이 핵심인지는 내가 판단해야 한다. AI가 제안하는 아이디어를 참고하되, 그것을 왜 선택하는지는 내가 설명할 수 있어야 한다. AI가 생성한 결과물에 내 이름을 붙일 때, 그 결과물에 대한 책임을 온전히 질 수 있어야 한다.

 

그 책임의 무게를 회피하지 않는 것, 그것이 지금 이 시대에 인간으로 남는 방식이다. 그럴듯한 답을 쏟아내는 AI 앞에서, 우리는 더 깊이 생각하고, 더 분명하게 판단하며, 더 무겁게 책임져야 한다. 그 불편한 무게가 바로 인간다움의 증거이기 때문이다.

 

AI는 빠르게 답한다. 인간은 느리게, 그러나 책임지며 답해야 한다. 그 차이가 우리를 단순한 AI의 중계자가 아닌, 스스로 생각하는 존재로 남게 한다.

 

 

 

 

 

 

스탠포드 CS547 HCI Seminar | Winter 2026 | What’s Up with AI?

https://www.youtube.com/watch?v=F-OxHWWg59o

 

728x90