생성형 AI의 물결 속 생각하는 힘을 지켜라

0
16

최근 몇 년 사이 ChatGPT를 비롯한 여러 생성형 AI가 우리들의 일상에 스며들었다. 단순히 정보를 수집하고 분석하는 것을 넘어 생성형 AI는 글, 이미지 등의 창작까지 더 넓은 범위에서 영향을 떨치고 있다. 예를 들어, 실험 결과만 입력해도 그에 맞는 실험 보고서를 AI가 생성하는 수준까지 이르렀다.

이러한 흐름 속에서 항상 강조되어 오던 글쓰기 능력과 비판적 사고력 등 ‘생각하는 힘’이 덜 중요해진다는 이야기가 일각에서 나온다. 게다가 최근 들어 생성형 AI의 성능이 급격히 향상되고 있어 이러한 이야기가 점점 많아지는 것 같다. 물론 온전히 인간의 몫이었던 글쓰기와 창작을 AI가 어느 정도 분담하는 것은 맞지만, ‘생각하는 힘’의 중요성은 여전히 강조해도 지나치지 않는다.

이에 필자가 GIST 재학 중일 시절 학생으로서, 강의 조교로서, 학부 연구원으로서 이에 관해 느낀 점을 독자기고에 풀어보고자 한다.

 

AI가 가진 비판적 사고의 한계

AI가 있음에도 ‘생각하는 힘’이 중요한 이유는, AI는 아직 비판적 사고 능력이 인간보다 떨어지기 때문이다. AI는 표면적인 데이터를 바탕으로 오류를 분석하고 합당한 결론을 내릴 수는 있지만, 그것을 넘어선 통찰력이나 직관은 인간보다 못하다. 즉, 현재 AI는 정보를 수집하고 분석하는 능력은 뛰어날지 몰라도, 그것을 거르는 능력은 약하다.

따라서 우리에게는 AI를 올바르게 이해하고 활용하는 능력, 즉 ‘AI 문해력(AI literacy)’이 필요하다. 여기에는 AI가 생성하는 결과물과 제공하는 정보를 적절히 비판하며 수용하는 능력도 포함된다. 생성형 AI는 작업 능률 향상을 위한 보조 도구로 이용해야 하는 것이지, 이를 맹신해서는 안 된다.

이는 각종 미디어를 비평하며 접근할 수 있는 능력인 ‘미디어 문해력(media literacy)’과도 일맥상통한다. 뉴스, 소셜 미디어, 유튜브 등에서는 올바른 정보도 있지만 그와 동시에 사실관계를 교묘히 왜곡한 잘못된 정보도 있다. 특히 지금처럼 정치적인 이슈가 많을 때는 더욱 그러며, 이를 의도적으로 이용하는 사람도 있다. 그러므로 미디어를 비평적으로 수용하여 잘못된 정보를 걸러내는 능력이 중요하다.

이러한 면에서는 AI와 미디어는 크게 다르지 않다. 미디어를 소비할 때도 그렇듯, 생성형 AI가 만들어내는 결과물은 비판적으로 수용하는 자세가 필요하다.

 

인공지능은 선한가?

누군가는 이러한 현재 AI가 가지는 ‘비판적 사고 한계’도 언젠가는 자율적 사고가 가능한 강인공지능(strong AI)의 개발로 극복할 수 있다고 말할 수 있다. 강인공지능 개발이 가능한지는 논외로 할지라도, 더욱 근본적으로 고려해야 하는 문제가 있다. 이 문단의 제목이기도 한 ‘인공지능은 선한가?’이다. 즉, AI가 현재 인간 또는 그 이상으로 비판적 사고를 할 수 있다고 하더라도, 그 능력을 일반 대중에게 도움이 되게끔 사용할지는 모른다는 뜻이다.

이는 최근에 화제가 된 중국의 생성형 인공지능 딥시크(DeepSeek)의 사례를 참고하면 쉽게 이해할 수 있다. 딥시크는 천안문 6.4 항쟁 등 중국 정부에 불리한 내용을 검열하여 논란이 된 바 있다. 이처럼 약인공지능조차도 특정 국가의 입맛에 맞게 작동하는 등 ‘선하지 않은’ 사례가 있는 상황에서, 미래에 강인공지능이 인간에게 선하게 작동할지는 의문이다. 오히려 스스로 사고가 가능한 강인공지능이 개발자의 의도와는 무관하게 인간에게 악하게 작동할 여지도 있다.

 

AI를 개발하는 이유는 우리의 삶을 윤택하게 만들기 위해서다. AI가 아무리 발달해도 결국 정보를 소비하고 만드는 주체는 인간이다. AI는 그 과정을 도와주는 좋은 도구일 뿐이다. 그러므로 각자가 그 정보의 주체로서, AI를 현명하게 사용하기를 바란다.

 

KAIST 곽재원(물리, 통합)