주간동아 1482

..

AI 많이 쓰면 ‘스스로 생각하는 힘’ 떨어져

학생들, AI 이점 활용하되 AI 내놓는 답 검증하는 습관 들여야

  • 김지현 테크라이터

    입력2025-04-03 09:00:01

  • 글자크기 설정 닫기
    인공지능(AI) 도구를 자주 사용하는 사람일수록 비판적 사고력이 떨어진다는 연구 결과가 나왔다. GettyImages

    인공지능(AI) 도구를 자주 사용하는 사람일수록 비판적 사고력이 떨어진다는 연구 결과가 나왔다. GettyImages

    SBS 스위스 경영대학원이 1월 발표한 연구 결과에 따르면 인공지능(AI) 도구 사용 빈도와 비판적 사고력은 반비례하는 것으로 나타났다. AI를 많이 사용할수록 정보를 비판적으로 평가하고 심사숙고하는 능력이 낮아지는 경향이 있음을 통계로 확인한 것이다. 에반 셀링거 미국 로체스터공과대 철학과 교수는 2014년에 이미 특정 단어 다음에 이어질 적합한 단어를 추천하는 예측 기술에 대해 “글쓰기를 위한 인간의 사고력을 약화해 인간으로 하여금 생각하지 않게 만들 수 있다”고 경고한 바 있다. AI는 인간에게 ‘생각하지 않고 답을 얻는’ 습관을 갖게 하고, 인간의 생각하는 힘을 퇴화시킬 수 있다.

    학교에서 생성형 AI 챗GPT는 학생들이 보고서나 에세이를 작성할 때 훌륭한 도구로 활용되고 있다. 학생들은 AI를 활용해 과제를 할 때 직접 자료를 찾아 읽은 뒤 내용을 요약하는 과정을 건너뛴다. 내용을 정독하지 않고 AI가 요약한 내용을 스캔(scan)만 하는 ‘학습의 피상화’가 일어나는 것이다. AI가 발달하기 전에는 학생이 직접 자료를 읽으면서 내용을 곱씹고 맥락을 이해하며 자신의 언어로 재구성하는 과정을 통해 지식을 내면화했다. 이러한 기회를 지금은 AI가 빼앗고 있다.

    AI가 지식 내면화 방해

    AI는 타인과 의견을 조율하고 상대방에게 공감하는 능력을 위축하기도 한다. 학생이 AI를 많이 활용할수록 동료 학생이나 교사와의 상호작용이 줄어들기 때문이다. AI가 제공하는 완성된 답변에 익숙해지면 자기 생각을 말과 글로 표현하는 연습이 부족해진다. 결국 타인을 설득하고자 자기 논리를 펼치고 논쟁하는 역량도 쇠퇴할 수 있다.

    AI가 제시한 답에 담긴 잘못된 정보를 학생들이 그대로 수용하는 것도 큰 문제다. AI 성능이 갈수록 좋아지고 있지만 여전히 AI가 잘못된 정보를 내놓는 경우가 많다. 하지만 AI의 권위가 높아지고 AI에 대한 신뢰가 커질수록 AI가 제시하는 답을 그대로 수용하는 사람이 늘어나기 마련이다. AI가 제공하는 잘못된 정보와 논리적 오류를 제대로 검증하지 않는 학생은 거짓 지식을 쌓게 될 뿐 아니라, 정보를 비판적으로 수용하고 검증하는 능력도 쇠퇴한다.

    AI 사용이 장기화하면 학생들의 비판적 사고력, 고난도 문제해결 역량, 학습 동기와 호기심이 떨어지는 부작용이 나타날 수 있다. 당장의 과제는 AI를 통해 해결할 수 있다. 하지만 체화되지 못한 기본 개념과 다양한 역량은 미래에 난도가 높은 과제나 연구, 업무를 수행할 때 결국 그들의 발목을 잡을 것이다.

    AI 기업, 교육적 책임 의식 가져야

    이러한 부작용을 최소화하려면 학생, AI 서비스를 제공하는 기업, 교육 기관의 노력이 필요하다. 먼저, 학생은 AI 도구를 현명하게 사용하는 방법을 찾아 익혀야 한다. AI를 배척하는 것은 바람직한 해결책이 아니다. 학생들은 AI의 이점을 적극 활용하되 AI에 대한 맹신을 경계하고 AI가 내놓은 답을 검증하는 습관을 들여야 한다. 과제를 수행할 때 처음부터 AI를 찾는 것이 아니라, 일정 시간 동안 혼자 지식을 재구성하다가 어려운 문제에 부딪치면 힌트를 얻을 목적으로 잠깐 AI를 사용하는 학습 방식이 필요하다. 종종 ‘AI 디톡스’를 통해 사고력을 기르는 것도 좋다. 일부 과제에서는 AI를 활용하지 않고 온전히 혼자 힘으로 자료를 찾고 정리하며 사고하는 시간을 가져야 한다.

    AI 기업은 학습용 AI를 개발할 때 교육적 책임 의식을 가질 필요가 있다. 학생들이 AI를 사용하는 과정에서 스스로 사고할 기회를 가지도록 AI 서비스를 설계하는 것이다. 실제로 미국 비영리교육기관 칸아카데미의 AI 튜터 ‘칸미고’는 학생의 과제를 대신해주지 않는다. 칸미고는 학생에게 문제해결에 도움이 되는 질문을 던지고 힌트만 제공함으로써 학생이 비판적으로 사고하고 글쓰기 능력을 키울 수 있도록 설계돼 있다. 정답을 알려주는 것이 아니라 학생이 스스로 문제를 풀도록 유도하는 ‘소크라테스식’ AI 서비스인 셈이다. 학습용 AI가 학생들에게 온전한 답변을 제공하기보다 고민거리를 던져주는 방식으로 설계된다면 학생들은 AI를 사용하면서 사고력을 더욱 키울 수 있다. AI는 학생의 학습 데이터를 분석해 학생 스스로 역량을 개선할 수 있는 응용문제를 제시하고 자주 틀리는 문제에 대해서는 이를 잘 이해했는지 질문을 던질 수 있다.

    교육 기관은 AI 시대에 맞는 학습 윤리와 평가 정책을 새로 수립해야 한다. 학습 영역에서 AI 사용을 어디까지 허용할지, 어떤 행위가 부정행위인지 등 AI 사용 지침을 학생과 교사에게 명확히 공표할 필요가 있다. 학생을 평가하는 방식도 AI의 답을 그대로 베끼는 학생을 찾아낼 수 있게끔 바뀌어야 한다. 예를 들어 과제를 수업 시간에 손으로 직접 쓰게 하는 평가 방식을 늘릴 필요가 있다. 학생이 제출한 과제물이 학생의 AI 사용 역량이 뛰어난 결과인지, 학생이 가진 다른 역량 때문인지 판단할 수 있는 평가 방식을 도입하는 것도 중요하다. 구술 발표, 동료와 공동 프로젝트 수행, 교사와 질의응답 방식의 시험이 그 예다.

    학생들이 AI를 배척하는 것은 바람직하지 않다. AI를 올바르게 사용하는 학생이 AI 시대를 이끌 리더로 성장할 수 있다. 다만 AI에 지나치게 의존해서는 안 된다. AI를 활용하면서도 스스로 생각하는 힘을 잃지 않은 학생만이 모두가 AI를 사용해 똑같은 답을 내놓는 시대에 혁신을 만들어낼 수 있다.

    *유튜브와 포털에서 각각 ‘매거진동아’와 ‘투벤저스’를 검색해 팔로잉하시면 기사 외에도 동영상 등 다채로운 투자 정보를 만나보실 수 있습니다.

    • 많이 본 기사
    • 최신기사