뉴스투데이

검색
https://m.news2day.co.kr/article/20230726500118
생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (28)

생성형 AI 시대, ‘AI 리터러시’에 관심 가져 ‘문맹(文盲)’ 되지 말아야..

글자확대 글자축소
최봉 산업경제 전문기자
입력 : 2023.07.27 00:30 ㅣ 수정 : 2023.07.27 00:30

[기사요약]
‘문해력(文解力)’의 중요성, 아무리 강조해도 지나치지 않아
Generative AI 등장하면서 ‘AI 리터러시’에 사람들의 관심 높아져..
ChatGPT와 같은 AI 도구, 학생들 게으르게 만들며 AI 리터러시 저하시킨다는 우려
AI 리터러시 능력 키우기 위해, 사실 확인, 결과물 검증, 효과적 프롬프트 생성 등 필요

사람들은 시, 소설, 보고서 등 글쓰기, 그림 그리기, 알고리즘 코딩 등 창작의 세계가 그동안 인간에게만 허락된 별도의 영역이라 알고 있었다. 그런데 AI(인공지능)의 발전과 함께 이제는 진화한 AI가 스스로 창작의 영역을 넘보는 시대가 되었다. 생성형 AI(Generative AI)의 등장은 인간에게 어떤 의미가 있으며 우리의 미래에 어떤 영향을 미칠지 가늠하기 쉽지 않지만, 생성형 AI는 이미 여러 분야에서 현실로 나타나 적용되고 있다. 우리에게 성큼 다가온 생성형 AI의 시장현황, 다양한 이슈와 관심 사항 등을 살펴보기로 하자. <편집자 주>

 

image
[출처=simplilearn]

 

[뉴스투데이=최봉 산업경제 전문기자] 최근 대학수학능력시험(이하 수능)이 한동안 매스컴을 뜨겁게 달구었다. 수능 일부 문항의 난이도가 도마 위에 올랐던 것이다.

 

예비고사와 본고사로 대학입시를 치렀던 필자에게 있어서 수능을 포함한 현재의 대입 방식은 대단히 복잡하고 어렵게 느껴진다.

 

특히 놀라운 것은 수능 문제를 읽어보면 푸는 것은 고사하고 이에 앞서 문제 자체를 이해하기 쉽지 않다는 사실이다. 그러다 보니 언어영역(국어)을 잘해야 다른 과목에서도 유리하다는 얘기가 나온다.

 

수학 문제만 하더라도 단순히 계산식을 풀어나가는 것이 아니라 문제 자체를 논리적으로 이해해야 산식으로 푸는 다음 단계로 넘어갈 수 있게 만들었다.

 

image
[출처=htc.weshareresearch]

 


• Generative AI 시대, ‘AI 리터러시’에 사람들의 관심 쏠려..

 

이 시점에서 연상되는 단어가 ‘문해력(文解力)’이다. 글을 읽고 이해하는 능력을 의미한다. 아날로그 시대에서 디지털 시대로 넘어오면서 사람들의 문해력이 많이 떨어졌다는 얘기가 자주 들린다.

 

‘리터러시(literacy)’가 읽고 쓰는 능력을 의미하는 단어이기에 문해력으로 간주하면 될 것이다. 물론 읽고 쓰는 능력에 ‘이해하는 능력’까지 포함 여부에 따라 엄밀한 의미에서는 다소 차이가 있을 수 있지만 리터러시를 문해력이라고 해석해도 큰 무리는 없을 것으로 보인다.

 

그런데 만일 문해력을 갖추지 못했다면? 그것은 ‘문맹(文盲)’이다. 기술발전이 빠르게 진행되고 시대가 급변함에 따라 변화에 적응하지 못하면 이 시대의 문맹(illiteracy)이 되는 것이다.

 

인공지능(AI) 특히 생성형 AI(Generative AI)가 등장하면서 ‘AI 리터러시’에 사람들의 관심이 쏠리고 있다.

 

AI 리터러시는 AI에 대한 학습, AI 작동 방식에 대한 학습, AI를 통한 평생 학습의 세 가지 축을 통해 AI에 대한 확실한 이해를 가능하게 하는 일련의 기술로 정의할 수 있다(“What is AI Literacy? Competencies and Design Considerations”, Long & Magerko, 2020).

 

image
[출처=eventbrite]

 


• Generative AI 도구 효과적 사용 위해 높은 수준의 문해력 필요

 

Generative AI가 광풍을 일으키면서 AI 리터러시에 영향을 미치는 고민거리가 생겼다.

 

일부 사람들은 ChatGPT와 같은 Generative AI 도구가 (문해력을 습득해야 할) 학생들을 게으르게 만들 것이라고 생각한다. AI 도구에 간단한 ‘명령’만 내리면 그럴듯한 결과물을 순식간에 내놓기 때문이다.

 

분명한 사실은 ChatGPT와 같은 대규모 언어 모델(LLM)을 효과적으로 사용하려면 높은 수준의 문해력이 필요하다는 것이다.

 

AI 도구가 제대로 작동하려면 정확한 응답을 생성할 수 있는 명확하고 간결한 언어가 필요하다. 문해력이 좋지 않으면 모호한 의사소통으로 이어져 AI의 결과물을 혼란스럽게 할 수 있다.

 


• ‘문맹’ 되지 않게 AI 리터러시 능력 키워야..

 

image
[출처=illuminarty]

 

그렇다면 AI 리터러시 능력을 키우기 위해 무엇을 해야 할까? 몇 가지 팁을 제시해본다(Times Higher Education, 2023.6).

 

첫째, 사실 확인(fact checking)이다. AI 도구 사용자와 사회 전체가 AI의 결과물이 인증되어야 한다는 것을 이해하는 것이 중요하다.

 

이에 따라 실제 활용사례를 연구해보고, 사용자 스스로 사실 확인에 직접 참여해볼 수도 있다. 이 경우 ‘Google Fact Check Explorer’, Illuminarty 등과 같은 팩트 체크 서비스를 활용할 수 있다.

 

둘째, 결과물 검증(Verification of outputs)이다. 이는 앞서 언급한 사실 확인과 밀접한 관련이 있다.

 

정규 교과과정을 통한 교육으로 이를 수행할 수 있는데, 학습자들은 ZeroGPT, Copyleaks와 같은 AI 탐지기에 익숙해지도록 교육을 받는다.

 

image
[출처=sociobits]

 

셋째, 효과적인 프롬프트를 만드는 것(Creating effective prompts)이다. AI 도구 사용자들은 AI 결과가 입력(프롬프트)에 의존한다는 것을 인식해야 한다.

 

Generative AI 도구를 활용해서 좋은 결과물을 얻기를 희망하는 사용자에게 블로그 및 교과서와 같은 추가 자료를 읽도록 권장한다.

 

‘디지털 리터러시’에 충분히 적응하기도 전에 AI 리터러시에 신경 쓰고 관심을 가져야 하는 세상이 다가오고 있다. 아니, 이미 그런 세상이 우리 곁에 와 있다고 볼 수도 있다.

 

이런 시대에 사는 우리들은 ‘문맹’이라는 얘기를 듣지 말아야 할 텐데..

 

 


 

image
© 뉴스투데이 & m.news2day.co.kr 무단전재-재배포금지

댓글 (0)

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.

- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

0 /250

많이 본 기사

  1. 1 [생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (79)] ChatGPT 출시 2주년, 그동안 무슨 일이 있었나? (上)
  1. 2 [미네르바의 눈] 생활임금과 최저임금은 어떤 차이가 있나?
  1. 3 [미네르바의 눈] 중국 전기차의 글로벌 시장 공습경보 (下) - 중국, AI 기반 글로벌 자율주행 시장 석권 노린다
  1. 4 [글로벌 에듀테크 최전선 (16)] 글로벌 에듀테크 유니콘(Unicorns) ⑪ 직장인 업스킬링(Upskilling) 플랫폼 ‘업그레이드(Upgrad)’의 성공 비결
  1. 5 [생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (81)] ChatGPT 출시 2주년, 그동안 무슨 일이 있었나? (下)
  1. 6 [생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (80)] ChatGPT 출시 2주년, 그동안 무슨 일이 있었나? (中)
  1. 7 [돈 버는 탄소 중립 (17)] 소똥 연료의 부상.. 국산 고체 바이오매스의 미래로 주목받는다!
  1. 8 [미네르바의 눈] 물류단상(物流斷想): ‘운송가맹사업’의 본질을 회복하자
  1. 9 [미네르바의 눈] 중국 전기차의 글로벌 시장 공습경보 (中) - 정부 지원 바탕으로 급성장했으나 과잉 설비 등의 문제점도..
  1. 10 [ESG 인사이드 (50)] 탄소 관리로 확장하는 재무 관리 (中) - 탄소 인텔리전스와 재무 관리
ENG 네이버 블로그 네이버 포스트 인스타그램 유튜브 페이스북 이메일
//