본문 바로가기
IT 탐구생활

ChatGPT의 허점들을 이용한 차별화된 글쓰기 법칙

by Data Lib 2023. 12. 24.

인공지능은 앞으로 인간을 대체할 것이라고 합니다. 마치 인간과 똑같아질 거로 이해하는 사람들이 많죠. 그렇다면 정말 재앙일 것이데 말이죠. 이 게시물은 지금의 ChatGPT의 허점들에 대한 이야기입니다. 내가 말하는 허점들을 보고 그런 것도 미래에는 다 보완될 건데? 인간을 뛰어넘을 텐데? 이렇게 말할 수도 있습니다. 만약 그런 사람은 그냥 '뒤로가기'를 하셔도 좋습니다.

하지만 현재 ChatGPT의 약점을 알면 우리는 현시점에서 차별화된 작업을 할 수 있습니다. 나는 과거도 미래도 아닌 현재가 중요하다고 생각하는 사람입니다. 미래에 보완될거라고 지금의 기회를 놓칠 수는 없으니까요. 그러면 어떤 허점들이 있는지 살펴보도록 하겠습니다. 
 

 

첫째, 공감능력의 한계

ChatGPT는 입력된 문장에서 감정을 이해하는 능력이 제한적입니다. 따라서 감정적인 상황에서 적절한 단어나 대화가 어렵다고 할 수 있죠. 글의 감정 인식 및 이해의 한계가 있기 때문에 감성적인 말을 했을 때 자연스러운 대화를 하지 못합니다. 글쓰기 측면에서는 공감하는 글이 아니라 정보전달성 글을 작성하는데 적합합니다. 그래서 차별화된 글쓰기를 하려면 자신의 감정이 들어간 글을 써야 합니다. ChatGPT는 쓸 수 없는 더 좋은 글이 만들어지죠. 단순히 원리나 법칙을 설명하는 글은 ChatGPT도 잘 쓴다는 걸 명심하세요.
 

ChatGPT의 허점들
ChatGPT의 허점들

 

둘째, 경험과 사례가 없다

ChatGPT가 작성한 문장은 경험과 사례가 없습니다. 이유는 간단합니다. 언어모델의 특성으로 어떤 개인의 특정 사례에 집중하지 않고 일반화하게 됩니다. 그래서 마이너한 사례보다는 일반적인 상식적인 경험만을 기반으로 글을 쓰게 됩니다. 작성된 문장을 보면 개인적인 사례가 없기 때문에 재미적인 요소가 떨어집니다. 그런 면에서 자신의 개인적인 사례를 넣어 작성하는 게 더 좋은 글을 쓸 수 있는 방법입니다. 


셋째, 최신성의 한계

ChatGPT는 학습 데이터에서 얻은 정보를 기반으로 작동합니다. 학습 데이터가 거대하기 때문에 매일 학습할 수가 없습니다. 이건 당분간은 그럴겁니다. 이것 때문에 가끔 특정 주제에 대해 정확한 정보를 제공하지 못합니다. 특히 최근에 발생한 이벤트의 경우 업데이트되지 않은 정보 때문에 학습 데이터의 편향이 발생합니다. 이로 인해 모델의 정확성과 신뢰성에 한계가 있을 수밖에 없습니다. 차별화된 글을 작성하기 위해서는 최근에 일어난 사건이나 이벤트에 대한 글을 작성하면 됩니다. 
 

 

결론

751만 구독자를 가진 ‘조던 피터슨’ 하버드 교수는 ChatGPT가 나왔을 때 극찬을 했습니다. 그 정도로 인공지능이 위협적인 존재라는 것은 말할것 없죠. 하지만 여전히 몇 가진 허점들은 가지고 있습니다. 인간이 인공지능의 허점들을 알고 있다면 더 나은 글쓰기나 결과물을 만들어 낼 수 있죠. 그 결과로 인공지능을 더 잘 이용할 수 있게 될 겁니다.

물론 인간들은 지속적인 연구를 통해 허점들을 보완하는 모델을 만들어 낼 겁니다. 사용자와의 끊임없는 상호작용(feedback)을 통해 자연스러운 문장을 흉내 내겠죠. 그러나 언제나 허점과 보완해야 할 것들은 있습니다. 인간도 그렇게 발전해 왔으니까요. 결국 대책 없이 인공지능에게 밀려 일자리를 잃느냐, 아니면 인공지능과 다른 강점으로 차별화된 인간이 되느냐는 여러분의 선택입니다.