Sunday, 12 February 2023

[방법쟁이-2023AI] 챗GPT의 한계(1)

1. 챗GPT와 대화하다가, 몇가지 한계를 발견하여 기록으로 남깁니다. 

1. 오늘 현재, 챗GPT의 지식은 2021년 9월에 멈추어 있습니다.
2. 18세기의 지식을 다루기에는 많은 한계가 있습니다. - 챗GPT는 모르는 것이 너무 많습니다.
3. 사람 두뇌의 시냅스는 100조에서 1000조라는데,[각주1] 챗GPT의 파라미터는 175억에 불과합니다.

2. 챗GPT 스스로 인정하는 인공지능으로서 자신의 한계는 다음과 같습니다.[각주2] 

언어 모델로서 ChatGPT에는 몇 가지 제한 사항이 있습니다. 몇 가지 주요 제한 사항은 다음과 같습니다. 스스로 인정하는 한계도 일반적으로 인정하는 한계이며, 질문 방법과 질문 시점에 따라서 다른 답을 내놓기도 합니다.(문맥에 맞추어 몇가지 단어는 첨삭하였습니다)

1. 상식 부족: ChatGPT에는 실제 경험이나 상식이 없기 때문에 때때로 무의미하거나 관련 없는 응답으로 이어질 수 있습니다.

2. 편향: 다른 기계 학습 모델과 마찬가지로 ChatGPT는 편향된 답을 할 수 있고, 응답할 때에도, 편향성을 지속할 수 있는 가능성이 있습니다. 편향성을 내포하고 있는 대규모 텍스트 환경에서 훈련되기 때문입니다. 
3. 제한된 지식: ChatGPT는 방대한 양의 정보에 액세스할 수 있지만, 지식은 훈련된 내용으로 제한되며, 동시에, 현재 이벤트에 대한 최신 정보가 없을 수 있습니다.
4. 복잡한 작업 처리 불가: ChatGPT는 언어 번역, 질문 답변, 텍스트 생성과 같은 다양한 작업을 수행할 수 있지만 추론, 의사 결정 또는 비판적 사고가 필요한 보다 복잡한 작업에는 적합하지 않을 수 있습니다.
5. 감성 지능 부족: ChatGPT는 인간과 같은 방식으로 감정을 이해하거나 표현할 수 없기 때문에 상황에 따라 부적절하거나 둔감한 반응을 보일 수 있습니다.

ChatGPT 또는 다른 AI 시스템과 상호 작용할 때 이러한 제한 사항을 염두에 두고 중요한 결정을 내릴 때 응답에만 의존하지 않는 것이 중요합니다.

3. 챗GPT의 한계를 극복하는 방법

챗GPT를 통해서, 좋은 결과와 답을 찾으려면, (1) 좋은 질문을 여러번 계속하고, (2) 다양한 관점에서 결과와 답을 평가하는 통찰력분별력[각주3]이 필요하다는 생각이 듭니다.(2편에 계속 - 가짜뉴스)

---
[각주1] 참고로, 고재원 교수는 시냅스의 갯수를 "조" 단위를 넘어서 "경(10의 16승)" 단위로 계산하기도 한다. https://www.ksmcb.or.kr/file/bio_2013/lectures/profile_04.pdf (2023년 2월 접속)
[각주2] "현재 인공지능은 인공지능이 아니다" 라고 주장하는 학자도 있습니다. 참고, Pinker, Steven. Rationality: What It Is, Why It Seems Scarce, Why It Matters. United Kingdom, Penguin Books Limited, 2021.
[각주3] 헨리 나우웬의 <분별력(Discernment)>은 관련된 주제 토론을 하기 전에 입문서로 읽으면 도움이 될 만한 책이다. 연결된 링크에서 무료로 읽을 수 있다. Nouwen, Henri J. M. Discernment : Reading the Signs of Daily Life. New York, NY : HarperOne, 2013. Internet Archive, http://archive.org/details/discernmentreadi0000nouw. (2023년 2월 접속)

   

No comments:

Post a Comment