1. 챗GPT와 대화하다가, 몇가지 한계를 발견하여 기록으로 남깁니다.
1. 오늘 현재, 챗GPT의 지식은 2021년 9월에 멈추어 있습니다.
2. 18세기의 지식을 다루기에는 많은 한계가 있습니다. - 챗GPT는 모르는 것이 너무 많습니다.
3. 사람 두뇌의 시냅스는 100조에서 1000조라는데,[각주1] 챗GPT의 파라미터는 175억에 불과합니다.
2. 챗GPT 스스로 인정하는 인공지능으로서 자신의 한계는 다음과 같습니다.[각주2]
언어 모델로서 ChatGPT에는 몇 가지 제한 사항이 있습니다. 몇 가지 주요 제한 사항은 다음과 같습니다. 스스로 인정하는 한계도 일반적으로 인정하는 한계이며, 질문 방법과 질문 시점에 따라서 다른 답을 내놓기도 합니다.(문맥에 맞추어 몇가지 단어는 첨삭하였습니다)
1. 상식 부족: ChatGPT에는 실제 경험이나 상식이 없기 때문에 때때로 무의미하거나 관련 없는 응답으로 이어질 수 있습니다.
2. 편향: 다른 기계 학습 모델과 마찬가지로 ChatGPT는 편향된 답을 할 수 있고, 응답할 때에도, 편향성을 지속할 수 있는 가능성이 있습니다. 편향성을 내포하고 있는 대규모 텍스트 환경에서 훈련되기 때문입니다.
3. 제한된 지식: ChatGPT는 방대한 양의 정보에 액세스할 수 있지만, 지식은 훈련된 내용으로 제한되며, 동시에, 현재 이벤트에 대한 최신 정보가 없을 수 있습니다.
4. 복잡한 작업 처리 불가: ChatGPT는 언어 번역, 질문 답변, 텍스트 생성과 같은 다양한 작업을 수행할 수 있지만 추론, 의사 결정 또는 비판적 사고가 필요한 보다 복잡한 작업에는 적합하지 않을 수 있습니다.
5. 감성 지능 부족: ChatGPT는 인간과 같은 방식으로 감정을 이해하거나 표현할 수 없기 때문에 상황에 따라 부적절하거나 둔감한 반응을 보일 수 있습니다.
ChatGPT 또는 다른 AI 시스템과 상호 작용할 때 이러한 제한 사항을 염두에 두고 중요한 결정을 내릴 때 응답에만 의존하지 않는 것이 중요합니다.
No comments:
Post a Comment