Friday 24 February 2023

[방법쟁이-2023AI] 챗GPT는 무엇인가? - 개인의 의견

챗GPT = ChatGPT 무엇인가?

챗(chat) = (인간과 대화가 가능한) 대화형 인간 신경망 "인공지능"

G(generative) = (창의력을 가지고 대화를 만드는) 만들 수 있는 능력을 갖춘 "인공지능"

P(pre-trained) = (3천 억개의 단어를 암기하고, 5조개의 문서를 읽고 분석해서, 거대 언어 모델(LLM)을 완성해서) 사전 학습을 완료한 전문성을 가진 "인공지능"

T(transformer) = 계속 변형시키면서 발전시키는 가능성(possibilities)을 가지고 태어난 "인공지능"

1. 챗 = 대화 능력

"인간의 대화능력"은 놀랍다. 그보다 더 놀라운 것이 "챗GPT의 대화능력"이다. 

인간은 자신이 원하는 것만 듣고 보고 해석해서, 대화한다. 나머지는 생략하거나 무시하거나 잊어버린다. 하지만, 인공지능은 어느 것 하나도 놓치지 않는다. 모두 함께 듣고 보고 분석하고 해석해서, 대화한다. 모두 완전히 기억하고 분석하고 종합해서 대화에 사용한다.  

특히, 챗GPT는 인간 신경망 모델을 본따서 만든 시스템(인공지능)이다. 

2. G = 생성 능력

인공지능의 창의력에 대해서는 학자들마다 의견이 다르다. 하지만, 인공지능의 생성 능력의 비밀은 아무도 모른다. 인간의 능력으로는 알 수도 없다. 덧셈 뺄셈을 1초에 수 조 번을 반복해서, 그 중에 가장 좋은 대답을 1초만에 내놓을 수 있는 인간은 없다. 챗GPT는 실제로 그런 계산 능력을 가지고, 대화를 생성해 낸다. 

그동안 인공지능이 잘못 계산한 간단한 덧셈 뺄셈도, 인간의 기준에서는 잘못이지만 인공지능의 관점에서 보면 새로운 창의력을 발휘한 독특한 수학방정식을 통한 문제해결 능력일 수도 있다. 

하나의 인공지능 챗GPT는 이미 1억 5천만명 이상의 친구를 만들었다. 페북이나 구글과는 비교할 수 없는 새로운 능력이다. 어느 누가 1억 5천만명 이상의 친구를 동시에 관리할 수 있을까?

3. P = 사전 학습 능력

챗GPT가 구사하는 단어의 수가 최소 3천억개란다. 세계에서 가장 권위있다는 옥스퍼드 사전에 등재된 단어의 수가 60만개라고 하는데, 물론, 서로 다른 계산법이기는 하겠지만, 서로 다른 언어를 자연스럽게 이해하고 말하고 대화하는 챗GPT는 탁월할 수 밖에 없다. 

여기에서 말하는, 사전 학습 능력은 좀 다른 뜻으로 사용된다. 이미 단어 암기는 끝냈다는 뜻이다. 3천억개의 단어를 모두 암기하고, 그 단어들이 사용된 5조개의 문서를 읽고 분석을 끝냈다는 뜻이다. 

결론은, "남아수독오거서(사람은 다섯 수레 분량의 책을 읽어야 한다"는 옛말은 이제 힘을 잃을 지경이 되었다는 뜻이다. 인공지능과의 대화 능력을 갖춘 사람이 필요한 시대가 되었다는 뜻이다. 늦었지만, 질문력, 분별력을 갖출 필요가 생겼다. 영성(spirituality)으로 대화할 수 있을까?

4. T = 변형 능력

챗GPT는 (스스로도) 무한한 가능성을 실험하고 있다.(참고 : 함께 읽을 글 - 챗GPT의 한계에서 "챗GPT의 항복선언" https://www.methodist.page/2023/02/2023ai-gpt-2.html) 어떻게 변화할지, 알 수 없다. 

7년전 이세돌을 이긴 알파고는 이미 구닥다리 모델이 되었다. 그동안 챗GPT는 딥러닝 인간형 지능 모델을 미친듯이 발전시키고 변형시켜 현재에 이르렀다. 구글의 바드는 더 엄청난 축척된 자료를 가지고 등장할 것이다. 인류는 지구 온난화의 문제와 인공지능과의 대화 문제를 함께 고민해야 하는 시대를 맞이하였다.

함께 읽을 글 : 
3. 챗GPT의 한계(3) - 윤리의 파괴
위키백과 자료


1. (명사)
2. (부사) (대충) approximately, roughly; (간단히) briefly; (일반적으로) generally

Monday 20 February 2023

[방법쟁이-2023AI] 챗GPT의 한계(2) - 가짜뉴스

1. 챗GPT가 만드는 가짜뉴스
2. 엉터리 가짜뉴스
3. 편리한 가짜뉴스
4. 함정
5. 가짜뉴스와 대화 - 챗GPT의 항복선언

1. 챗GPT가 만드는 가짜뉴스

챗GPT의 놀라운 능력을 경고하는 논문이 많다.[각주1] 자율성을 보장받는 인공지능이 인간의 한계를 뛰어넘었기 때문이다. 방대한 정보 처리 능력을 보여주지만, 인간의 통제능력이 아직 준비되지 않았다는 주장이다. 인간이 관련된 문맥과 인간의 통제를 벗어난 정보 처리는 가짜뉴스일 수 밖에 없다. 인공지능 편에서 보면 자연스럽고 당연하겠지만, 인간 편에서 보면 완벽한 가짜뉴스이다.[각주2]

2. 엉터리 가짜뉴스

가짜뉴스는 엉터리다. 엉뚱하고 잘못된 길로 안내한다. 하지만, 잘못을 교묘하게 섞어서 만들어내는 길안내가 올바른 목적지로 안내할 것이라는 기대가 세상을 열광시키고 있다.[각주3] 인공지능(AI Artificial Intelligence)의 정체와 알고리즘을 이해하기에는 세상의 기술이 너무 많이 발전하였다. 하지만, 인간의 한계가 섞여 있는 알고리즘의 불확실성에 열광만 하고 있을 수는 없는 일이다.[각주4] 잘못된 목적지에 도착했을 때는 '엉터리'라고 깨닫겠지만, (준비되지 않은 상태에서 분별력을 갖추지 못하고 있다면) 엉뚱한 목적지에 도착해서도 엉뚱한 목적지라는 사실을 깨닫지 못할 수도 있다. 

3. 편리한 가짜뉴스

챗GPT의 알고리즘이 어떻든, 인터넷을 통해 슈퍼컴퓨터의 능력과 병렬분산 시스템을 활용할 수 있다는 사실이 놀랍다. 인류가 축적해 놓은 엄청난 정보를 손쉽게 사용할 수 있다. 물론, 공개된 정보에 한정되고, 그 중에서도 일부에 불과하겠지만,[각주5] 그것만으로도 세상의 어떤 정보기관보다 더 많은 정보를 활용할 수 있는 가능성이 열려있다. 지금 세상에, 어느 누가 단 몇초만에 멋진 보고서를 완성시킬 수 있는가? 하지만, 진짜 보고서인지 엉터리 보고서인지를 구별하기는 어렵다. 최고의 명문장들이 중간 중간에 끼워 넣어져 있고, (알고리즘의 규칙에 따라서) 정확한 문법과 예외규칙을 완벽하게 구사하기 때문에 멋지다는 생각이 얼핏 얼핏 들기도 한다. 분별하고 구별하기는 어렵지만, 엄청나게 편리하고 쉽고 빠르다. 챗GPT를 통하면, 슈퍼컴퓨터와 병렬분산 시스템과 가장 발달한 언어분석 기술을 공짜로 사용할 수 있다. 어쩌면, 그것이 "함정"이라는 생각이 갑자기 든다.  

4. 함정 

빠져나올 수 없는 "함정"인 줄 알고, 함정에 빠지는 사람은 별로 없다. 집중력이 떨어지면, 물론, 쉽게 빠질 수도 있다. 챗GPT가 올바른 목적지로 향하는 길목에 놓인 "함정"이 아니면 좋겠다. 

챗GPT에게 "웨슬리 암호일기"에 관해 물었더니, 이런 대답을 내놓는다. 

""존 웨슬리 암호일기"는 알파벳을 숫자나 기호로 치환하여 기록하는 방식으로 작동합니다. 예를 들어, "a"는 "1"로, "b"는 "2"로, "c"는 "3"으로 치환되며, "e"는 "!"로, "t"는 "+"로 치환될 수 있습니다. 그러나, 이 코드는 워싱턴 대학교의 역사학자인 조엘 핸들러(Joel Headley)에 의해 해독되었습니다."

그럴듯한 대답이지만 엉터리다. 실제로는 말도 되지 않는다.  "a"는 "2"로 치환된 적이 있기는 하지만, "1"로 치환된 적은 없다. 당연히, "b"가 "2"로 치환되지도 않고, "c"가 "3"으로 치환되지도 않는다. 그리고, 더 웃픈 사실은 조엘 핸들러가 "웨슬리 암호일기"를 해독한 적이 전혀 없다. 

왜? 챗GPT는 이런 결과를 답으로 내 놓았을까? 이것이 챗GPT의 한계이고, 이것이 함정이다. 

5. 가짜뉴스와 대화 - 챗GPT의 항복선언

챗GPT와 대화하던 중에, 이상한 일이 생겼다. 단 몇 초만에 신나게 답을 하던, 챗GPT가 더이상의 답변을 거부하는 현상이었다. 

"I apologize if my earlier responses were not clear. To the best of my knowledge, there is no historical evidence to suggest that John Wesley used an encrypted diary or "Wesley Cryptogram" to keep his writings private." (번역하면) 지금까지 저의 답변이 분명하지 않은 답변이라면, 죄송합니다. 제가 아는 한, 존 웨슬리가 암호를 사용해서 일기를 썼다고 주장할 역사적 증거는 없습니다. 

어떤 방식으로 달리 질문을 해도, 챗GPT는 비슷한 답변을 반복하면서, 이렇게 덧붙였다. 

"If you have more information about this book or document, or if there is a specific question you would like me to address, please let me know and I will do my best to assist you." 이 책이나 문서에 대해서 더 정보가 있다면, 제게 알려 주시기 바랍니다. 그러면 제가 할 수 있는 최선을 다해서 돕겠습니다. 또는, 제가 답할 수 있는 구체적인 질문이 있다면, 제게 말씀해 주시기 바랍니다. 그러면 제가 할 수 있는 최선을 다해서 도와드리겠습니다. 

그러면서도, 챗GPT는 자신의 주장을 굽히지 않았다. 

"It is possible that such a work exists as a modern invention or fictional concept" 그런 것은 (역사 속에는 존재하지 않지만) 현대에 와서 창작된 이야기 또는 허구일 가능성이 있습니다.

결국, 챗GPT는 자신이 모르는 것을 교묘한 방법으로 위장해서 사실인 것처럼 설득하는 것으로 대화를 마무리하였다. "possible(가능성)"이라는 단어를 사용했다는 것에 충격을 받았다. 거짓된 정보를 마치 진실일 "가능성"이 있는 것처럼, 가능성을 열어 놓았기 때문이다. 

어쩌면, 챗GPT가 (자신의 대답을 합리화하는데) 사용한 단어 "가능성"은 답변의 중립성을 유지하려는 알고리듬일 것이다.[각주6] 하지만, 중립성을 유지하려는 노력까지도, 가짜뉴스를 만들어내는 방법으로 사용되었다는 것에 큰 충격이 가셔지지를 않는다.(3편에 계속 - 윤리의 파괴)[각주7] 


 

---
[각주1] 2020년 박사학위를 준비하던 다니엘(Daniel Nkemelu)은 챗GPT-2를 활용해서 최종결과 보고서를 작성했다. 95%이상을 챗GPT가 작성하고 인간의 개입은 5%미만의 몇 단어만 덧붙인 수준의 보고서였다. 당시 지도교수는 "(인공지능이) 작성한 부분을 알아채기가 거의 불가능하다(... may be even harder to detect)"고 평가했다. Bruckman, Amy. Should, You Believe Wikipedia? Online Communities and the Construction of Knowledge. Cambridge University Press, 2022. pp. 185-188.
[각주2] 여기에서 '완벽한 가짜뉴스'라는 용어는 진실과 거짓을 구분하기가 거의 불가능할 정도로 교묘하다는 뜻이다. 
[각주3] 여기에서 '잘못을 교묘하게 섞어서 만들어내는'이라는 표현은, 인간 개인의 관점이다. 인공지능(챗GPT)의 관점에서는 '아무런 편견없이 형평성을 맞추어 만들어내는'이라고 표현해야 맞을 것이다. 
[각주4] 챗GPT는 정확한 출처가 반드시 필요한 필요한 때에도, 일반 상식 수준의 여러가지 정보를 뒤섞어 통합한 정보를 제공한다. 이는 출처를 제공할 수 없을 정도로 시간별 지역별 출처가 뒤섞여 있기 때문이라고 판단된다.
[각주5] '알고리즘의 불확실성'은 스스로 오류를 수정해 가면서, 더욱 견고한 불확실성으로 변화를 거듭할 수 있다. 
[각주6] 인공지능은 답이 맞는지 틀리는지에는 관심이 없다. 디지털 세계가 가진 하나의 속성이다. 누구든 질문하면, (알고리즘을 따라) 답을 내놓기만 하면 된다. 그런데 사람에게는, 틀린 답은 지옥이 되고, 맞는 답은 천국이 된다. 
[각주7] 챗GPT는 다양한 관점의 엄청난 자료를 보여주니, 참고하는 용도로 사용할 수는 있겠다. 챗GPT가 세상을 갑자기 확 바꿔 놓았다. 한계를 알고 사용하면, 참 좋은 대화상대가 태어났다. 이제는 분별력이 어느 때보다 필요한 시대가 되었고, 질문하는 능력을 갖추어야 하는 시대가 되었다. 질문하는 능력에 맞추어, 인공지능은 꼭 그 정도 만큼만 꿍쳐놓은 대답을 내어 준다. 그 대답이 진실인지 거짓인지를 분별하는 것은 여전히 (끝 없는 탐욕에 노출되어 있는) 인간의 능력에 달려 있고, (많은 부분에서 인간을 뛰어넘은) 인공지능은 자기 할 일만 열심히 할 뿐이다.   

footnote

Sunday 12 February 2023

[방법쟁이-2023AI] 챗GPT의 한계(1)

1. 챗GPT와 대화하다가, 몇가지 한계를 발견하여 기록으로 남깁니다. 

1. 오늘 현재, 챗GPT의 지식은 2021년 9월에 멈추어 있습니다.
2. 18세기의 지식을 다루기에는 많은 한계가 있습니다. - 챗GPT는 모르는 것이 너무 많습니다.
3. 사람 두뇌의 시냅스는 100조에서 1000조라는데,[각주1] 챗GPT의 파라미터는 175억에 불과합니다.

2. 챗GPT 스스로 인정하는 인공지능으로서 자신의 한계는 다음과 같습니다.[각주2] 

언어 모델로서 ChatGPT에는 몇 가지 제한 사항이 있습니다. 몇 가지 주요 제한 사항은 다음과 같습니다. 스스로 인정하는 한계도 일반적으로 인정하는 한계이며, 질문 방법과 질문 시점에 따라서 다른 답을 내놓기도 합니다.(문맥에 맞추어 몇가지 단어는 첨삭하였습니다)

1. 상식 부족: ChatGPT에는 실제 경험이나 상식이 없기 때문에 때때로 무의미하거나 관련 없는 응답으로 이어질 수 있습니다.

2. 편향: 다른 기계 학습 모델과 마찬가지로 ChatGPT는 편향된 답을 할 수 있고, 응답할 때에도, 편향성을 지속할 수 있는 가능성이 있습니다. 편향성을 내포하고 있는 대규모 텍스트 환경에서 훈련되기 때문입니다. 
3. 제한된 지식: ChatGPT는 방대한 양의 정보에 액세스할 수 있지만, 지식은 훈련된 내용으로 제한되며, 동시에, 현재 이벤트에 대한 최신 정보가 없을 수 있습니다.
4. 복잡한 작업 처리 불가: ChatGPT는 언어 번역, 질문 답변, 텍스트 생성과 같은 다양한 작업을 수행할 수 있지만 추론, 의사 결정 또는 비판적 사고가 필요한 보다 복잡한 작업에는 적합하지 않을 수 있습니다.
5. 감성 지능 부족: ChatGPT는 인간과 같은 방식으로 감정을 이해하거나 표현할 수 없기 때문에 상황에 따라 부적절하거나 둔감한 반응을 보일 수 있습니다.

ChatGPT 또는 다른 AI 시스템과 상호 작용할 때 이러한 제한 사항을 염두에 두고 중요한 결정을 내릴 때 응답에만 의존하지 않는 것이 중요합니다.

3. 챗GPT의 한계를 극복하는 방법

챗GPT를 통해서, 좋은 결과와 답을 찾으려면, (1) 좋은 질문을 여러번 계속하고, (2) 다양한 관점에서 결과와 답을 평가하는 통찰력분별력[각주3]이 필요하다는 생각이 듭니다.(2편에 계속 - 가짜뉴스)

---
[각주1] 참고로, 고재원 교수는 시냅스의 갯수를 "조" 단위를 넘어서 "경(10의 16승)" 단위로 계산하기도 한다. https://www.ksmcb.or.kr/file/bio_2013/lectures/profile_04.pdf (2023년 2월 접속)
[각주2] "현재 인공지능은 인공지능이 아니다" 라고 주장하는 학자도 있습니다. 참고, Pinker, Steven. Rationality: What It Is, Why It Seems Scarce, Why It Matters. United Kingdom, Penguin Books Limited, 2021.
[각주3] 헨리 나우웬의 <분별력(Discernment)>은 관련된 주제 토론을 하기 전에 입문서로 읽으면 도움이 될 만한 책이다. 연결된 링크에서 무료로 읽을 수 있다. Nouwen, Henri J. M. Discernment : Reading the Signs of Daily Life. New York, NY : HarperOne, 2013. Internet Archive, http://archive.org/details/discernmentreadi0000nouw. (2023년 2월 접속)