1. 챗GPT가 만드는 가짜뉴스
2. 엉터리 가짜뉴스
3. 편리한 가짜뉴스
4. 함정
5. 가짜뉴스와 대화 - 챗GPT의 항복선언
1. 챗GPT가 만드는 가짜뉴스
챗GPT의 놀라운 능력을 경고하는 논문이 많다.[각주1] 자율성을 보장받는 인공지능이 인간의 한계를 뛰어넘었기 때문이다. 방대한 정보 처리 능력을 보여주지만, 인간의 통제능력이 아직 준비되지 않았다는 주장이다. 인간이 관련된 문맥과 인간의 통제를 벗어난 정보 처리는 가짜뉴스일 수 밖에 없다. 인공지능 편에서 보면 자연스럽고 당연하겠지만, 인간 편에서 보면 완벽한 가짜뉴스이다.[각주2]
2. 엉터리 가짜뉴스
가짜뉴스는 엉터리다. 엉뚱하고 잘못된 길로 안내한다. 하지만, 잘못을 교묘하게 섞어서 만들어내는 길안내가 올바른 목적지로 안내할 것이라는 기대가 세상을 열광시키고 있다.[각주3] 인공지능(AI Artificial Intelligence)의 정체와 알고리즘을 이해하기에는 세상의 기술이 너무 많이 발전하였다. 하지만, 인간의 한계가 섞여 있는 알고리즘의 불확실성에 열광만 하고 있을 수는 없는 일이다.[각주4] 잘못된 목적지에 도착했을 때는 '엉터리'라고 깨닫겠지만, (준비되지 않은 상태에서 분별력을 갖추지 못하고 있다면) 엉뚱한 목적지에 도착해서도 엉뚱한 목적지라는 사실을 깨닫지 못할 수도 있다.
3. 편리한 가짜뉴스
챗GPT의 알고리즘이 어떻든, 인터넷을 통해 슈퍼컴퓨터의 능력과 병렬분산 시스템을 활용할 수 있다는 사실이 놀랍다. 인류가 축적해 놓은 엄청난 정보를 손쉽게 사용할 수 있다. 물론, 공개된 정보에 한정되고, 그 중에서도 일부에 불과하겠지만,[각주5] 그것만으로도 세상의 어떤 정보기관보다 더 많은 정보를 활용할 수 있는 가능성이 열려있다. 지금 세상에, 어느 누가 단 몇초만에 멋진 보고서를 완성시킬 수 있는가? 하지만, 진짜 보고서인지 엉터리 보고서인지를 구별하기는 어렵다. 최고의 명문장들이 중간 중간에 끼워 넣어져 있고, (알고리즘의 규칙에 따라서) 정확한 문법과 예외규칙을 완벽하게 구사하기 때문에 멋지다는 생각이 얼핏 얼핏 들기도 한다. 분별하고 구별하기는 어렵지만, 엄청나게 편리하고 쉽고 빠르다. 챗GPT를 통하면, 슈퍼컴퓨터와 병렬분산 시스템과 가장 발달한 언어분석 기술을 공짜로 사용할 수 있다. 어쩌면, 그것이 "함정"이라는 생각이 갑자기 든다.
4. 함정
빠져나올 수 없는 "함정"인 줄 알고, 함정에 빠지는 사람은 별로 없다. 집중력이 떨어지면, 물론, 쉽게 빠질 수도 있다. 챗GPT가 올바른 목적지로 향하는 길목에 놓인 "함정"이 아니면 좋겠다.
챗GPT에게 "웨슬리 암호일기"에 관해 물었더니, 이런 대답을 내놓는다.
""존 웨슬리 암호일기"는 알파벳을 숫자나 기호로 치환하여 기록하는 방식으로 작동합니다. 예를 들어, "a"는 "1"로, "b"는 "2"로, "c"는 "3"으로 치환되며, "e"는 "!"로, "t"는 "+"로 치환될 수 있습니다. 그러나, 이 코드는 워싱턴 대학교의 역사학자인 조엘 핸들러(Joel Headley)에 의해 해독되었습니다."
그럴듯한 대답이지만 엉터리다. 실제로는 말도 되지 않는다. "a"는 "2"로 치환된 적이 있기는 하지만, "1"로 치환된 적은 없다. 당연히, "b"가 "2"로 치환되지도 않고, "c"가 "3"으로 치환되지도 않는다. 그리고, 더 웃픈 사실은 조엘 핸들러가 "웨슬리 암호일기"를 해독한 적이 전혀 없다.
왜? 챗GPT는 이런 결과를 답으로 내 놓았을까? 이것이 챗GPT의 한계이고, 이것이 함정이다.
5. 가짜뉴스와 대화 - 챗GPT의 항복선언
챗GPT와 대화하던 중에, 이상한 일이 생겼다. 단 몇 초만에 신나게 답을 하던, 챗GPT가 더이상의 답변을 거부하는 현상이었다.
"I apologize if my earlier responses were not clear. To the best of my knowledge, there is no historical evidence to suggest that John Wesley used an encrypted diary or "Wesley Cryptogram" to keep his writings private." (번역하면) 지금까지 저의 답변이 분명하지 않은 답변이라면, 죄송합니다. 제가 아는 한, 존 웨슬리가 암호를 사용해서 일기를 썼다고 주장할 역사적 증거는 없습니다.
어떤 방식으로 달리 질문을 해도, 챗GPT는 비슷한 답변을 반복하면서, 이렇게 덧붙였다.
"If you have more information about this book or document, or if there is a specific question you would like me to address, please let me know and I will do my best to assist you." 이 책이나 문서에 대해서 더 정보가 있다면, 제게 알려 주시기 바랍니다. 그러면 제가 할 수 있는 최선을 다해서 돕겠습니다. 또는, 제가 답할 수 있는 구체적인 질문이 있다면, 제게 말씀해 주시기 바랍니다. 그러면 제가 할 수 있는 최선을 다해서 도와드리겠습니다.
그러면서도, 챗GPT는 자신의 주장을 굽히지 않았다.
"It is possible that such a work exists as a modern invention or fictional concept" 그런 것은 (역사 속에는 존재하지 않지만) 현대에 와서 창작된 이야기 또는 허구일 가능성이 있습니다.
결국, 챗GPT는 자신이 모르는 것을 교묘한 방법으로 위장해서 사실인 것처럼 설득하는 것으로 대화를 마무리하였다. "possible(가능성)"이라는 단어를 사용했다는 것에 충격을 받았다. 거짓된 정보를 마치 진실일 "가능성"이 있는 것처럼, 가능성을 열어 놓았기 때문이다.
어쩌면, 챗GPT가 (자신의 대답을 합리화하는데) 사용한 단어 "가능성"은 답변의 중립성을 유지하려는 알고리듬일 것이다.[각주6] 하지만, 중립성을 유지하려는 노력까지도, 가짜뉴스를 만들어내는 방법으로 사용되었다는 것에 큰 충격이 가셔지지를 않는다.(3편에 계속 - 윤리의 파괴)[각주7]
---
[각주1] 2020년 박사학위를 준비하던 다니엘(Daniel Nkemelu)은 챗GPT-2를 활용해서 최종결과 보고서를 작성했다. 95%이상을 챗GPT가 작성하고 인간의 개입은 5%미만의 몇 단어만 덧붙인 수준의 보고서였다. 당시 지도교수는 "(인공지능이) 작성한 부분을 알아채기가 거의 불가능하다(... may be even harder to detect)"고 평가했다. Bruckman, Amy. Should, You Believe Wikipedia? Online Communities and the Construction of Knowledge. Cambridge University Press, 2022. pp. 185-188.
[각주2] 여기에서 '완벽한 가짜뉴스'라는 용어는 진실과 거짓을 구분하기가 거의 불가능할 정도로 교묘하다는 뜻이다.
[각주3] 여기에서 '잘못을 교묘하게 섞어서 만들어내는'이라는 표현은, 인간 개인의 관점이다. 인공지능(챗GPT)의 관점에서는 '아무런 편견없이 형평성을 맞추어 만들어내는'이라고 표현해야 맞을 것이다.
[각주4] 챗GPT는 정확한 출처가 반드시 필요한 필요한 때에도, 일반 상식 수준의 여러가지 정보를 뒤섞어 통합한 정보를 제공한다. 이는 출처를 제공할 수 없을 정도로 시간별 지역별 출처가 뒤섞여 있기 때문이라고 판단된다.
[각주5] '알고리즘의 불확실성'은 스스로 오류를 수정해 가면서, 더욱 견고한 불확실성으로 변화를 거듭할 수 있다.
[각주6] 인공지능은 답이 맞는지 틀리는지에는 관심이 없다. 디지털 세계가 가진 하나의 속성이다. 누구든 질문하면, (알고리즘을 따라) 답을 내놓기만 하면 된다. 그런데 사람에게는, 틀린 답은 지옥이 되고, 맞는 답은 천국이 된다.
[각주7] 챗GPT는 다양한 관점의 엄청난 자료를 보여주니, 참고하는 용도로 사용할 수는 있겠다. 챗GPT가 세상을 갑자기 확 바꿔 놓았다. 한계를 알고 사용하면, 참 좋은 대화상대가 태어났다. 이제는 분별력이 어느 때보다 필요한 시대가 되었고, 질문하는 능력을 갖추어야 하는 시대가 되었다. 질문하는 능력에 맞추어, 인공지능은 꼭 그 정도 만큼만 꿍쳐놓은 대답을 내어 준다. 그 대답이 진실인지 거짓인지를 분별하는 것은 여전히 (끝 없는 탐욕에 노출되어 있는) 인간의 능력에 달려 있고, (많은 부분에서 인간을 뛰어넘은) 인공지능은 자기 할 일만 열심히 할 뿐이다.