Monday 10 July 2023

GPT4 - 아차 실수 인공지능

인공지능의 편리함을 뿌리치는 건, 텃밭을 일구어 기후변화를 멈추려는 것과 같다는 생각이 든다. 편리함이 주는 유혹을 뿌리치고 살아가기는 너무나 어렵고, 문제를 해결할 수 있다는 희망은 너무나 가볍고 순진하다. 작은 텃밭 하나로 기후변화를 멈출 수 없는 것과 마찬가지라는 생각을 떨쳐낼 수가 없다. 그래도, 희망의 불꽃은 영원하다. 하나님께서 주신 하나님의 형상이 남아있고, 하나님께서 주신 아주 특별한 자기만의 달란트가 남아있고, 무엇으로도 대체할 수 없는 십자가 사랑이 남아있다. 

이제, 지혜롭게 대처하기 보다는, 매 순간 나의 선택과 삶의 방향을 하나님의 뜻에 맞추는 더 치열한 기도가 필요한 시대가 되었다. 인공지능 대응한다는 반창고 붙이기 식의 대처 방법이 필요한 시대가 아니라. 우리 삶의 방향이 하나님의 뜻을 향하도록, 완전히 바로잡아야 하는 엄중한 시대가 되었다. 

체르노빌과 후쿠시마 원전 사고는, 인간의 "아차 실수"가 가져온 "나비효과"를 보여준다. 인간이 통제할 수 없는 거대 에너지를 인간이 통제할 수 있다고 자만하는 그 순간이 "아차 실수"였다. 21세기의 인공지능은, 원자력 재난 상황보다 더 심각하고, 기후변화보다 더 빠르고 광범위한 충격으로 나타날 조짐을 보이고 있다. 인공지능을 설계하면서 또는 사용하면서 수 없이 반복될 깃털보다 가벼운 "아차 실수"를 되돌이킬 기회가 인류에게 있을까? 체르노빌과 후쿠시마 재난에는 그럴 기회가 없었고, 또한, 원전 사고의 여파는 여전히 현재 진행형이다.

재난의 여파로 계속되는 오염수 방류 문제는, "아차 실수"의 나비효과가 해결할 수 없는 더 큰 문제로 계속 확대될 것을 예고하고 있다.    

인공지능은 "아차 실수"에서 자유로울까? 거대언어모델(LLM)을 사용하는 방식은, 인간이 이해할 수 없는 수 억 또는 수 조 단위로 구성된 매개변수(Parameter, Variable)를 통해서 일어난다. 답을 찾아내는 과정은 비공개 비밀이고, 그 비밀이 공개된다 하더라도 어떤 누구라도 그 과정을 이해할 수는 없다. 

거대언어모델 자체가 이해할 수 없는 문서로 가득하다. 거기에 더해서, 그 속의 언어를 재구성(Transformer)해서 답을 만들어(Generating)내는 과정, 그리고, 그 과정을 통제(Pretrained)하는 기술조차도 이해할 수 없는 신비(Emergent Abilities)의 영역이다.  

거기에 더해진, 인간 또는 인공지능의 "아차 실수"가, 그동안 인간이 쉽게 하지 못했던 신약 개발, 변호사 시험통과, 의사 시험통과를 몇 분, 몇 초만에 통과하는 능력을 보여 주고 있다. 물론, 거짓말 효과(Hallucination)가 확인되어서 그나마 다행이라는 생각이 든다. 

"아차 실수"가 또 다른 허망한 답을 내놓지 않기를 기도하는 아침에. 

---

다음 주제 - "황당하거나 멍청한 초지능; 예외, 비상식, 예측, 비영역, attention"

Saturday 8 July 2023

GPT4 - 인공지능의 위험 - 개인의 생각

혼자 생각을 적어봅니다. 정리되지 않은 글입니다. 

1. 인간의 지식 체계를 무너뜨리는 위험

언어를 통해 생각하고 축적한 모든 지식을 완전히 해체해서 재조립하는 위험입니다. 학파와 지역와 연령별 독특성이 사라지고, 학과목별 연대와 협력이 불필요하거나 무기력해지는 위험입니다. 거대언어모델(LLM)을 사용하는 부작용입니다.  

2. 인간의 상상력이 존중받지 못하는 위험

부족한 것, 약한 것에도, 독특한 것이 있겠지요. 성경은, 연약한 것이 더 소중하다고 가르칩니다. 그래서 소망하는 것은, 인공지능이 인간을 대체하기 시작할 때, 부족한 인간의 서툰 사랑, 기쁨, 평화, 인내, 친절, 선함, 신실, 온유, 절제로 이루어진 인간성이 존중받기를 소망합니다. 

인공지능이 사람을 살상하는 전쟁 기술을 배우지 않기를 소망하지만, 군사행동에 이용하려는 온갖 시도가 이런 소망을 불가능하게 하는 현실입니다. 또 다른 위험도 있습니다. 위험하다고 판단되는 단어와 개념을 제거하고, 지식과 정보를 평준화할 때, 제한되거나 사라지는 독창성과 상상력이 함께 사라지는 위험입니다. 사람을 죽이는 인공지능을 설계하는 것도 비극이지만, 평준화를 위해서 독창성을 제거하는 것도, 아이러니입니다.  

3. 인간의 문제를 가속화 시키는 위험

무기로 개발된 핵무기는 사용하지 못하는 무기라고 알려져 있습니다. 그렇지만, 인공지능은 사용할 수 밖에 없는 기술입니다. 그 발전은 멈출 수 없는 단계에 도달했습니다. 더구나, 인정하고 싶지 않은 가장 위험한 현실이 충격입니다. 인공지능이 기후변화 온난화를 가속화한다는 사실입니다. 엄청난 에너지를 사용하기 때문입니다. 탄소제로, 또는, 탄소마이너스를 통해, 기후위기를 멈추는 기술 개발은 아직 상상력 속에 있습니다. 인공지능을 사용하는 세상 모든 사람들에게 묻는 질문이 있습니다. 탄소제로 생활습관, 또는, 탄소마이너스 생활습관을 실천하고 계십니까?