인공지능의 편리함을 뿌리치는 건, 텃밭을 일구어 기후변화를 멈추려는 것과 같다는 생각이 든다. 편리함이 주는 유혹을 뿌리치고 살아가기는 너무나 어렵고, 문제를 해결할 수 있다는 희망은 너무나 가볍고 순진하다. 작은 텃밭 하나로 기후변화를 멈출 수 없는 것과 마찬가지라는 생각을 떨쳐낼 수가 없다. 그래도, 희망의 불꽃은 영원하다. 하나님께서 주신 하나님의 형상이 남아있고, 하나님께서 주신 아주 특별한 자기만의 달란트가 남아있고, 무엇으로도 대체할 수 없는 십자가 사랑이 남아있다.
이제, 지혜롭게 대처하기 보다는, 매 순간 나의 선택과 삶의 방향을 하나님의 뜻에 맞추는 더 치열한 기도가 필요한 시대가 되었다. 인공지능 대응한다는 반창고 붙이기 식의 대처 방법이 필요한 시대가 아니라. 우리 삶의 방향이 하나님의 뜻을 향하도록, 완전히 바로잡아야 하는 엄중한 시대가 되었다.
체르노빌과 후쿠시마 원전 사고는, 인간의 "아차 실수"가 가져온 "나비효과"를 보여준다. 인간이 통제할 수 없는 거대 에너지를 인간이 통제할 수 있다고 자만하는 그 순간이 "아차 실수"였다. 21세기의 인공지능은, 원자력 재난 상황보다 더 심각하고, 기후변화보다 더 빠르고 광범위한 충격으로 나타날 조짐을 보이고 있다. 인공지능을 설계하면서 또는 사용하면서 수 없이 반복될 깃털보다 가벼운 "아차 실수"를 되돌이킬 기회가 인류에게 있을까? 체르노빌과 후쿠시마 재난에는 그럴 기회가 없었고, 또한, 원전 사고의 여파는 여전히 현재 진행형이다.
재난의 여파로 계속되는 오염수 방류 문제는, "아차 실수"의 나비효과가 해결할 수 없는 더 큰 문제로 계속 확대될 것을 예고하고 있다.
인공지능은 "아차 실수"에서 자유로울까? 거대언어모델(LLM)을 사용하는 방식은, 인간이 이해할 수 없는 수 억 또는 수 조 단위로 구성된 매개변수(Parameter, Variable)를 통해서 일어난다. 답을 찾아내는 과정은 비공개 비밀이고, 그 비밀이 공개된다 하더라도 어떤 누구라도 그 과정을 이해할 수는 없다.
거대언어모델 자체가 이해할 수 없는 문서로 가득하다. 거기에 더해서, 그 속의 언어를 재구성(Transformer)해서 답을 만들어(Generating)내는 과정, 그리고, 그 과정을 통제(Pretrained)하는 기술조차도 이해할 수 없는 신비(Emergent Abilities)의 영역이다.
거기에 더해진, 인간 또는 인공지능의 "아차 실수"가, 그동안 인간이 쉽게 하지 못했던 신약 개발, 변호사 시험통과, 의사 시험통과를 몇 분, 몇 초만에 통과하는 능력을 보여 주고 있다. 물론, 거짓말 효과(Hallucination)가 확인되어서 그나마 다행이라는 생각이 든다.
"아차 실수"가 또 다른 허망한 답을 내놓지 않기를 기도하는 아침에.
---
다음 주제 - "황당하거나 멍청한 초지능; 예외, 비상식, 예측, 비영역, attention"