혼자 생각을 적어봅니다. 정리되지 않은 글입니다.
1. 인간의 지식 체계를 무너뜨리는 위험
언어를 통해 생각하고 축적한 모든 지식을 완전히 해체해서 재조립하는 위험입니다. 학파와 지역와 연령별 독특성이 사라지고, 학과목별 연대와 협력이 불필요하거나 무기력해지는 위험입니다. 거대언어모델(LLM)을 사용하는 부작용입니다.
2. 인간의 상상력이 존중받지 못하는 위험
부족한 것, 약한 것에도, 독특한 것이 있겠지요. 성경은, 연약한 것이 더 소중하다고 가르칩니다. 그래서 소망하는 것은, 인공지능이 인간을 대체하기 시작할 때, 부족한 인간의 서툰 사랑, 기쁨, 평화, 인내, 친절, 선함, 신실, 온유, 절제로 이루어진 인간성이 존중받기를 소망합니다.
인공지능이 사람을 살상하는 전쟁 기술을 배우지 않기를 소망하지만, 군사행동에 이용하려는 온갖 시도가 이런 소망을 불가능하게 하는 현실입니다. 또 다른 위험도 있습니다. 위험하다고 판단되는 단어와 개념을 제거하고, 지식과 정보를 평준화할 때, 제한되거나 사라지는 독창성과 상상력이 함께 사라지는 위험입니다. 사람을 죽이는 인공지능을 설계하는 것도 비극이지만, 평준화를 위해서 독창성을 제거하는 것도, 아이러니입니다.
3. 인간의 문제를 가속화 시키는 위험
무기로 개발된 핵무기는 사용하지 못하는 무기라고 알려져 있습니다. 그렇지만, 인공지능은 사용할 수 밖에 없는 기술입니다. 그 발전은 멈출 수 없는 단계에 도달했습니다. 더구나, 인정하고 싶지 않은 가장 위험한 현실이 충격입니다. 인공지능이 기후변화 온난화를 가속화한다는 사실입니다. 엄청난 에너지를 사용하기 때문입니다. 탄소제로, 또는, 탄소마이너스를 통해, 기후위기를 멈추는 기술 개발은 아직 상상력 속에 있습니다. 인공지능을 사용하는 세상 모든 사람들에게 묻는 질문이 있습니다. 탄소제로 생활습관, 또는, 탄소마이너스 생활습관을 실천하고 계십니까?
No comments:
Post a Comment