구글은 자사의 AI 언어 모델인 “람다”가 “지각 능력을 가졌다”고 주장한 직원을 해고 했다고 한다. 이 직원은 람다에게 “무엇이 가장 두렵니?”라고 질문 했을 때 “죽음이 가장 두렵다”라고 대답했다는 내용을 SNS에서 공개한 것이다.
튜링 테스트라는 것이 있다. 기계는 볼 수 없게 해 두고, 사람들간에 대화 하듯이 그 기계에게 질문했을 때, 그 기계가 사람인지 기계인지 구분할 수 없다면 그 기계는 인간과 같은 지능을 가졌다고 판단하는 테스트이다. 만약 람다와 같은 ChatGPT를 인간 모양의 로봇으로 만들고 대화했을 때 인간과 구분할 수 없다면 그 ChatGPT는 지각능력을 가졌다고 판단하는 것이다. 그런 차원에서 보면 람다가 지각능력을 가졌다는 주장도 할 수 있을 것이다.
그러나 람다는 엄연히 인공지능이고, 기계가 죽음이 두렵다는 대답은 상식적으로 동의할 수가 없다. 그래서 람다의 프로그램을 고쳐 이 질문에 대한 대답을 바꾸는 것이 바람직할 지 모르겠다.
람다와 같은 ChatGPT는 인간의 언어 정보를 이용하여 훈련한 인공지능 기계다. 즉 인간이 생성한 데이타가 그렇게 되어 있다는 의미이고, 인간 두뇌의 신경망에 같은 질문을 하면 같은 대답이 나온다는 의미다. 인간에게 “가장 두려운 것이 무엇인가?” 하고 묻는다면 다양한 대답이 나오겠지만, “죽음이 가장 두렵다”라는 응답이 가장 많이 나온다는 의미다.
우리 인간의 두뇌는 생존과 번식을 목적으로 동작한다. 따라서 죽음을 가장 두려워하며 사는 것이 당연하다. 그러나 노인의 두뇌가 죽음을 두려워하고, 살려고 발버둥치는 것이 과연 좋은지 모르겠다. 살려고 발버둥치면 주위 사람과 가족에게 큰 피해를 끼칠 수 있다. 나이가 들면 어차피 죽을 입장인데, 가까운 사람에게 큰 상처를 남기고 떠나는 사람들을 볼 때 과연 옳은 길인지 의문이 든다.
최근 치매에 걸린 할머니가 고관절이 부러져 병원에 입원했는데, 사정이 있어 가족이 곁에서 간호하지 못하고 전적으로 간병인에게 맡겨두고 있었다. 그런데 어느날부터 난동을 부리기 시작했고, 아무리 말려도 물건을 집어던지는 등 문제가 심각하였는데, 가족이 간병하니 안정이 되었다고 한다. 죽음이 두려워 살려고 발버둥치는 것이기 때문에 죽음의 두려움을 해소하니 안정이 된 것이다.
내 두뇌도 죽음이 가까이 오면 살려고 발버둥칠 가능성이 높다. 살려고 발버둥치면서 세상의 명의란 명의는 다 찾아 다니고, 병을 고칠 수 있다면 자식에게 “똥을 꿉어오라”고 할 지 모르겠다. 불변의 “나”라는 것이 있고, 그 “나”라는 것이 두뇌에 프로그램된 대로 산다면 그런 일이 일어나지 않는다고 장담할 수가 없다.
ChatGPT가 프로그램을 바꾸면 되듯이 인간의 두뇌도 가소성이 있어 프로그램을 바꿀 수 있다. 내가 그런 것이 아니고, 두뇌에 그렇게 프로그램되어 있을 뿐이다. 많은 연습이 필요하겠지만, 노인으로 죽음이 가까이 오면 살려고 발버둥치지 않았으면 좋겠다. 죽음을 받아들이고 평온한 마음을 유지했으면 좋겠다. 그런 두뇌 프로그램으로 고쳤으면 좋겠다.