너무 ‘똑똑해서’ 생긴 죄는 그 죄를 물을 수 있을까
‘신속하게, 정확하게!’ 이 두말은 한국 사회에서의 삶을 잠시만이라도 경험해봤더라면 누구나 꽤나 자주 듣던 말일 것이다. ‘신속, 정확’은 효율이라는 말로 대변된다. 산업혁명을 시작으로 기계와 함께 인간 문명의 효율은 급격히 증가했고, 곧 0퍼센트에 가까운 오류발생률과 인체는 따라갈 수 없는 속도를 앞세운 로봇과 인공지능 로봇이 등장하였다.
현재 가장 뜨거운 화두로 떠오른 인공지능은 ‘자율주행차’이다. 자율주행차는 ‘운전자가 차량을 직접 조작하지 않아도 스스로 주행하는 자동차’를 말한다. 이것은 애니메이션이나 SF영화에 자주 등장하며 사람들의 상상력을 자극하곤 했던 소재였다. 하지만 비엠더블유(BMW)나 토요타, 테슬라 등의 유명 자동차 기업들을 비롯하여, 구글, 애플, 바이두 등의 다른 분야로 진출한 기업들이 2020년까지 자율주행차의 상용화를 선언했다.
10퍼센트의 기계결함을 제외한 모든 교통사고의 원인이 운전자의 부주의라는 점에서 자율주행차는 기업과 잠재적 소비자 모두에게 환대를 받고 있다. 하지만 여전히 해결되지 못한 문제점들이 산재해있다. 그 중에 핵심적인 사안은 인공지능의 명백한 한계로 지적되는 ‘알고리즘 윤리학’에 관련된 내용이다.
충돌사고가 일어나기 직전의 순간에, 운전자가 사람이라면 그 상황에서 냉철한 판단력이나 침착함을 요구하는 것은 불가능한 일이다. 따라서 사고 차량의 방향이 잘못되어 2차 사고가 일어났다거나, 운전석에 가해지는 피해를 줄이려는 본능적인 시도를 운전자가 혹시 했더라도 추궁하지 않는다. 하지만 어떤 상황에서도 당황하지 않고, 신속하게 상황을 분석하여 판단을 내릴 수 있는 인공지능 로봇이라면 사람의 것과 같은 잣대를 들이밀기 어려워진다.
컴퓨터의 연산은 그 속도가 매우 빨라서, 사고가 발생하려는 찰나의 순간에도 방대한 양의 계산을 해낼 수 있다. 이 점을 자율주행차에 연결시켜본다면, 의도적으로 인공지능 로봇이 교통사고로 누가 사망하게 할 건지 결정하는 상황이 올 수도 있다는 것은 당연한 일이다. 이 경우에 사고 생존자는 과연 그 로봇의 판단에 흡족해할 수 있을까? 아니면, 우리가 튼튼한 성인이라는 이유로 로봇의 ‘희생 타격점’이 되었더라도 숭고한 희생으로 받아들일 수 있을까?
너무 똑똑한 로봇이 나왔지만, 그로 인해 더 똑똑한 무언가가 필요해졌다.
16기 박지헌 기자
사진 출처: 네이버 이미지