지난해 우버 자율주행차에 치여 보행자가 사망했을 때 언론은 도덕적 비난의 화살을 보조운전자에게로 돌렸다. 위급한 상황에서 동영상이나 시청하고 있는 게 말이 되느냐는 논리였다. 이 사건 담당 검사는 우버를 향해 “형사책임을 물을 근거가 없다”면서도 보조운전자에겐 “과실치사 혐의를 더 조사해야 한다”는 결론을 내렸다. 미 연방교통안전위원회가 자율주행 알고리즘 결함이라는 결론을 내렸음에도 운전권조차 갖지 못했던 ‘보조적‘ 인간은 모든 비난을 뒤집어써야 했다. 허점 많은 자율주행 기술은 그야말로 무탈했다.
2017년부터 인공지능(AI)이 운용하는 헤지펀드에 투자한 홍콩의 한 부동산 갑부가 있었다. 그는 2018년 초 하루 만에 무려 2000만 달러(약 230억원)의 손실을 보게 되자, AI 펀드 운용사를 상대로 2300만 달러의 소송을 제기했다. AI의 펀드 운용 능력을 과장해서 홍보하는 바람에 자신이 피해를 봤다는 이유에서다. 내년까지 이어질 지루한 소송전 와중에 이 부동산 재벌은 투자를 권유한 담당 임원을 희생양으로 지목했다. ‘왜 불완전한 인공지능 기술로 세일즈를 했느냐’는 것이다. 정작 거대한 손실을 안긴 AI 트레이딩 기술은 책임 논쟁에서 슬쩍 물러난 상태다.
앞서 언급한 두 사례는 인간이 기계의 보호를 받지 못하고, 거꾸로 기계가 인간의 보호를 받는 새로운 기술사회적 현상을 상징한다. 운전과 투자는 명백히 알고리즘이라는 기계가 수행했지만 도덕적 비난과 책임은 인간이 감당해야 했던 특이한 풍경, 알고리즘의 결함과 한계가 기술적으로 입증까지 됐지만 전도된 상황이 뒤바뀌지 않는 역설적 국면이 지금 우리 앞에 펼쳐지고 있다.
‘크럼플존(Crumple Zone)’이라는 게 있다. 차량 충돌 때 운전석 인간을 보호하기 위해 먼저 찌그러지는 장치와 영역을 뜻한다. 앞쪽에서는 보닛이, 뒤쪽에선 트렁크가 그 역할을 한다. 크럼플존은 1959년 벤츠 고급 모델에 처음 적용돼 그동안 수십·수백만 명의 인간 목숨을 구해냈다. 크럼플존은 기계가 인간을 대신해 충격을 완화해줌으로써 자동차 안전 개념의 새 역사를 써내려갔다. 하지만 약 60년이 지난 지금, 인류는 정반대 현상과 마주하고 있다. 기계의 안전을 위해 인간이 충격을 대신 흡수하는 ‘역 크럼플존’, 데이터사회연구소 마델라인 연구원이 ’도덕의 크럼플존’(Moral Crumple Zone)이라 부른 인간-기계 관계 역전의 문 앞에 우리가 서 있는 것이다.
국내 대기업이 출시한 자율주행차량으로 인명사고가 발생했다고 가정해보자. 운전석에는 보조운전자가 탑승했을 것이다. 알고리즘이 운전하는 전 과정을 그들은 모니터링하며 최악의 상황에 대비했을 것이다. 하지만 사고는 예측하지 못한 순간 갑자기 발생한다. 그렇게 닥친 긴급한 상황에서는 인간의 판단도 무력화된다. 이 같은 상황에서 우리는 어느 곳을 향해 삿대질을 하게 될까.
따져보면, 도덕적 크럼플존은 기술의 신성함을 지켜내기 위해 인간 스스로가 구축한 제단이다. 테크놀로지의 무결한 권위를 훼손하지 않기 위해 인간은 그곳에 자기 스스로를 제물로 바치고 있다. 기술은 신앙이 되어가고, 인간은 신앙화한 기술의 충격 완화장치로 전락하는 기묘한 역전극이 눈앞으로 밀려오는 중이다. 2009년 에어프랑스 447기 추락사고가 그랬듯, 자동화한 기계는 위급한 순간 인간에게 제어권을 떠넘겨 자신의 신성한 권위를 지켜냈다.
지금은 그 시도가 더욱 노골화되고 있다. 인간과 기계의 팀워크가 장기간 불가피한 조건에서 인간만이 제물로 바쳐지는 불평등한 관계는 위기의 전조가 될 수밖에 없을 것이다. 인간과 기계의 관계를 건강하게 재정립할 수 있는 새로운 도덕적 규율이 그래서 더욱 필요해진 시점이다.
<이성규 전 메디아티 미디어테크 랩장>