무인 자율주행차가 마주할 ‘트롤리 딜레마’

무인 자율주행차와 트롤리 딜레마: 기계는 누구를 살려야 하는가?

자율주행차 기술이 빠르게 발전하면서, 이제는 단순한 기술적 문제를 넘어 철학적·윤리적 질문이 수면 위로 떠오르고 있습니다. 그 중심에는 바로 ‘트롤리 딜레마(Trolley Problem)’가 있습니다. 인간 운전자라면 본능적으로 대처할 수 있는 극단적 상황에서, 자율주행 알고리즘은 과연 어떤 판단을 내려야 할까요? 이 포스팅에서는 자율주행차가 직면할 윤리적 딜레마를 구체적으로 살펴보고, 그 사회적 함의를 짚어봅니다.


트롤리 딜레마란 무엇인가?

트롤리 딜레마는 1967년 철학자 필리파 풋(Philippa Foot)이 제시한 사고 실험입니다. 브레이크가 고장난 트롤리가 선로 위의 다섯 명을 향해 달려가고 있을 때, 레버를 당겨 한 명이 있는 다른 선로로 방향을 틀면 한 명의 희생으로 다섯 명을 살릴 수 있습니다. 과연 레버를 당겨야 할까요?

이 오래된 철학적 문제가 21세기 자율주행차 알고리즘 설계에서 다시금 핵심 화두로 등장했습니다. 기계가 생사의 기로에서 ‘선택’을 해야 하는 순간이 실제로 존재하기 때문입니다.


자율주행차가 실제로 마주할 수 있는 상황

예를 들어, 갑자기 아이 여러 명이 도로에 뛰어들었을 때 차량이 직진하면 아이들을 칠 수 있고, 방향을 틀면 보도의 노인을 칠 수 있는 상황을 생각해봅시다. 이 순간 알고리즘은 0.1초 이내에 판단을 내려야 합니다. 이때 고려되는 변수는 다음과 같습니다.

  • 희생자의 수 — 다수를 살리기 위해 소수를 희생시켜야 하는가?
  • 연령과 신체 조건 — 어린이와 노인 중 누구를 우선시해야 하는가?
  • 탑승자 vs 보행자 — 차량 내부의 탑승자를 보호해야 하는가, 외부인을 보호해야 하는가?
  • 법적 책임 소재 — 제조사, 소유자, 알고리즘 설계자 중 누가 책임지는가?

MIT ‘도덕 기계(Moral Machine)’ 실험이 밝혀낸 것

MIT는 전 세계 230만 명을 대상으로 자율주행차의 윤리적 판단에 관한 설문 실험인 ‘도덕 기계(Moral Machine)’ 프로젝트를 진행했습니다. 그 결과는 매우 흥미로웠습니다. 대부분의 응답자는 어린이를 노인보다 먼저 보호해야 한다고 답했고, 많은 수를 살리는 것을 선호했습니다. 그러나 문화권에 따라 결과는 크게 달랐습니다. 동양 문화권에서는 상대적으로 노인을 존중하는 경향이 강하게 나타났고, 서양에서는 공리주의적 판단이 우세했습니다.

이는 단일한 윤리 기준을 전 세계 자율주행차에 동일하게 적용하는 것이 불가능하다는 사실을 시사합니다.


알고리즘에 윤리를 심는 것이 가능한가?

현재 자율주행 기술 개발을 주도하는 테슬라, 구글 웨이모, 현대 등 주요 기업들은 이 문제에 대해 공식적으로 명확한 입장을 밝히기를 꺼리고 있습니다. 이는 도덕적 책임에 대한 법적 리스크 때문입니다. 만약 “우리 차는 탑승자를 우선시한다”고 공표하면, 보행자 사망 사고 발생 시 명백한 법적 책임을 지게 됩니다.

반면 EU는 자율주행 윤리 가이드라인을 통해 나이, 성별, 사회적 지위에 따른 차별적 판단을 금지하고, 인명 피해를 최소화하는 방향의 알고리즘 설계를 권고하고 있습니다. 이처럼 윤리를 코드로 전환하는 작업은 단순한 기술의 문제가 아니라 사회적 합의의 문제입니다.


결론: 기술이 아닌 사회가 답해야 할 질문

자율주행차의 트롤리 딜레마는 단순히 공학적 난제가 아닙니다. 이것은 우리 사회가 어떤 가치를 우선시하는가에 대한 본질적인 질문입니다. 알고리즘은 설계자의 윤리관을 반영하고, 그 설계자는 사회의 요구를 반영합니다. 따라서 이 문제의 해결책은 엔지니어 혼자 내릴 수 없으며, 철학자, 법학자, 정책 입안자, 그리고 일반 시민 모두가 참여하는 사회적

댓글 남기기