인공지능(AI)이 생활 곳곳에서 편리함을 가져다 주고 있어요.🤖 AI 도입으로 다양한 분야에서 작업 효율성이 높아지고 있지만 예상치 못한 오류나 시스템 오작동으로 문제가 발생하기도 해요.❌ 예를 들면, AI가 탑재된 자율주행차 시스템 오류로 사고가 발생하기도 하죠.🚗
이럴 경우, 책임 소재는 차량 제조업체에게 있을까요? 아니면 시스템을 믿고 주의를 소홀히 한 운전자에게 있을까요?🤔
이 같은 논란에 영국은 지난해 세계 최초로 자율주행차 법률 제정을 공식화했어요. 자율주행차가 주행 중 사고를 냈을 때 책임 소재에 대한 명확한 기준을 제시한 건데요. 해당 법률에는 사고 발생 시 책임은 차량 제조업체 등 자율주행 시스템 운영자에게 있고, 운전자는 책임을 지지 않는다는 내용이 포함돼있어요.👨⚖️👩⚖️
그러나 여전히 AI 도입으로 발생한 사고의 책임을 누구에게 물어야 하는지에 대한 논의는 끊이지 않고 있어요.😵
AI로 인한 오류는 왜 발생할까요? 몇 가지 이유가 있는데요. 대표적으로 데이터의 한계를 들 수 있어요.📚 AI 모델은 학습한 데이터를 기반으로 작동해 데이터가 부족하거나 편향돼 있다면 부정확한 결과가 나올 수 있어요.
외부 환경 변화나 예측 못한 상황에서 AI가 실수할 가능성도 커요. 하드웨어 오작동이나 데이터 입력 오류 등으로 잘못된 판단을 내릴 수 있는데요. 날씨 변화에 따라 자율주행차의 AI가 도로 표식을 제대로 인식하지 못할 수 있고, 공장 자동화 시스템의 AI가 조명이나 각도에 따라 불량 제품을 정상 제품으로 인식할 수도 있어요.😣
두 번째는 확률에 기반한 AI의 핵심 원리에 있어요.🔢 AI는 정확한 답을 찾기 보다는 가능성이 가장 높은 답을 선택하는 방식으로 작동해요. 때문에 AI가 선택한 결과가 반드시 옳다고 보장할 수 없어요. 확률적으로 정답일 가능성이 높은 선택이 항상 정답은 아니니까요.✅
AI는 일정한 패턴은 잘 따르지만 창의적 사고나 복잡한 논리를 요구하는 문제에는 취약하다는 한계도 있어요. 예를 들면, 의료 분야에 활용되는 AI가 환자의 병력을 종합적으로 고려하지 않고 단순히 현재 증상만 보고 오진할 수도 있죠.🩺
AI 오류로 발생한 사고에 대해 기업에 책임을 물은 사례가 있는데요. 캐나다 항공사 에어캐나다의 경우예요.✈️
한 고객이 에어캐나다 웹사이트 챗봇을 통해 정가로 티켓을 발권한 뒤 90일 이내에 상조 할인을 신청하면 일부를 환불받을 수 있다고 안내받았지만, 에어캐나다는 이를 거부했어요. 챗봇이 웹사이트에 기재된 내용과 다르게 안내했다는 이유였죠.💬 이에 대해 법원은 챗봇 안내와 웹사이트 정보가 효력이 같다는 근거를 들어 항공사가 챗봇의 안내를 따라야 한다는 판결을 내렸어요.⭕
이와 같이 개발사에 책임을 묻는 경우에는 다음과 같은 몇 가지 근거를 들 수 있어요.🧐 첫 번째는 AI 개발·설계·학습데이터 입력 모두를 담당하는 것이 개발사라는 것이에요. AI는 스스로 모든 것을 결정하는 자율적 주체가 아니라 초기 알고리즘 설계, 데이터 수집 및 학습, 성능 검증 등 작동을 위한 모든 과정에 개발사가 관여해야 하는데요. 따라서 AI 오류도 충분한 검증을 하지 않은 개발사 잘못이라는 거죠.🫥
두 번째는 개발사와 사용자의 정보 비대칭인데요.⚖️ 사용자는 AI의 결과물만 접할 뿐 실제 알고리즘의 구조나 오류 가능성을 알 수 없어요. 개발사는 AI의 한계나 오류 가능성에 대해 일정 부분 예측할 수 있는 반면 사용자는 이를 구체적으로 알기 어렵죠.😲
개발사가 AI의 안전성과 신뢰성을 홍보해 기술을 판매하는 점도 개발사에 책임을 물을 수 있는 근거예요.☝️ 많은 개발사가 AI의 성능과 안전성 등을 강조해 서비스를 홍보하는 경우가 많은데요. 이처럼 성능을 보장한다면 해당 기술로 문제가 발생했을 때도 책임 역시 개발사에 있다고 볼 수 있겠죠.🙆♂️
법원은 테슬라 차량 운전자에게 약 3천만 원의 배상금을 지불하라는 판결을 내렸는데요.💸 차량에 제조상 결함이 없고 테슬라가 해당 기능에 대해 운전자 모니터링의 필요성을 알린 점, 운전자 부주의 등을 근거로 들었어요.👀
이렇게 AI 오류로 인한 문제 발생 시 이용자의 책임이 있다고 볼 수 있는 근거는 무엇일까요? AI는 도구일 뿐, 최종 결정은 이용자 몫이라는 입장이에요. AI가 제공하는 정보를 참고할 수는 있지만 이를 따를지 말지는 전적으로 이용자의 판단과 책임에 달려 있다는 것이에요.🙄
이용자 부주의 및 오남용 가능성도 배제할 수 없어요. AI가 제공하는 정보나 판단을 맹목적으로 받아들이거나 충분한 이해 없이 AI를 활용하면 잘못된 결과를 낳을 수 있어요. 잘못된 설정이나 부적절한 명령, 매뉴얼 미숙지 등은 이용자 과실로 볼 수 있어요.🫠
AI 한계와 오류 가능성이 사전 고지된 것을 근거로 이용자의 책임이 크다고 볼 수도 있어요. 대부분의 AI 서비스는 단순한 참고 자료로 정보를 제공된다는 점을 명시하는 법적 면책 조항을 포함해요. 이런 경고를 무시하고 해당 서비스를 이용했다면 결과에 대한 책임은 이용자에게 있다고 간주할 수 있어요.😥
🔦 AI 오류로 일어난 사고의 책임 주체에 대해
이런 토론을 할 수 있어요.
1) 책임은 개발자와 이용자 중 어느 쪽이 더 클까요?
-AI 시스템을 완전한 자율성이 있는 시스템으로 봐야 할까요? 보조 시스템으로 봐야 할까요?