AI 시스템에게 부여된 폭력은 어디까지 허용될 수 있을까?
목차
1. 논의를 시작하며 참고할 책
2. 발제
3. 나의 생각
1. 논의를 시작하며 참고할 책
폭력을 부여한 AI를 떠올리면, 가장 대표적으로 떠오르는 사례가 킬러로봇입니다. 킬러 로봇에 대한 의견으로 한정하지 않는다면 폭력의 범위는 더욱 넓을 것입니다. 그래서 이번 발제는 지난 강의에서 교수님이 제안한 발제를 그대로 싣고 '킬러 로봇'이나 신무기로 바라보는 시각, 또는 범죄를 막기 위한 폭력에 대하여 다루는 범위로 좁혀봅니다.
실은 '폭력을 허용한다.'라는 말은 그 자체로도 윤리적으로 어긋나보입니다. 그래서 주체가 인간이 아니라 AI라는 새로운 대상이 되었든 간에 '어디까지 폭력을 허용할지'에 대해서는 논의할 필요조차 없다고 답할 수도 있습니다.
그러나 킬러로봇이 만들어지는 것을 막을 수 없는 이유를 조금만 들춰보아도 알 수 있듯이, 그리고 인류의 역사에는 전쟁이 없던 순간이 없었으며 그 전쟁이 향해가는 새로운 국면이자 하나의 새로운 무기로 AI시스템과 킬러로봇을 바라보면 폭력 허용 수준에 대한 논의를 미룰 수 없다는 생각에도 공감하게 됩니다.
자국을 위한 '정의 구현'일수도, 더 정밀한 공격을 통해 희생을 줄이려는 노력일 수도 있다고 옹호할 수도 있어서 생각보다 다양한 생각을 나눌 수 있습니다.
아래에서 실은 발제를 접하기 전에 읽었던 책인데, 표지는 투박하지만 책제목에 충실하게 '법'을 바탕으로 인공지능이 가져오는 새로운 딜레마를 법에 대해 깊이 알지 못하는 사람들에게 논리정연하게 설명해줍니다. 그리고 마땅히 옳지 않아서 (마치 폭력을 허용하는 것 자체가 옳지 않으니 킬러로봇은 윤리적인 문제점만 있을 것이라는 생각과 달리 어떤 장점이나 필요가 있을 수도 있는지) 우리가 살펴보지 못했던 이면을 분명하게 설명해줍니다.
목차 일부만 봐도 솔깃해보입니다. 아직 다 읽지는 못했지만 이책의 뒷부분에서 킬러로봇을 다루는데 킬러로봇을 다루는 기사과 같이 곁들여 읽기에도 좋았습니다.
2. 발제
AI윤리 수업(10.15) 안성진 교수님 발제
'킬러 로봇' 등 얼마전에 이슈가 된 적이 있다. 전쟁을 위한 로봇은 허용되는 것이 바람직한 것인가? 이미 생화학무기, 핵무기 등 대량 살상 무기가 개발되어 있고, 새로운 무기 체계를 지속적으로 개발하고 있는 상황에서 킬러 로봇은 허용되지 않는 이유는 무엇인가? 어찌보면 특정 인물을 살상하기 위한 킬러 로봇은 대량 살상 무기보다 나은것 아닌가?
주제를 좀더 확대를 하면 과연 AI 시스템에게 부여된 인간에 대한 폭력의 수준은 어디까지 허용할 수 있는가에 대한 문제이다. 범법자를 체포하거나 도주하는 범죄행위자를 체포하기 위해 드론에서 전기충격을 하는 등 다양한 형태로 존재할 수 있다. 심지어 흉악범을 체포하는 과정이나 테러범, 인질범을 잡기위해 경찰관의 위험한 투입보다는 로봇이 더 유용할 수도 있다. 다만, 이러한 용도에서 인공지능은 자율적인 판단에 따라 폭력성을 조절할 수도 있을것이다. 혹은 의도된 폭력 행사나 그에 따른 문제로 사망으로 이어지는 경우도 있을 수 있다.
우리는 과연 어디까지 폭력을 허용할 것인가? 개인의 의견을 나누어 주세요~
3. 나의 생각
인간의 통제 없이 자율성을 지닌 킬러 로븟은 폭력은 일체 허용되지 않아야 한다.
물론 이미 진척된 킬러 로봇 개발 상황을 보았을 때, 위와 같은 의견은 수용되지 않을 것이고 킬러 로봇의 장점(인명피해를 최소화하는 등)을 바탕으로 개발될 것이다.
그럼에도 폭력이 일체 허용되어서는 안되는 이유는
첫째, 폭력의 범위는 의도에 따라 규정될 수 있는 것이 아니기 때문이다.
아군의 피해를 최소화하기 위해 투입되더라도, 아군과 적군을 잘못 식별하거나 적군과 민간인(자살폭탄테러, 적군을 돕는 민간인 등)을 경계짓지 못하여 의도하지 않은 피해가 발생할 수 있다.
단순 체포를 위한 최소한의 폭력을 허용하였을지라도, 진압 과정에서 범죄자가 사망에 이를 수도 있다. 전기충격기를 달려오는 차 앞에서는 사용하지말 것, 난간이 고정되어 있지 않은 경우에는 납치범을 공격하지 말 것 등 하지 말아야 할 것들을 모두 고려하도록 만드는 것은 불가능하다. 어떤 의도를 두었든 폭력의 결과는 예측할 수 있는 것이 아니기에 의도만을 다듬어서 폭력을 일부 허용하는 것은 위험하다.
둘째, 킬러 로봇은 전쟁을 쉽게 만들 수 있기 때문이다.
전쟁은 국제분쟁해결을 위한 하나의 수단으로 역사 속에서 이루어졌지만, 모든 나라가 분쟁해결을 전쟁으로 하지 않는 것은 전쟁으로 인한 물적, 인적 피해를 감안해야 하기 때문이다. 그래서 많은 나라들이 전쟁을 택하기보다 외교적 협상을 통해 분쟁을 해결하는 방향을 택하곤 한다.
그런데 킬러로봇이 손쉽게 적군의 땅에서, 아군 한 명의 인명피해도 없이 사살할 수 있다면, 외교적 협상보다는 전쟁을 더 손쉽고 경제적인 선택으로 택하게 될 것이다. 이로 인한 결과는 인류의 역사에서 더욱 빈번한 전쟁을 이끌어낼 수 있는 것이다.
따라서 인간의 개입 없는 자율적인 킬러 로봇의 폭력은 예상한 폭력 범위를 넘어서는 결과를 가져올 수 있으므로 허용되어서는 안될 것이다.
가급적이면 의견은 두루뭉술하지 않게 어찌보면 편향되었다는 느낌이 들정도로 적어보려고 합니다. 개인 기록을 적고 있지만! 댓글로도 생각 나누어주신다면 대환영입니다.
'AI + 대학원 > AI윤리' 카테고리의 다른 글
AI cover 와 아이돌 공백기 # 가짜가 진짜를 이기다 (1) | 2023.07.07 |
---|---|
[생각] 인공지능 의인화가 주는 위험성 (0) | 2022.08.08 |
[AI윤리] AI의 결정은 따라야 하는 것인가? (3) | 2021.10.24 |
[AI윤리] 토론 _ AI는 창의적인가? (1) | 2021.10.18 |
[AI 윤리] 0906 / SW교육 vs AI교육 (0) | 2021.09.06 |