본문 바로가기
AI + 대학원/AI윤리

[생각] 인공지능 의인화가 주는 위험성

by 팡귄 2022. 8. 8.

인공지능 의인화가 주는 위험성

프롤로그 _ 이상한 챗봇

더보기

제목처럼 '의인화'에 대하여 요즘 내가 하고 있는 생각과 경험을 적어놓으려고 한다. 물론 이런 생각을 길게 가져가는 데에는 지난 겨울에 읽었던 책(슈퍼인텔리전스)에서 큰 영향을 받기도 했다. 책에서 어떤 문장을 유독 반갑다고 느낀 것은 이전에 내가 그런 의문을 가졌다가 해결하지 못했기 때문일 것 같다. (멋진 책을 만날 때마다 어쩜 그렇게 명쾌하게 생각을 구체화할 수 있는지 감탄스럽다.) 이 의문을 해결하기 위해서 아주 기초적인 연구부터 해야하는 것이 맞다. 의인화 요소를 분석해내고, 다른 사람들의 의견을 듣는 것이 첫 단추다.
나도 모르게 사회적 반응을 보이고 있다는 것을 지각했던 것이, 한 번은 현대카드 챗봇을 이용했던 때였다. 카드 관련 문의를 하려고 접속하니 챗봇이 응답을 하는데, 프로필 사진이 보였다. 프로필은 일러스트화된 인물이였는데, 백인 남성이 안경을 쓰고 정장을 입은 이미지 였다. 순간 굉장히 신뢰도가 떨어지는 느낌을 받았다. 개인적인 느낌인데 우습게도 '저 외국인이 한국말을 잘 하겠나." 라는 생각이 든 것이다. ㅎㅎ 그럴싸하게 친절한 안내 문장이 쏟아졌는데, 이미 별로다라는 확신이 든 상태라 페이지를 닫고 귀찮지만 상담 전화를 걸었었다. 그 이미지가 뭐라고 나는 그렇게 실망했을까. 차라리 그 이미지 없이 챗봇만 나왔더라면 나는 그 페이지를 닫지 않았을 것이다.

[책] 슈퍼인텔리전스 닉 보스트롬 '인간 중심적인 근거 없는 기대에 대한 경고'

슈퍼인텔리전스 _ 닉 보스트롬 [책 리뷰] '인간 중심적인 근거 없는 기대에 대한 경고' (1)인공지능 수준이 아직 동물보다도 못한 멍청이야. 이제 겨우 침팬지? 사람 따라오려면 한참 멀었네. (2)

pangguinland.tistory.com


‘AI가 인간처럼 행동하더라도 기계처럼 취급하십시오’

  산타 바바라 대학(University of California Santa Barbara 교수 폴 레오나르디(Paul Leonardi), 네일러 피츠휴(Naylor Fitzhugh)대학 교수인 체달 닐리(Tsedal Neeley)가 올해 5월에 펴낸 책에 나오는 소제목이다.
안타깝게도 아직 국내에 번역이 안된 것 같다. 설명서에나 있을 법한 저 문장은 요즘 가장 나의 큰 관심거리를 드러낸 듯하여 매우 반가웠다. 아직 번역되지 않은 아쉬움을 달래며 책의 내용 일부를 소개하는 아래 기사를 추천한다.

가장 효율적인 AI사용법은 "기계를 기계처럼 대하는 것" - AI타임스

인공지능의 수준이 높아지면서 인간과 기계의 대화가 마치 인간과 인간의 대화인 것처럼 오인되는 경우도 늘고 있다. 로봇이 분명함에도 사람들은 감정을 쏟고 인간에게 하는 것처럼 하소연하

www.aitimes.com

2022. 5.


인공지능 윤리를 논의할 때마다 어려웠던 것, 나는 과연 인공지능에게 사람과 같은 인격을 줄 수 있을까?

  대학원에서 인공지능 윤리 강의를 듣던 학기에는 매주 토론하는 시간이 있었다. 가치관이 형성된 성인들 간의 토론이었기에 학교에서 아이들의 토론을 이끌고 지켜보는 것과는 매우 달랐다.
놀랍게도 어떤 주제에 대하여는 아이들보다 훨씬 통일된 답으로 모아지기도 하고, 어떤 주제에 대해서는 서로 각기 다른 주장이 제법 탄탄한 근거와 자료로 맞붙기도 했다. 그런데 논리적인 주장을 펼치는 것보다 가장 어려웠던 것은 내가 가진 기준에 대한 나의 생각을 찾는 것이었다.

'그래서 나는 어떻게 생각하는가?'에 대답하기는 너무나도 어려웠다.

  AI가 도입되면서 마주할만한 또는 마주하고 있는 문제상황을 놓고, 책임을 논하는 토론 상황의 끝에 다다르면 항상 만나는 문제는 '그럼 인공지능에게 그만한 책임을 지울 수 있느냐?' 였다. 개발자, 사용자, 기획자 등 모두가 윤리적 감수성을 가지고 책임감있게 노력해야할 것이다.
하지만 딜레마를 계속 파고들면 끝에 이르러서는 어느 누구에게도 책임을 묻기 어려운 상황이 생긴단 말이다. 누구의 의도도 아니었기에 '그러면 혹시 이것은 인공지능의 탓인가?' 싶은 막다른 길을 마주하곤 했다. 탓을 돌릴 수 있다면 말이다.

  인공지능의 창작물에 대하여 이야기할 때, 자율주행차의 책임을 이야기할 때에도, 인공지능에게는 어떠한 책임도 권리도 없으니 개발자에게 모든 것을 돌리자하면 또 그것은 좀 아니다 싶고, 그렇다고 일부는 사용자에게 돌리기에도 애매한 뭔가 끝내 해결되지 않는 토론이 이어졌더랬다.
또 토론이 흘러가다보면 객관적인 근거에 기대려고 필연적으로(?) 현재의 법을 들춰보게 된다. 그러다보면 이 문제는 현행 법에는 담을 수 없다는 결론이 나고, 앞으로 법적 차원에서 마련해야할 것을 찾는 것으로 마무리가 되고는 했다.

그러면 인공지능에게 탓을 돌릴 수 있는가?

인공지능에게 일단 법적 책임을 부여하기 위해서는 '법 인격'이 주어져야한다. 법인격을 부여하는 것은 우리 인간과 같은 권리와 책임을 규정하는 것이다. 인공지능의 자율적인 의사결정을 내리는 주체로 보는 것인데, 아직은 이에 대한 타당성이 매우 부족한 상황이다.
다만 놀랍게도 2017년 유럽에서는 AI에게 전자인격을 부여할 필요가 있다며 결의한 바 있다고 한다. 그러나 역시나 이후 많은 비판을 받았다. 제조사, 소유주의 책임 회피를 위한 것이라는 비판이 쏟아졌다.
https://www.hankyung.com/international/article/2018041377691

'AI 로봇' 사고는 누구 책임?… EU '로봇 인격' 부여 놓고 논쟁 격화

'AI 로봇' 사고는 누구 책임?… EU '로봇 인격' 부여 놓고 논쟁 격화, 인공지능·법학·윤리학 전문가들 유럽의회 '로봇시민법' 제정 반대 "제조사·소유주 책임 회피 꼼수" 산업용 로봇시장 400억弗

www.hankyung.com

<법인격에 관해 읽어볼만한 기사>

미래AI에게 어떻게 법인격 부여할까... 과기부, AI 법적지위 논하는 세미나 개최 - AI타임스

과학기술정보통신부(이하 과기부)와 한국지능정보사회진흥원(NIA)이 23일 ‘인공지능 법제정비단’이라는 이름의 세미나를 개최했다. 앞으로 4개월 동안 AI 법 제정과 기술 기준 정립을 위한 다

www.aitimes.com

*잠깐* 우리나라 현행 법에서는 '사람'에게만 법 인격이 부여했을까?
아니다. 사람(자연인)과 법인(회사)에 권리와 책임을 규정하고 있다!



아무렴 인공지능은 인간이 아니다. 아주 제한적인 부분에서 '법 인격'을 허락해야하는 상황은 생길 것이라는 점에는 동의하지만, 최근 논란이 되었던 것(아래 기사 참고)처럼 인공지능이 인지능력을 가지고 있다거나, 감정을 가지고 있다는 주장에는 동의하기 어렵다. 많은 사람들도 이점에는 동의할 것이다.

출처:https://www.chosun.com/international/international_general/2022/07/23/7W6QMBPFABGUNA3FMPZWE46GRU/

그런데 우리를 흔들리게 만드는 것이 있다.

인간 중심적인 기준은 씨앗 인공지능의 성장 궤도와 성숙한 초지능의 심리, 동기 그리고 능력에 대해서 근거 없는 기대를 가지게 한다. ....... 초지능적 기계는 아주 똑똑하지만 샌님같은 인간과 비슷할 것이라는 대중적인 예상 같은 것이다.  - 슈퍼인텔리전스 172p-

많은 인공지능 서비스가 흉내(?)내는 방향이 사람과 무척 닮았더라도, 앞으로의 발전 속도나 방향까지도 인류와 같으리라는 섣부른 예측은 위험하다. 인간의 재현이 인공지능의 목표가 아니기 때문이다.

다시 한번 인공지능은 인간이 아니다. 동의하기 어려운 말은 아니다.

그런데, 우리는 종종 기계에게 사회적 반응을 보이고는 한다. CASA(Computers are social actors)이론에서 유명한 클리포드 나스(Clifford Nass)는 컴퓨터를 사람처럼 여기는 사회적 반응을 다양한 실험을 들어 설명했는데, 컴퓨터(기계)가 보내는 다양한 사회적 신호에 대하여 사람들이 사회적인 반응을 하기 때문이라 말한다.

우리 인간이 비인간을 의인화하는 동기와 기제는 매우 다양하다. 관련 분야에서 다루는 이론보다도(다음에 시간날 때 꼭 포스팅해보리!) 몇 가지 사례를 언급하면 금방 고개를 끄덕이게 될 것이다. 사회적 로봇의 장례식, 로봇 개 스팟에 대하여 학대라는 반응들은 식상할 수 있으니 넘어가겠다.

먼저 아주 단순한 사례로, 입력을 잘못하면 종종 프로그램창이 좌우로 고개를 세차게 흔드는 경우가 있다. '어? 왜, 틀렸다고?' 아주 일시적이나마 컴퓨터가 나에게 짜증을 내고 있다는 느낌도 든다. '내가 많이 틀리긴 했지.'

논문 몇 가지만 들춰보아도 우리는 분명히 컴퓨터가 인간적인 속성을 가지고 있지 않다고는 믿으나, 우리도 모르게 컴퓨터에게 사회적 반응을 보이는 사례가 많다.

컴퓨터가 옆에 놓여서 지켜보고 있다는 느낌을 주는 것만으로도 과제 수행도가 달라진 사례, 같은 로봇 심판 프로그램이 내린 결과를 의인화하여 제공하였을 때와 그렇지 않았을 때 신뢰도가 달라진 사례, 의인화 여부에 따라 프로그램의 오류를 달리 받아들이는 사례만해도 의식적으로 대하는 행동을 넘어서 의인화는 무의식적으로 우리의 사회적 반응을 이끌어 낼 수 있다는 점에 놀라게 된다.

때문에 더욱 의인화에 대하여 관심을 가져야 할 것이라 생각한다.
앞으로 살아가면서 AI의 법인격을 논하든, 윤리 기준을 만들 때에든 자칫 인공지능을 사람 혹은 새로운 종으로 대하면 안될 것이다. 그러지 않을 것이라고, '컴퓨터는 인간적인 속성이 없다고 다들 알고 있잖아?' 이렇게 생각하고 안심해도 될까 했는데, 때마침 구글 직원의 외로운 외침을 보니 정말 생각해볼 문제다 싶다.

다시 논문을 쓰러간다.
다음에는 여기서 좀 더 나아간 생각도 이어보겠다.

반응형