AI + 대학원/AI윤리

[AI윤리] 고릴라를 금지한 구글포토 수업이야기 -2-

팡귄 2024. 9. 1. 21:57
반응형

 

 
-1탄- 지난 이야기 : https://pangguinland.tistory.com/332

 

[AI윤리] 고릴라를 금지한 구글포토 수업이야기 -1-

이미지 인식모델로 플라스틱쓰레기와 물고기를 분류하는 체험을 하고 개념을 익힌 다음, 편향을 주제로 인공지능 윤리 수업을 이어갔다. 학습된 이미지데이터에 담긴 편향으로 인해, 온도계를

pangguinland.tistory.com

 

며칠동안 쓴 글을 날리고 백지부터 다시 쓰려니 눈물이 앞을 가린다.

수업이 끝나고도 내내 고민이 들었다. '인공지능이 잘한 거 맞는 것 같다.'라는 생각이 가득했다. 그럼 이 사례는 수업에서 뺏어야하나 싶었다. 어찌되었든간에 이 내용 그대로 수업할 수는 없겠다는 생각이 들었다.

 

1. 해결하고 싶은 질문

2. 검색을 통해 새롭게 알게 된 사실과 견해

3. 그 이후 수업과 나의 결론

 


해결하고 싶은 질문

첫째, 인간의 잘못은 어디에 있나?
둘째, 나는 뭐라고 답했어야 하나?

 

 인공지능이 잘못한 것은 아니라는 생각에 변함이 없었지만, 부당하고 불쾌한 경험을 겪은 사람이 생겼고 이에 많은 사람이 공감했다는 점에서 이 사례 어딘가에 내가 놓친 것이 있을 것이라는 생각이 들었다.
그리고 그 잘못의 주체는 결국 인간일테니, 어디서 잘못이 나타났는지 찾으면, '무엇을' 잘못한 것인지도 설명할 수 있을 것이다 싶었다.
이 사례에 대해 조금 더 공부해보기로 했다. 그러고나면 나는 뭐라고 답할 수 있을지 정리가 될 것이라 생각했다. 

(정보를 검색해보면서 그동안 윤리적인 문제를 일으킨 사례를 가져올 때 '이후에 어떤 조치가 있었는지', '어떤 것이 원인이라 결론내렸는지' 등을 자세히 살펴보지 않았다는 걸 깨달았다.)

 

구글에서 정보를 검색하기 시작했다.


검색을 통해 새롭게 알게 된 사실과 견해 

(소제목을 '사실', '견해'로 섞어두었다. 이 고릴라 사례를 여러 출처에서 찾아보다 보니 기사라고 항상 정확한 사실을 담고 있는 것도 아니었고, 전문가라고 해도 전문적인 지식을 담은 개인적 견해가 더 많았다. 구글의 공식적으로 내놓은 설명과 조치가 간단하고 많은 것을 생략했기 때문에 그러한듯 하다. 그러므로 한 걸음 뒤에서 사실같은 견해를 잘 읽어야겠다. 아래서 언급되는 이들은 토론에 적극적으로 참여하고 전문분야 지식을 고루 갖춘 이들이지만, 구글의 공식적인 입장과는 상관없으므로 견해로 보는 것이 좋겠다.)

크게 3가지로 분류해보겠다.

#1 이미지 인식의 한계, 고릴라로 분류된 원인 추측
#2 수집된 데이터의 문제, 고릴라로 분류된 원인 추측
#3 조치와 그 이후


#1 이미지 인식의 한계, 고릴라로 분류된 원인 추측

 2015년 기준, 구글 포토 앱은 이미지를 분류하여 라벨을 붙여주는 서비스를 제공했다. (물론 지금도 이 기능은 그대로 있다.) 3차원에 존재하는 대상이 2차원 이미지로 담기면 많은 정보가 왜곡되기 쉽다. 

Dennis Levy(엔지니어)의 견해가 흥미롭다. 고릴라의 목부터 내려오는 근육질의 윤곽이 문제가 되었던 문제가 되었던 사진 속 여성의 머리카락 윤곽과 닮았다는 것이다. 그뿐만 아니라 생김새, 색상의 유사점을 보면, 인식에서 결함이 생길 수 있는 여지가 충분히 많다. 


Louis Vaught(재료, 공학계열 엔지니어)는 '인간의 관점'에서 생각하지 말라고 제안한다.

우리 관점에서 고릴라와 인간은 꽤나 다르지만, 이미지 처리 알고리즘에게는 꽤나 유사한점이 많다는 것이다. 그렇다. 관점을 바꿀 필요가 있다.

그리고 문제가 된 이미지의 질도 살펴보자. 이미지 처리 알고리즘은 색상이 어떻게 분포되어 있는지 분석하고, 공통 패턴을 찾는 일을 수행한다. 이때, 나쁜 질의 이미지라면 이 과정에서 쉽게 오류가 생긴다.
다양한 색상이 선명하게 구분되고 주요 대상이 중앙에 배치된 좋은 질의 이미지라면 비교적 인식 오류가 적지만, 비슷한 색상이 서로 구분되지 않고, 조명이 어두운 경우는 나쁜 질의 이미지는 오류를 일으킨다. 다시보면 문제가 되었던 사진 속 여성의 사진도 머리카락과 피부, 목 부분의 경계가 선명하게 구분되지 않는다

 그는 ‘이미지 처리 알고리즘은 유사한 특성에 따라 오류를 일으킬 뿐, 인종을 구별하고 차별하지 않는다’며 실제로 한가지 테스트도 해보았다.

그가 흰색 털이 두드러지는 알비노 고릴라와 백인을 분류하라고 시켰을 때도 역시 백인을 알비노 고릴라로 분류하는 오류가 벌어진 것이다.

https://www.quora.com/Was-Googles-labelling-of-a-black-person-as-a-gorilla-an-example-of-overfitting-in-machine-learning


이 사례를 보면 인공지능의 오류가 '흑인에게 한정되는 인종차별의 문제가 아니다'라는 의견에 수긍하게 된다.
 
 대부분의 뉴스기사는 문제의 심각성을 짚으며 이를 겪은 인물의 이야기와 구글의 태도를 중심으로 다루었다. 문제에 대한 비판적인 태도가 한결 같았다.
오류에 대해서 그 이유를 추측하기 보다는 구글의 대처가 주로 담겼다. 제목이나 기사 본문에도 부정적인 감정을 이끌어내는 단어들이 많았다. '섬뜩한 AI의 편견', '인종 차별 성향', '무고한', '가혹한'이라는 단어가 등장한다.

 그래서 뉴스기사로만 사례를 접했을 때와 달리 몇몇 엔지니어들의 견해는 차분하여 낯설기까지 했다.
관련 전문가들은 이러한 문제는 '인간중심적인 사고'에서 비롯된 거라며 우려나 비난하는 태도를 보이지 않는 경우가 더 많았다.


Dan(구글 엔지니어)은 ‘사람과 고릴라의 유사점은 분명히 존재하며, 인공지능의 한계에 대해 인종적인 의논거리를 붙이지 말라’ 강조한다.
맞는 말이다. 반론할 여지가 생기지 않는다. 이쯤 찾아보고 나니  '흑인을 고릴라로 분류한 구글포토' 알고리즘이 인종차별적인 시각을 가질 수 없다는 것을 납득하게 되었다.

마지막으로 우리가 인식하는 대상과 이미지 처리 알고리즘이 인식하는 대상이 어떻게 다를 수 있는 가에 대한 Bill Thacker의 설명을 보자. 그는 인지과학자의 관점을 가져왔다.  


의자는 우리 인간에게 '가능성'을 가진 대상으로 인지된다. 우리의 뇌는 중력, 피로, 앉기를 모두 이해할 수 있다. (중력을 느끼고 피로를 안고 사며, 하루에도 몇 번씩 앉는 행동을 하는 생물이므로!)
 따라서 우리는 '앉기에 좋은, 앉을 수 있는 물체'를 감지할 수 있고, 이런 가능성을 가진 물체를 '의자'라고 인식하다는 것이다. 다리가 꼭 4개가 아니더라도 스툴이나 빈백도 의자가 될 수 있는 것이다. 
 그러나 이미지 처리 알고리즘은 우리처럼 앉을 필요도 없고 앉을 수도 없으며 앉아본 적도 없다.
'앉기'를 이해하지 못하는 컴퓨터는  '앉을 수 있는' 가능성을 가진 '의자' 아니라, 의자처럼 보이는 '의자'를 찾아야 하는 것이다. 스툴이나 빈백은 다리가 4개가 달린 전형적인 의자는 아니지만, '앉을만한 의자'라는 것은 컴퓨터에게 아주 어려운 문제가 된다.
 


 

그렇다면,  이 구글포토 고릴라 사례는 인공지능 윤리 수업에서 제외해야하는가? 
그러나 이어지는 몇 가지 정보를 더 얻으면서 끝내 나는 다른 생각이 들었다.
(2편으로 끝내고 싶었으나!ㅠ)  다음 포스팅에서 이어가겠다. 
 
(다음이야기 예고)

2. 검색을 통해 새롭게 알게 된 사실과 견해

- #2 수집된 데이터의 문제, 고릴라로 분류된 원인 추측
- #3 조치와 그 이후

3. 그 이후 수업과 나의 결론

 

반응형