본문 바로가기
AI + 대학원/AI 교육

[스크랩] 데이터 활용 사례 기사 모음

by 팡귄 2021. 6. 20.

2021. 06. 기사 스크랩

스크랩 주제 1 : 최근 빅데이터로 하는 것들 무엇들이 있을까?

스크랩 주제2 :  AI가 활용될 수 있는 곳과 활용될 수 없는 곳

오늘은! 코딩맨 원고를 위해 공부하면서 모아본 기사들을 포스팅해봅니다. 여러 사례를 읽다보면 저절로 개념이 잡히기도 하고 기사를 자주 접하다보면 더 공부해보아야 겠다는 의욕이 들기도 합니다! 

주제1과 관련하여 찾은 기사들은 아주 자세한 설명보다는 데이터를 활용한 문제해결 사례를 다양한 곳에서 찾은 것들이고, 스크랩 주제 두번째는 활용 사례를 소개하는 것이 초점이 아니라 '활용할 수 있더라도 할 수 없는 곳'을 이야기하는 데에 조금 더 초점이 있습니다. 그래서 국내,외 인공지능의 규제 법안에 대한 내용을 다룬 기사들을 스크랩해보았습니다.

 

# 스크랩 주제 1 : 최근 빅데이터로 하는 것들 무엇들이 있을까?

 다량의 데이터를 통해서 학습모델을 만들고, 이를 통해서 예측이 필요한 곳에 쓰이는 사례들입니다. 많은 양의 데이터를 가지고 [예측]을 해서 [다양한 문제를 해결할 수 있다.]라는 것에 초점을 두면 좋을 것 같습니다. 아래에 다양한 사례들이 담긴 뉴스링크와 내용 일부를 모아보았습니다

http://www.koit.co.kr/news/articleView.html?idxno=85077

 

빅데이터로 사고 가능성 높은 버스 미리 색출 - 정보통신신문

[정보통신신문=차종환기자]한국교통안전공단은 시내버스 교통사고 예방과 안전성 강화를 위해 ‘검사이력 및 차량운행행태 데이터 실시간 분석을 통한 안전예측 모니터링 서비스 구축 사업’

www.koit.co.kr

http://m.dongascience.donga.com/news.php?idx=43894

 

인공위성과 AI로 멸종위기종 아프리카코끼리 개체수 알아낸다

연구진이 위성과 인공지능을 통해 아프리카코끼리를 식별했다. 옥스퍼드대 제공. 지구상에 존재하는 육상 동물 중 가장 무겁도 덩치가 큰 아프리카코끼리는 현재 멸종위기종이다. 세계자연기

m.dongascience.donga.com

http://www.newspenguin.com/news/articleView.html?idxno=4193

 

기후위기로 죽는 나무 AI가 찾아낸다

AI가 기후위기와 멸종위기로부터 인류와 동식물 구하는 데 쓰이고 있다

www.newspenguin.com

기후위기로 죽는 나무를 예측함  환경오염 예측함 암 검사  벌 구하기  

장애인을 위한 도구  기후 변화 예측  야생동물 보호  기아 구제  불평등과 빈곤 감소에 기여

가짜뉴스 적발  의료 이미지 평가  자연재해 대비

 이렇게 ai가 활용되는 곳은 많은 정보를 반복학습해서 사람이 예측할 수 있는 범위를 넘어서는, 사람의 신체적 한계를 넘어서는 작업들에서 빛을 발합니다.  몇 가지 사례들을 보더라도 사람이 일일이 나무들이나 의료이미지를 학습하기 어려울텐데 이런 부분에서는 aI가 훨씬 효율적일 것입니다.

 

출처 : 초등학교 수학 교과서에 서술된 높이 개념과 측정 활동 분석 _ 백대현

 

 덧붙여 .. 평행사변형 삼각형 배울때 가능하면 다양한 형태로 예시를 보여주어야

'밑에 수평으로 놓여서 밑변'이라는 오개념이 생기지 않는다는 공부를 기억해보면

인공지능의 사례도 정말 가능하면 다양한 사례에서 가져와야한다고 생각이 듭니다. 

 

http://www.aitimes.com/news/articleView.html?idxno=139086

 

AI가 만든 가짜 뉴스, AI가 잡는다...정책 변화 등 인간적인 노력도 필요 - AI타임스

소셜 네트워크를 어지럽히는 가짜 뉴스의 파수꾼으로 인공 지능(AI)이 나섰다.최근 들어 전 세계적으로 이런 불법 온라인 범죄들이 더욱 기승을 부리고 있는 가운데 이에 맞서는 움직임도 활발

www.aitimes.com

 

스크랩 주제2 :  AI가 활용될 수 있는 곳과 활용될 수 없는 곳

 

 활용분야에 대한 영상이나 책은 많은데 초점은 '활용되어도 되는가?'라는 윤리적인 내용에 두었습니다. 그래서 활용분야에서는 AI가 인간의 유한한 신체적 조건을 대신하여 활약하는 긍정적인 사례를 찾아보고, 이와 대비되는 사례로 활용될 수 있지만 활용되어서는 안될 사례들과 이를 막으려는 국내, 해외(EU의 규제안 등)의 노력을 모아보았습니다.

첫 번째 아래 링크는 ai로 만들어진 앵커를 소개하는 영상입니다.

https://www.bing.com/videos/search?q=AI%ec%95%b5%ec%bb%a4&&view=detail&mid=656B4C0EA323765FA953656B4C0EA323765FA953&&FORM=VRDGAR&ru=%2Fvideos%2Fsearch%3Fq%3DAI%25ec%2595%25b5%25ec%25bb%25a4%26FORM%3DHDRSC4

 

AI앵커 - Bing

Bing은 지능적인 검색 기능은 사용자가 원하는 정보를 빠르게 검색하고 보상을 제공합니다.

www.bing.com

 # 실제로 최근 활용되고 있는 ai앵커이구요, 피로해지지도, 긴급한 상황에서는 언제든 불러와서 소식을 전달할 수 있다는 장점이 있다고 합니다. 김주하 앵커도 ai로 만들어져서 뉴스를 전하는 영상들이 많이 만들어져있었습니다.

현재 5학년 아이들에게 보여주면서 수업했을때 (저 또한 ㅎㅎ) 구분을 전혀 못해서 다같이 깜짝 놀랐었습니다. 실제같이 구현해서도 이유지만, 벌써 이렇게 쓰이고 있을 줄 예상을 못했기 때문에 뉴스영상 속 인물이 AI라고 생각을 못한 탓이 더 큰 것 같습니다.

# 그러나 예측을 참고하더라도 전적인 판단을 AI에게 맡기거나 중요한 결정 (살상 무기, 해고 또는 고용, 재판 등)을 맡기는 것은 위험할 수 있습니다. 특히 인권침해를 일으킬 수 있는 부분도 반드시 먼저 고려되어야하구요. 이에 관하여 (1) 국내에서 발표된 법안 관련한 뉴스와 (2) EU에서 발표한 인공지는 규제에 대한 뉴스, (3) 영화 속에서 예견했던 사례도 살펴보겠습니다.

우선 (1) 아래는 며칠 전 발표된 뉴스입니다. 중요한 문제점을 잘 드러내는데 인공지능이 사람이 이해할 수 없는 범위의 학습모델을 만들어 도움을 주지만 바로 이 때문에 발생하는 문제입니다.

 

사례(1) 진흥·규제' 두마리 토끼 잡는 'AI 기본법' 나올까

출처 : http://www.inews24.com/view/1377389 '

◆ 설명 불가능한 AI 결정 문제…설명요구권·특수활용 인공지능 신고제 도입

이번 법안 제정의 계기로 'AI면접'을 사례로 들었다. 최근에 AI 면접이 늘어나면서, 이를 준비하기 위한 학원들도 생겨나고 있다. 단순히 또다른 비용이 발생한 문제가 아니라, AI면접이 합불의 당락을 결정하는 직접적 수단으로 자리잡게 된 것. 다만, 문제는 AI의 결정을 그 누구도 설명해줄 수 없다는 데 있다. AI와 사람의 판단차도 발생한다.

박철관 보좌관(정필모 의원실)은 "AI면접으로 떨어진 지원자가 왜 그러한 결과를 얻었는지 누구도 설명해주지 못하는 상황이 발생하고 있다"면서, "인공지능이 국가적인 신성장 동력으로 거론되고 있는 만큼, 국회 입장에서는 경제와 산업을 진흥할 의무와 함께 유권자인 국민들이 신뢰받는 인공지능을 사용할 수 있도록 환경을 조성해야 할 의무가 있다"고 법안 제정의 배경을 설명했다.

사례(2) EU의 인공지능 규제 제안

EU가 훨씬 앞서서 제안을 하였는데, 인공지능이 쓰이면 안되는 곳 [금지] 과 [고위험군]. [저위험군] 으로 나누어 제시했습니다, 아래 사설이 비교적 취지를 잘 설명하고 있습니다.

출처 : https://www.news1.kr/articles/?4336227 [이성엽의 IT프리즘]또 앞서가는 EUAI 규제법안

규제안은 금지되는(Unacceptable) AI, 고위험(High risk) AI, 저위험(Low or minimal risk) AI3분류하고 각각의 유형과 의무를 규정하고 있다. AI가 기본권과 안전에 초래하는 위험에 따라 규제를 달리하고 있는 것이다.

첫째, 금지되는 AI는 다음 4가지이다. 1) 잠재의식에 영향을 미치는 기술을 통해 사람들의 행동을 왜곡하거나 조작하는 경우 2) 연령, 신체적 또는 정신적 장애 등에 기반한 특정한 집단의 취약성 이용하는 경우, 3) 공공기관이 AI 기반 사회적 점수화(social scoring)를 통해 자연인의 신뢰도를 평가 및 분류하는 경우 4) 법 집행을 위한 목적으로 공개적으로 접근가능한 공간에서 실시간 원격 생체 인식 시스템을 사용하는 경우. , 압수수색, 급박한 위험 방지 등 일부 상황에서는 예외적으로 허용된다.

둘째, 고위험 AI는 자연인의 건강, 안전, 기본권에 고위험을 야기할 수 있는 경우로 크게 보면 제품의 안전요소로서 사용되어 사전에 제3자 적합성 평가가 요구되는 AI 시스템과 생체 인식 및 분류, 교육, 고용, 법집행 등 기본권에 영향을 미칠 수 있는 환경에서 독자적으로 활용되는 AI 시스템이다. 고위험 AI에 대해서는 데이터 및 데이터 거버넌스, 문서 및 기록 유지, 투명성 및 사용자에 대한 정보 제공, 인간에 의한 감독, 견고성, 정확성, 보안 등의 의무가 요구된다. 부속서에 따르면 1) 자연인의 생체 인식 및 분류, 2) 중요 인프라의 관리 및 운영, 3) 교육 및 직업훈련, 4) 고용, 근로자 관리 및 자영업에 대한 접근, 5) 필수적인 민간 서비스, 공공 서비스 및 혜택에 대한 접근 및 향유, 6) 법 집행, 7) 이주, 망명 및 국경 통제 관리, 8) 사법행정 및 민주적 절차 8가지가 고위험 AI로 규정되어 있다.

셋째, 저위험 AI는 의무는 없으나 자발적 준수를 위한 행동강령의 수립이 권고된다. 다만, 챗봇처럼 자연인이 AI 시스템과 상호 작용하는 경우와 자연인이 감정 인식 또는 생체 인식 분류 시스템에 노출되는 경우 이를 당사자에게 고지해야 한다. 또한 AI 시스템을 사용하여 기존의 사람, 장소 또는 사건과 현저히 유사하고 마치 진본처럼 보이는 이미지, 오디오 또는 비디오 콘텐츠를 생성하거나 조작하는 사용자는 인공지능 아웃풋에 적절한 라벨을 표시하고 그 인공적 기원을 밝힘으로써 해당 콘텐츠가 인공적으로 생성 또는 조작되었음을 공개해야 한다.

EU에서 발표한 내용을 구체적으로 자세히 전하는 기사는 [전문] EU AI 백서 '신뢰 생태계 구축-규제 프레임워크' < 포커스 < 인사이트 < 기사본문 - 테크월드뉴스 (epnc.co.kr)

 

[전문] EU AI 백서 '신뢰 생태계 구축-규제 프레임워크' - 테크월드뉴스

[테크월드뉴스=이혜진 기자] 유럽연합(EU) 집행위원회는 2019년 \'신뢰할 수 있는 인공지능(AI) 윤리 가이드라인\'을, 작년 2월에는 \'AI 백서\'를 연이어 발표했다. 2019년 말 취임한 우르줄라 폰데어

www.epnc.co.kr

 위 기사에서 잘 다루고 있습니다. 이 기사는 한번 꼭 읽어보면 좋을 것 같습니다. 나름 한번쯤은 예상해보았던 문제에 대하여 보다 구체적으로 논의해서 나름에 해결책을 제안한 점도 있어 읽어보는 재미도 있고, 아직 마땅한 해결책을 내리지 못한 부분도 있어서 앞으로 어떤 논의가 필요할지 생각해보게합니다.

최근에는 위와 관련하여 구체적인 벌금도 논의하고 있습니다.

출처 : https://www.hani.co.kr/arti/international/international_general/992159.html EU, 인공지능 남용 제동위반시 최소 400억 벌금도 논의

 

EU, 인공지능 남용 제동…위반시 ‘최소 400억 벌금’도 논의

인종 차별 등 편향된 알고리즘, 감시·통제 금지 규정안 발표 미국·중국이 주도하는 기술에 대한 국제 기준 제시 움직임

www.hani.co.kr

 

 사례3 영화 속에서 예견되었던 사례      

아래 기사는 좀 더 영화같은 사례를 이야기하는데요예측을 그대로 신뢰해야하는 가, 인공지능이 최종 결정까지 단독으로 내려도 옳은가 생각해보게 합니다.

출처 : http://www.aitimes.com/news/articleView.html?idxno=137551

실제로 살인현장의 영상을 분석해 추후 어디에서 비슷한 사건이 일어날 지를 예측하는 영화 속 기술은 현 단계에서 얼마든지 가능하다. 영화 속 배경은 2054년 미 워싱턴주다. 극중 탐 크루즈는 범죄를 예측해 사전에 범죄자를 처단하는 최첨단 치안 시스템 프리크라임을 운용하는 팀장이다. 주인공답게 뛰어난 형사적 감각으로 수많은 범죄자를 미리 색출해 체포한다. 그러다 어느 음모에 휩싸이면서 그 자신이 예비살인자로 몰려 이를 해결하기 위해 고군분투하는 내용이 주요 줄거리다프리크라임이 가동되는 영화 속 사회는 작가 조지 오웰이 쓴 소설 ‘1984’를 연상케 한다. 시민의 안전과 범죄 없는 청정사회를 만들기 위한다는 명분 아래 프리크라임은 조금이라도 범죄를 저지를 가능성을 포착한다면 조금의 자비도 베풀지 않고 체포한다. 선처 따위 없는 냉정한 시스템 앞에 인간은 자신을 변호할 시도도 못한 채 무력하기만 하다. 1984 속 빅브라더처럼 프리크라임이 자신을 감시하고 있다는 공포가 어떤 유형의 인간에게는 늘 따라다닐 수 있는 것이다.

출처 : http://star.ohmynews.com/NWS_Web/OhmyStar/at_pg.aspx?CNTN_CD=A0002736256

+ 사례4 인공지능보다 인간의 결정이 더 나을 수 있을까? 생각을 던지는 다큐멘터리

마지막으로 다큐멘터리에서 인간이 더 나은 결정을 할 수 있지 않은가에 대한 생각을 던지는 내용이 있어 가져왔습니다.

다큐멘터리 말미에, <트위터와 최루가스>의 저자 제이넵 투펙치(Zeynep Tufkeci) 박사가 1983년 소련에서 실제 있었던 일화를 하나 소개한다. 당시 군인이었던 스타니슬라프 페트로프가 근무하는 중에 미국이 소련을 향해 핵무기를 발사했다는 신호가 떴다. 사실인즉 햇빛을 ICBM으로 오인한 소련 인공위성의 오류 메시지였지만 사건 당시에는 정당한 메시지로 보였다. 그런 비상상황에서 군인이 어떻게 해야 하는지에 대한 매뉴얼은 이미 나와있던 터였다. 그러나, 페트로프는 그 매뉴얼을 따르지 않았다. 핵무기 발사신호가 떴다는 것을 윗선에 보고하지 않았으며 가족에게도 알리지 않았다. 그는 글자 그대로 가만히 있었다. 그의 머릿속에 "그래도 우리가 똑같이 죽이러 가면 안돼"하는 생각이 떠올랐기 때문이었다. 그런데, 만일 그때 그 순간 그 자리에 페트로프가 아니라 AI가 앉아있었더라면 어떤 일이 일어났을까? AI'맞대응''핵전쟁'이라는 프로그램을 가차없이 주저없이 효율적으로 전개했을 것이다.

 

이를 어떻게 받아들일지, 혹은 어떻게 수업을 할지는 개인에게 달려있지만 포스팅해놓고 보니 정말 생각해볼 부분이 산더미인 것은 맞는 것 같습니다. 특히 마지막 부분들은 어떻게 이야기하느냐에 따라 정말 다양한 주제에서 사례로 이야기해볼 수 있을 것 같습니다. 

 

반응형