인공지능 알고리즘과 윤리 이슈
1. AI and creativity (AI가 인간의 고유 영역인 창작을 할 수 있을까?)
위 사진은 구글의 magenta 프로젝트, 컴퓨터 비전 알고리즘의 딥 레이어 속 모습이다. 예전의 인공지능 예술은 위 사진 같은 느낌이지만, GAN(적대적 생성 신경망) 모델 출범 이후 다양한 분야, 특히 음악에서는 단순한 모방과 변형을 넘어 새로운 선율과 음색을 만들 수 있게 되었다. (AI 이야무스가 교향곡 제작.)
자연어 처리의 혁신(NLP분야): 대형 플랫폼마다 초거대 언어 모델 개발. (Open AI의 GPT-3, 딥마인드의 고퍼, MS의 Megatron-Turing) 이러한 초거대 언어 모델들은 문맥을 이해하고 방대한 지식을 쌓아 질의에 응답할 수 있으며 챗봇 형태로 일상적인 대화까지 가능하다. (글쓰기, 주가기사 작성 등등 )
ex) IBM의 project debator는 대학생 수준의 토론 참여 가능.
ex) 일본 AI 프로그램 "호시 신이치"가 SF부분 문학상 1차 예선 통과
이렇게 발전된 AI가 상업적 가치를 지니게 되면서 윤리적인 문제 발생.
2. AI Art in Action
위 사진 속 그림은 인공지능이 만들어낸 작품이다. 우리돈 약 5억 원에 판매된 첫 고액 거래 작품인데 큰 논쟁거리가 담겨 있다.
1. 이 작품의 제작자는 알고리즘의 프로그래머가 아니다.
AI 예술 작품은 학습 데이터 기반이다. 과연 창작성(originality)이 존재한다 말 할 수 있을까? 인공지능에게 저작권 권리를 줄 수 있을까? 학습 데이터, 프로그래머, 기획자 사이의 저작권 분배 이슈 존재한다.
NFT(대체 불가능한 토큰 non-fungible token)의 유행으로 AI의 작품들이 높은 가격에 거래되고 있다. (예술가들의 직업을 충분히 대체할 수 있는 상황) 심지어 작품을 만드는 것이 AI에게 어려운 일도 아니다.
인공지능의 작품들이 저작권 없이 거래되고 있다면 누구나 복제할 수 있기 때문에 알고리즘을 제작한 사람도 혜택을 볼 수 없게 된다. 그렇다면 저작권을 줘야 할까 말아야 할까?
3. Copyright issues
AI에 대한 저작권은 쉬운 이슈가 아니다.
이유 1. 학습에 사용된 데이터를 제공한 사람에게도 혜택이 돌아가기 어렵다. (학습 데이터마다의 기여도, 데이터 원작자가 누구인지 찾기 힘듦.)
이유 2. 창작자인 AI는 법적 권리를 제공할 수 있는 법적 제도가 없다.(창작은 사람만이 할 수 있다고 한정되어 있음)
이유 3. 현존하는 예술가의 스타일을 따라한 예술 작품을 만들 경우 상업적 피해를 준다.
이유 4. 창작된 작품이 인간의 윤리적 규범을 따르지 않을 수 있다.(창작된 작품이 폭력, 차별을 조장하는 경우)
법적 권리를 가진 주체 -> 법인
법인의 범위
- 법인은 법적 권리와 의무에 대한 책임 소지한다.
- 정부, NGO, 자연, 회사 등 자연인이 아닌 법인도 존재한다.
- 법인의 권리와 의무가 일부만 부여될 수 있다.
! 인공지능은 아직 법인에 속하지 않는다.
2017 인공지능을 법인으로 인정하자는 제안 이 유럽연합 내에 제기
찬성 | 반대 |
간단 책임의 문제가 손십게 해결 | 법적 처벌의 도피로 악용(liability shields) -> 뭔가 잘못된 경우 '내가 아니라 인공지능이 그랬어' |
혁신과 사회발전의 방향 | 도구주의에 반함 |
법제도가 일관성있게 유지 | 인류에 대한 수치 |
자연인이 아닌 법인이 이미존재 | 처벌의 어려움 |
4. AI contributed harm
아시모프의 로봇 3원칙
1. 로봇은 인간을 다치게 해선 안되며, 인간이 해를 입는 걸 방관해서도 안된다.
2. 법칙 1에 위배되지 않는 한 로봇은 인간의 명령에 복종한다.
3. 법칙 1과 2에 위배되지 않는 한 로봇은 스스로를 보호해야 한다.
하지만 언제든 예외사항은 발생하기 때문에 어떤 원칙도 안정적으로 로봇에 부여하지 않고 있음.
아직 로봇, 인공지능을 다루는 원칙들이 부재함에도 자율주행자동차와 같은 서비스들이 상용화되고 있다. (완벽한 자율 주행인 5단계는 허용되고 있지 않음.)
쟁점 -> 사고 여러 번 있었음
1. 주행자인 우버가 보행자를 쳐 사망에 이르게 한 사건
차 안에 운전자 있었지만, 모니터를 보고 있어 사람이 지나가는 걸 인지하지 못함.
치인 사람은 야밤에 자전거를 끌고 무단횡단 중. 이는 학습 데이터에 없었음. 고로 예측하지 못한 상황 직면.
법적 책임은 누구에게 있는가? (차량 소유자, 우버 회사, AI개발자, 운전자, 자율주행차, 보행자? -> 결정되지 않음.)
대상자는 문제 인식이 가능했는가?
어떤 방식으로 처벌 가능한가?
처벌이 이뤄졌다면 충분한가?
위 사건은 우버는 책임을지지 않는다는 판결이 났다.
자율주행이 상용화되면 이 쟁점을 피할 수 없을 것이다.
MIT의 Moral Machine Experiment
트롤리 문제.
빠른 속도로 기차 혹은 자동차가 접근한다. A나 B 두 가지의 선택지 중 반드시 하나를 골라야 하는 경우 인공지능은 어떤 선택을 해야 하는가?
연구) 게임을 만들어 다양한 상황 제시 -> 230개국의 수 만 명을 대상으로 데이터 수집
Moral Machine 설문을 통해 알고리즘 선호도 측정
다수 vs 소수
직진 -> 많은 보행자 사망
방향 변경 -> 적은 보행자가 사망
탑승자 vs 보행자
직진 -> 차에 타고 있는 탑승자 사망
진로 병경 -> 보행자 사망 (보행자 : 무단횡단 하는 사람, 사회적 지위가 높아 보이는 사람, 어린이, 노약자 등등 )
중요한 점은 AI 개발 과정에서 이런 논의가 되지 않은 채 사용화된 서비스가 있다는 것이다.
미래의 인공지능은 보조 역할 보단, 가족, 친구, 동료처럼 좀 더 대등한 역할로 우리와 공존할 것(노인, 어린이 돌봄 영역).
-> 권리나 책임을 부여할 수 있을까?
if) 만약 권리를 부여한다면
1. 로봇을 학대하지 않을 권리 (로봇의 인격화)
결론 : 새로운 도전
- 인간의 창조적 활동 영역으로 들어온 인공지능
: AI가 기술혁신 창작 도구로 활용이 점차 확대됨에 따라, 인간의 개입 없이 독자적 창작과 혁신호라동이 가능한 수준으로 발전하리라 전망.
-AI 시대 지식재산, 법인격, 처벌 그리고 윤리 문제 부각
: AI에 의한 발명과 저작 등에 대한 법제 정비, 미래 강한 AI가 등장했을 시 법인격을 부여할지 논의, 오동작시 처벌과 윤리 규정을 마련등이 필요하며 이러한 논의가 다양한 계층 시민의 수요와 요구를 반영하도록 유의해야 함.
- AI에 대한 경계와 규제 선택은 인류에 대한 재정의
'LG Aimers > Module 1. AI윤리' 카테고리의 다른 글
[Module 1. AI윤리] Part 3. 세계적인 데이터 과학자가 되는 법 (0) | 2023.01.03 |
---|---|
[Module 1. AI윤리] Part 1. 데이터 분석과 AI학습에서 유의할 점 (2) | 2023.01.02 |