검색하기

플랫폼경제알고리즘

플랫폼 기업의 알고리즘 편향과 지배 문제

  • 입력 2021.12.29 10:33      조회 1702
    • 이동한 정의정책연구소 책임연구위원
  • 태그

  • #플랫폼경제#알고리즘
  • 공유하기

  • Algorithm 3 1000x543.jpg

플랫폼 기업의 알고리즘 편향과 지배 문제


이동한(정의정책연구소 연구위원)


본 연구보고서는 프리드리히 에버트 재단 한국사무소와 정의당 부설 정책연구소인 정의정책연구소의 정책연구비 지원에 의해 작성되었습니다.



목  차

요약문

1. 우리의 일상에 들어 온 인공지능과 알고리즘
1) 나의 일상, 내 가족의 프로파일, 빅데이터
2) 감시자본주의와 민주주의에 대한 위협
3) 자동화된 불평등 피드백 루프
4) 플랫폼 기업의 권력: 페이스북

2. 알고리즘 편향·차별·위험
1) 정의: 알고리즘, 인공지능, 로봇, 프로파일링
2) 알고리즘 편향이란
3) 알고리즘 편향: 사회적 분극화, 그리고 차별
4) 알고리즘의 차별 vs 인간에 의한 차별
5) 검색 편향
6) 인공지능의 위험인지와 알고리즘 거버넌스

3. 정책 방향 1: 인공지능, 투명성과 공정성 윤리기준
1) AI 윤리가이드라인: 유럽의 신뢰 가능한 AI(truthworthy AI)
2) 알고리즘의 투명성과 설명가능성

4. 정책 방향 2: 플랫폼 공유 방안
1) 생산수단으로서의 인공지능과 로봇에 대한 소유
2) 공유자원으로서의 플랫폼

5. 맺음말

참고자료


요약문

우리는 일상적으로 스마트폰, 태블릿, PC를 사용하여 날씨와 교통 상황을 체크하며, 생활에 필요한 상품과 배달음식을 주문하며, 일상과 업무에 필요한 정보를 검색하고, 각종 가상의 공간에서 소통과 게임 등 다양한 체험을 향유하고 있다. 

한편 내가 체험하고 행위하는 바로 그 공간이 아닌 또 다른 공간에서는 나의 행위들이 엄청난 양의 데이터로 수집되며, 가공되고, 프로파일링되고 있다. 이렇게 생성된 데이터들은 이윤추구가 목적인 플랫폼 기업이 만든 일련의 규칙 체계에 의해 새로운 정보와 상품으로 가공되어, 다시 나의 스마트 기기와 일상 안으로 되돌아온다. 이 상품들은 상업적 동기를 가진 자들에 의해 새로운 정보로 제공되거나, 미래 행위를 예측하거나, 사람을 구분하고 판단하는 데에도 활용된다. 

개인들로부터 발생한 데이터들이 새로운 상품으로 바뀌어 다시 개인들에게 되돌아오는 과정은 데이터들에게 가해진 일련의 명령체계, 즉 알고리즘에 따라 결정된다. 그런데 이 새로운 상품은 사용자에게 유익한 사용가치를 제공해야 하지만 동시에 기업에 수익을 제공해야 한다. 따라서 이러한 목적에서 자유롭지 않은 알고리즘이 제공하는 선택과 상품이 과연 우리의 삶에 긍정적으로만 작용하고 있는가에 대한 의문이 제기된다.

플랫폼 기업이 만든 알고리즘을 품은 AI는 학습과정을 필요로 하는데 이때 사용된 정보가 제한적이거나 편향되면 교육된 AI 역시 이 과정을 통해 편향성이 추가된 된다. 이는 단지 의심의 수준을 넘어 인간, 사회, 민주주의에 대한 위협으로 우리 생활 곳곳에서 감지되고 있다. 

AI는 무엇보다 합리적이고 공정한 결정권자로 인식되고 있지만, 현실에서 알고리즘은 차별을 발생시키며, 때로는 사회를 분극화하는 형태로 편향성을 보이고 있다. 인간과 인간 간의 직접적 관계에 그러한 알고리즘이 개입되면, 인간과 인간의 관계가 왜곡되어 갈등이 양산되고, 인류의 진화과정에서 발전한 도덕적 감성은 이기적 이윤추구와 충돌하고, 이 과정에서 규정적 힘으로 작용하는 플랫폼 기업의 독점적 권력은 인간의 관계와 사회에 형성된 도덕적 체계를 훼손한다. 

플랫폼은 분명, 공간과 시간을 넘어 서로를 연결시키며, 거래의 비용을 줄여주며, 개인의 가치 생산이 사회적 소비로 이어질 수 있는 기술적 조건을 제공하며, 인간의 인식적 한계를 보완할 수 있고, 불확실한 미래에 대응할 수 있도록 하는 긍정적인 잠재력을 가지고 있다. 따라서 플랫폼이 갖는 협업적이고 네트워크화된 성격을 고려하면, 플랫폼이 제공하는 순기능은 여전히 우리의 일상과 노동과정에 순기능을 발휘할 가능성은 있다. 그러나 현재로선 그것은 단지 가능성에 그칠 뿐이다. 

그 가능성은 집중된 기업 소유와 이윤 극대화의 구조로부터 플랫폼이 가지고 있는 민주적이고 능동적인 가능성을 해방시킬 때 비로소 현실화되고 확장될 것이다. 

우리는 알고리즘이 무엇이고 그 편향의 실체가 무엇인지, 그것이 우리의 일생에 주는 변화의 내용은 무엇이고, 그 해악은 무엇인지를 확인하고 인식할 필요가 있다.

이에 알고리즘의 투명성을 강화하고 설명가능성을 높이기 위한 AI의 윤리기준과 유럽의 개인정보보호법인 GDPR을 간략히 소개하고, 투명화법안의 내용을 소개하고자 한다.

또한 현재 플랫폼이 독점하고 있는 경제적 권력을 분산하고 민주적이고 공익에 부합하며, 비판과 참여를 통해 편향의 현상을 극복해 나갈 수 있는 새로운 플랫폼 소유지배구조를 모색하고자 한다. 

최근 공공플랫폼에 대한 정부와 지자체의 관심이 높아지고 있고 공공앱을 현실화하는 시도도 나타나고 있다. 그러한 시도와 함께 한편으로는 주식회사라는 공적 형태를 취하고 있음에도 소수 개인의 영향력에 좌우되는 플랫폼 기업을 민주적 소유지배구조를 가진 기업으로 전환하는 방안을 상상하고 모색해 보는 것도 의미가 있다고 할 수 있다. 이에 공공재로서의 플랫폼이 나와 우리의 이익을 위해 효율적으로 작동할 수 있는 지배구조로의 전환 방안을 소개하고자 한다.


1. 우리의 일상에 들어 온 인공지능와 알고리즘

1) 나의 일상, 내 가족의 프로파일, 빅데이터 Apple, 2021, “당신의 데이터는 어떤 하루를 보내는가”를 토대로 재구성함.
(주: Apple, 2021, “당신의 데이터는 어떤 하루를 보내는가를 토대로 재구성함)


승용차로 딸과 함께 놀이 공원으로 향하기 전 홍길동은 스마트폰으로 날씨를 검색하고, 뉴스 기사를 읽고, 지도 앱으로 출근 길의 교통 상황을 확인한다. 잠시 후 이동하는 차 안에서 딸은 아빠의 태블릿으로 게임을 할 수 있게 허락받는다. 홍길동의 스마트폰에서는 네 개의 앱이 백그라운드에서 구동되며 주기적으로 그들의 위치 데이터를 수집하고 추적한다. 딸의 태블릿에서는 게임 앱의 구동과 함께 킥보드 광고가 뜬다. 

앱 개발자는 기기에서 추출된 데이터를 다수의 제3자 데이터 브로커에 판매하는데, 이들의 신원을 앱 개발자는 알 수 없고, 홍길동 역시 들어본 적도 없는 사람들이다. 딸이 킥보드 광고에 대해 반응한 모든 데이터 역시 딸은 알 수 없는 판매자에게 판매된다. 

딸이 홍길동의 태블릿 화면에서 킥보드 광고를 보게 된 것은 우연이 아니다. 광고주들은 해당 기기에 자사의 광고를 노출시키기 위해 경매에 참여한다. 딸이 사용 중인 앱의 개발자가 에드 테크 기업을 고용해 경매를 통해 실시간으로 광고 공간을 확보한다.

수백 개의 데이터 브로커와 광고 네트워크는 온라인 및 오프라인 경로를 통해 데이터를 수집한다. 보통 하나의 브로커가 전 세계 7억 명의 소비자 데이터를 수집하고, 이 데이터를 활용해 최대 5천 가지의 성향이 담긴 다양한 소비자 프로필을 완성한다.

수집된 위치 데이터는 익명의 정보로 보관되는 것으로 알려져 있지만, 실제로 사용자 추적 기술은 데이터 브로커들이 해당 앱에서 얻은 홍길동의 위치 이력을 그가 설치한 다른 앱의 사용 정보와 매치시킬 수 있게 해준다. 즉, 다양한 앱 및 다수의 소스를 추적해 수집된 정보는 어느 기업, 어느 기관에나 팔려나갈 수 있고, 홍길동의 상세한 하루 일과가 포함된 포괄적인 프로필을 만들어내는 데에도 쓰일 수 있다.

결과적으로 홍길동이 한 번도 거래해본 적 없는 전 세계 수많은 기업들이 그와 그의 딸에 관한 정보로 부녀의 프로필을 업데이트할 수 있게 된 것이다. 이 기업들은 홍길동의 거주지는 물론 이 부녀가 방문한 공원의 위치, 그들이 읽은 뉴스 기사 웹사이트, 검색한 제품, 시청한 광고, 구매 습관, 방문한 매장의 위치까지 알고 있다. 이와 같은 데이터는 홍길동과 그의 딸이 하루 종일 사용한 다양한 앱 및 기타 소스를 통해서 수집 및 추적되었던 것이다. 

2) 감시자본주의와 민주주의에 대한 위협

지난 3월 네이버 뉴스 알고리즘이 지나치게 보수 편향이라는 내용의 MBC ‘스트레이트’가 방영된 후 이를 둘러싼 논쟁이 있었다. MBC ‘스트레이트’는 네이버 뉴스 모바일 알고리즘을 추적하는 보도를 통해 네이버가 보수언론에 편중됐다고 보도가 나갔다. 

언론은 대중들에게 사회적 이슈에 대해 객관적 정보를 제공하고 다양한 의견을 전달하여 대중들의 정치적 의사결정에 미치는 영향력이 크다고 할 수 있다. 현재 언론 환경은 포털의 인공지능 도입으로 인해 엄청한 변화를 맞이하고 있다. 포털은 다양한 언론 매체로부터 확보한 뉴스를 이용자에게 제공하는 과정에서 뉴스 접근에 상당한 영향을 미칠 수 있다. 대부분의 사람들은 포털 사이트의 첫 페이지의 뉴스 머리기사나 사진을 보고 뉴스를 선택하기 때문이다. 따라서 민주주의의 발전을 위해서는 언론의 공정한 운영이 중요한 의미를 가진다.

2016년 미국 대선 당시 페이스북이 영국의 데이터 분석회사인 케임브리지 애널리티카(Cambridge Analytica)에 8,700만 명의 이용자 정보를 유출했던 사건이 있었다. 당시 유출된 데이터는 트럼프 전대통령의 대선 캠프에 전달되었고 개인별 맞춤형 선거 전략을 세우는 데 활용된 것으로 알려졌다. 트럼프의 대통령 당선에는 자신들의 정보가 큰 역할을 했다는 케임브리지 애널리티카 임원의 말이 언론에 보도되면서 큰 논란을 일으켰다. 페이스북은 개인정보 보호정책과 소비자보호법을 위반했으며 부적절한 목적이 있었음을 알면서도 이를 묵인했고 관련 내용을 이용자들에게 알리지 않았던 것으로 확인되었다.

거대한 규모와 경제 비중을 가진 빅테크 기업의 시장 독점이 고착화되면서, 독점적 지위의 플랫폼 기업은 데이터들을 사용하여 부당하게 사회의 가치를 취득하고 나아가 민주주의를 위협할 수 있게 위치에 서게 되었다.

정보통신 플랫폼 기업들은 인간의 경험을 자원으로 활용해 상품을 만들어 이윤을 얻고 있는데, 이 경제에 대해 하버드 경영대학의 쇼샤나 주보프(Shoshana Zuboff)는 ‘감시자본주의(Surveillance Capitalism)’라는 이름을 붙였다. 

그녀는 미국의 플랫폼 기업들은 이용자들의 경험로부터 가치를 끌어내는 것을 절대적인 목표로 추구한다는 새로운 경제 논리를 제시한다. 또한 인간의 경험이 플랫폼 기업의 예측 상품의 자원이 되는 과정, 즉 감시자본주의의 메커니즘을 다음과 같이 설명한다.

“감시 자본주의 역시 이러한 패턴을 따른다. 하지만 여기에는 일종의 어두운 반전이 추가된다. 그것은 인간의 경험을 무상 원료의 원천으로 만들고, 또한 시장의 힘에 종속시켜 행동 데이터로 재탄생하게 된다는 것이다. 그런 다음 이러한 행동 데이터를 최신 컴퓨터의 능력과 결합시켜 인간의 행동을 예측한다. 그래서 이 모든 행동 데이터들은 [이른바 기계 지능, 기계 학습, 인공 지능으로 불리는] 21세기 어두운 사탄의 맷돌 속으로 줄을 이어 들어간다. 그 목적은 새로운 종류의 생산물 즉 예측을 쏟아 내기 위해서다.”(주: https://nymag.com/intelligencer/2019/02/shoshana-zuboff-q-and-a-the-age-of-surveillance-capital.html)

3) 자동화된 불평등 피드백 루프

방대한 양의 데이터는 하루 24시간 쉬지 않고 처리된다. 수학자와 통계 전문가들은 이런 데이터를 통해 인간의 욕구와 행동, 그리고 소비력을 조사한다. 뿐만 아니라 개개인의 신뢰성을 예측하고 학생, 노동자, 연인, 범죄자로서의 잠재력까지 계산하기에 이르렀다. 이것을 캐시 오닐(2017)은 ‘빅데이터 경제’라고 부른다.

최근 미국에서는 입사자원자들을 심사할 때 신용평가점수를 참고하는 고용주들이 증가하고 있다. 여기에는 각종 청구서를 제때 납부하는 사람들은 정시에 출근하고 규칙을 따를 가능성이 높다는 추측이 깔려 있다. 그러나 실제로는 책임감 있고 유능한 사람인데도, 여러 가지 이유로 생활고에 시달리느라 신용평가점수가 하락하는 것을 속수무책으로 바라봐야 하는 경우도 있다. 신용평가점수가 업무 능력과 관련 있다는 믿음 때문에 신용평가점수가 낮은 사람들은 과거보다 일자리를 구하기 어려워졌다. 그들은 직장이 없으니 더욱 가난해지고, 이는 다시 그들의 신용평가점수를 더욱 떨어뜨린다. 그 결과 그들의 구직 활동은 더더욱 어려워진다. 이것이 하향식 악순환이다(캐시 오닐, 2017).

미국 전역에서 가난한 노동자 계층이 새로운 디지털 빈곤 관리 도구의 표적이 되고 있고, 그 결과 생명을 위협받는 상황에 맞닥뜨리고 있다. 자동화된 적격성 판정 시스템은 가난한 노동자 계층이 생존과 번영에 필요한 공공 자원을 요청하는 일을 단념시킨다. 복합적인 통합 데이터베이스는 사생활 보호나 정보 보안을 위한 안정장치가 거의 전무한 채로 이들의 가장 개인적인 정보를 수집하는 반면에 그 대가로 거의 아무것도 제공하지 않는다. 예측 모형과 알고리즘은 이들에게 “위험한 투자”와 “문제 부모”라는 꼬리표를 붙인다. 사회복지사업, 법집행, 주민 감시가 대단히 복합적으로 작용해 이들의 모든 움직임을 가시화해서 정부, 광고, 공개 조사를 위해 이들의 행동 양식에 대한 정보를 제공한다.

이러한 시스템이 미국 전역에서 놀라운 속도로 안전, 사회적 서비스에 통합되고 있다. 자동화된 적격성 판정은 이제 거의 모든 주의 공공 부조 기관에서 일반적인 관행이다. 노숙인 서비스 관리에서는 통합 등록 시스템이 선호되고, 미국노숙관계부처간협의회와 주택도시개발부가 이를 지지한다. 이 새로운 시스템은 저소득 지역 유색인들에게 가장 파괴적이고 치명적인 파급력을 갖지만, 피부색의 경계를 넘어 모든 가난한 노동자 계층 사람들에게 영향을 미친다. 복지 수급 가정, 노숙인, 빈곤 가정이 첨단 기술에 의한 조사의 부담이 가장 과중한데, 자동화된 의사 결정의 증가로 영향을 받는 사람들이 이들만은 아니다. 이런 시스템의 광범위한 이용은 우리 모두를 위한 민주주의의 질에 영향을 미친다. 자동화된 의사결정은 사회 안전망을 파괴하고, 가난한 사람들을 범죄자 취급하며, 차별을 심화하고, 미국의 가장 뿌리 깊은 국민적 가치를 위태롭게 한다(버지니아 유뱅크스, 2018).

오늘날 인공지능은 광범위하고 복잡한 사회 변화를 초래하고 있다. 인공지능은 인간의 판단에 도움을 주고, 그 과정에서 거래비용을 낮춰준다는 이점을 가지지만 새로운 편견을 야기해 갈등을 증폭시켜 민주주의를 위협하고, 차별을 일으키고, 불평등을 증가시킬 가능성을 가지고 있다. 

4) 플랫폼 기업의 권력: 페이스북 (주: https://www.newsquest.co.kr/news/articleView.html?idxno=89305)

페이스북의 내부고발자라고 밝힌 전 직원이 미국 의회에 출석해 페이스북의 민낯을 샅샅이 폭로했다. 페이스북이 10대 청소년에게 미치는 유해성을 알면서도 이를 모른 척하고 수익을 내는 데에 집중했다는 것이다. 내부고발자는 사실상 페이스북이 '도덕적 파산' 상태에 이르렀다고 진단하면서 의회가 나서서 규제를 해야한다고 촉구했다.

2021년 10월 5일(현지시간) 월스트리트저널(WSJ), 뉴욕타임스(NYT) 등 주요 외신에 따르면 페이스북 제품 매니저로 근무했던 프랜시스 하우겐은 이날 미 상원 상무위원회 산하 소비자보호소위원회 청문회에 증인으로 참석했다. 하우겐은 모두발언을 통해 "나는 페이스북의 제품이 어린이들에게 해를 입히고 분열을 일으키며, 민주주의를 약화시키는 등 많은 일을 한다고 믿기 때문에 이 자리에 섰다"면서 "회사 경영진들은 페이스북과 인스타그램을 더 안전하게 만드는 방법을 알고 있으면서도 천문학적인 이익을 사람보다 우선시하기 때문에 필요한 조치를 취하지 않는다"고 주장했다. (주: https://www.newsquest.co.kr/news/articleView.html?idxno=89305)

또한 하우겐은 페이스북의 내부 구조가 이러한 파행을 부추겼다고 비판했다. 즉 마크 저커버그 최고경영자(CEO)가 의결권이 있는 주식 55% 이상을 소유하고 있기 때문에 과도한 통제권을 행사한다는 것이다. 따라서 현재 사태에 대한 최종 책임은 저커버그에게 있다고 지적했다.

저커버그가 주식 소유량보다 많은 의결권을 행사할 수 있었던 것은 구글이 상장 시 1주당 10배의 의결권을 갖는 차등의결권 주식을 발행했고, 래리 페이지를 비롯한 구글 공동창업자들은 차등의결권 주식을 통해 지분의 63.5%를 안정적으로 확보했기 때문이다. '차등의결권'은 경영진이나 최대주주에게 보유 지분보다 많은 의결권을 부여하는 제도다. 

페이스북의 사례를 통해서 플랫폼기업이 야기하는 다양한 사회문제나 알고리즘의 편향의 문제는 그러한 기업의 지배구조의 비민주성과도 관련이 있다고 할 수 있다. 페이스북이나, 인스타그램의 문제점을 인지한 내부자의 의견이 반영되어 기업의 이익과 사회의 이익을 모두 고려한 의사결정이 불가능했던 기존 지배구조체계는 플랫폼 기업에 따르는 독점과 평향 문제를 해결하기 위해 극복되어야 할 과제 중 하나다. 


2. 알고리즘의 편향·차별·위험

1) 정의: 알고리즘, 인공지능, 로봇, 프로파일링

수학 및  컴퓨터 과학에서, 알고리즘(algorithm)은 유한개의 잘  정의된 명령들의 시퀀스를 말하며, 일반적으로 특정 부류의 문제를 풀거나 계산을 수행하는 데 사용된다. 알고리즘은  계산, 데이터 처리, 자동화된 추론, 자동화된 의사결정  및 기타 작업을 수행하기 위한 지침서(specification)로 사용된다. "알고리즘의 정의". (주: Merriam-Webster Online Dictionary. Archived from the original on February 14, 2020. Retrieved November 14, 2019).
 이와는 대조적으로 휴리스틱(heuristic)은 최적의 방법은 아니지만 상황에 따라 충분한 해결책을 도출하기 위해 실현가능한 방법이나 다양한 추정치를 사용하여 문제를 해결하는 기법이다.

알고리즘은 실제로는 매우 넓은 영역에 적용되는 용어인데, 인공지능(AI, Artificial Intelligence)은 인간을 비롯한  동물이 보여주는  자연지능(Natural Intelligence)과 달리  기계가 보여주는  지능이다. AI 분야의 권위있는 교과서들은 이 분야를 '지능형 에이전트(intelligent agents)'에 대한 연구로 정의하고 있는데, 즉 환경을 인식하고 목표를 달성할 수 있는 기회를 극대화하는 조치를 취하는 시스템이다. (주: Poole, Mackworth & Goebel (1998, p. 1), Russell & Norvig (2003, p. 55), Nilsson (1998), Legg & Hutter (2007))

인공지능은 무형의 알고리즘 프로그램이라는 점에서 어떠한 형태를 갖춘 로봇과는 다른 개념으로 생각될 수 있다. 그러나 로봇에 대한 일부 정의에선 ‘물리적 구현 없이 소프트웨어’에 의해 완료된 과업과 관련해서도 로봇이라는 용어를 사용한다. IFR(국제로봇연먕, International Federation of Robotics)에서는 로봇을 ‘국제표준화기구(ISO)의 로봇 정의 8373’에 근거하여 정의하고 있는데, 이에 따르면 산업용 로봇은 “자동으로 제어되고, 재프로그래밍될 수 있는 다용도의 조작이 가능한 것이며, 3개 이상의 축에 의해 프로그래밍이 가능하고, 산업 자동화의 과정에서 특정 장소에 고정되거나 이동가능한 것이다.” 그리고 서비스 로봇은 “산업 자동화를 제외한 과업 중에, 반자동 또는 완전 자동으로 작동하면서, 인간과 장비에 유용한 서비스를 제공하는 로봇”으로 정의하고 있다. 이런 점에서 볼 때 인공지능 프로그램은 로봇의 범주에 포함될 수 잇다(변순용·이연희, 2020).

알고리즘은 최근들어 이용자 개인에게 맞춤형 서비스를 제공하기 위하여 개개인의 성향을 분석하는 기술의 발전을 발전시키는데 지속적으로 이용되고 있는데, 이처럼 개인에 관한 정보를 분석하는 알고리즘을 프로파일링(Profiling)이라고 한다. 

국내 법제에서는 프로파일링에 대한 명시적 적의는 없지만, 방송통신위원회에서 마련한 “온라인 맟춤형 광고 개인정보보호 가이드라인”(2017. 2)에 온라인 광고의 맥락에서 프로파일링은 “웹사이트 방문 이력, 앱 사용 이력, 구매 및 검색 이력 등 이용자의 관심, 흥미, 기호 및 성향 등을 처리하여 이용자의 관심, 흥미, 기호 및 성향을 분석·추정하는 행위라고 정의하고 있다. 한편, EU의 개인정보보호법(GDPR)에 따르면, 프로파일링은 “특히 자연인의 업무 성과, 경제적 상황, 건강, 개인적 선호, 관심사, 신뢰도, 행태, 위치 또는 이동에 관한 측면을 분석하거나 예측하기 위해 행해지는 경우로서, 자연인에 관련한 개인적인 특정 측면을 평가하기 위해 개인정보를 사용하여 이루어지는 모든 형태의 자동화된 개인정보의 처리”를 의미한다(고학수·구본효·김종윤, 2021).

2) 알고리즘 편향이란

구글포토와 구글 광고, 마이크로소프트사 챗봇, 아마존의 구직자 이력서 평가 알고리즘 등은 글로벌 플랫폼 기업들이 제공하는 혹은 시범적으로 운영하는 프로그램들이다. 이 프로그램들은 공통점이 있는데, 모두 알고리즘을 활용하고 있으며, 모두가 혐오와 공정성 관련 논쟁에 휘말리면서 서비스 지원을 중단해야 했다. 알고리즘은 특정 목적함수를 위해 빅데이터를 통해 학습하고 이를 일반화하여 새로운 문제에 적용하거나 특정한 행동을 예측해낸다. 수학적 계산의 형식을 갖는 이 알고리즘들이 혐오와 차별, 불공정이라는 문제를 일으킨 것이다. 

캐시 오닐(2016)은 자신의 저서 『대량살상 수학무기』(Weapons of Math Destruction, WMD)에서 수학, 데이터, IT기술의 결합으로 만들어진 인공지능 알고리즘들은 지금 이 순간에도 곳곳에서 ‘보이지 않는 손’이 되어 무소불위의 권한을 휘두르고, 특히 인간의 편견과 무지, 오만을 코드화한 프로그램들은 차별을 정당화하며, 민주주의를 위협한다고 주장한다. 

그녀의 우려는 단지 미국의 일만은 아니라 세계 다양한 곳에서도 벌어지고 있다. 중국에서는 개인의 사생활이 그대로 담긴 소셜네트워크 정보를 이용하는 알고리즘을 이용해 사회적인 신용도를 평가하고 있다. 많은 국가에서 ‘가짜 뉴스’가 선거 결과에 영향을 주기 위한 의도로 만들어지고 있다. 성격과 감정까지 포착하는 안면인식 프로그램이 범죄 예방, 직원 채용에 활용되고 있다. 수학, 데이터, 인공지능이 가져오는 이러한 위험을 알고리즘 편향이라고 한다.

알고리즘 편향(Algorithmic bias)은 임의의 한 사용자 그룹이 다른 사용자들보다 더 많은 특권을 부여받는 것과 같은 불공정한 결과를 생성하는 컴퓨터 시스템 안에서 체계적이며 반복 가능한 오류(systematic and repeatable errors)를 말한다. 그 요인에는 알고리즘 설계, 또는 의도하지 않았거나 예상치 못한 사용, 또는 데이터의 코딩, 수집, 선택이나 알고리즘 훈련 방법과 관련된 결정과정이 포함되지만 이 외에 기타 많은 요인 때문에도 편향이 나타날 수 있다. 알고리즘 편향은 검색 엔진 결과 및 소셜 미디어 플랫폼을 포함하되 이에 국한되지 않고 플랫폼 전반에 걸쳐 발견되며, 의도치 않은 사생활 침해에서부터 인종, 성별, 성별, 민족성의 사회적 편견을 강화하는 데까지 영향을 미칠 수 있다. 알고리즘 편향 연구는 "체계적이고 불공평한(systematic and unfair)" 차별을 반영하는 알고리즘과 큰 관련이 있다. 이러한 편향은 2018년 유럽연합의 일반 데이터 보호 규정(General Data Protection Regulation, GDPR)과 2021년 인공지능법(Artificial Intelligence Act)과 같은 법적 틀을 통해 최근에야 다루어 지게 되었다. 신기술이 갈수록 고도화되고 불투명해지면서 보다 포괄적인 규제가 필요하다. (주: https://en.wikipedia.org/wiki/Algorithmic_bias)

편향은 여러 가지 방법으로 알고리즘에 도입될 수 있다. 데이터셋을 수집하는 과정에서, 데이터는 사람이 설계한 카탈로그 작성 기준에 따라 수집되고, 디지털화되고, 수정되고, 마지막으로 데이터베이스에 입력될 것이다. 다음으로 프로그래머는 프로그램이 데이터를 평가하고 정렬하는 방법에 대한 우선순위 또는 계층을 할당한다. 이를 위해서는 데이터를 분류하는 방법과 어떤 데이터를 포함하거나 폐기할 것인지에 대한 인적 결정이 필요하다. 일부 알고리즘은 인간이 선택한 기준에 따라 자체 데이터를 수집하기도 하는데, 이 역시 인간 설계자의 편견을 반영할 수 있다. 다른 알고리즘은 예를 들어 유사한 사용자나 사용자 그룹의 이전 선택에 기초하여 정보를 선택함으로써 인간 사용자를 위한 "관련된" 데이터를 처리하고 표시할 때 고정관념과 선호도를 강화할 수 있다. (주: https://en.wikipedia.org/wiki/Algorithmic_bias#cite_note-Gillespie_et_al-16)

3) 알고리즘 편향: 사회적 분극화, 그리고 차별

 알고리즘은 오늘날 우리가 겪고 있는 정치적 갈등, 특히 좌우 이념과 의견대립으로 나타나는 사회의 양극화와 분리할 수 없다. 필터버블과, 에코 체임버와같은 용어로 대변되는 온라인 상의 소통단절과 분극화 현상은 알고리즘 효과에 관련이 있다. 필터버블은 이용자의 개인 맞춤 알고리즘에 의해 생기는 정보편식현상을 의미하며, 이용자가 제한된 주제의 정보에 갇혀 정보의 다양성과 여론지각의 균형성이 떨어진 상태를 말한다. 필터버블은 같은 정보를 공유하는 유유상종의 정보 및 의견집단을 형성시켜, 사회적 분극화를 부추기는 원인의 하나이다. 유사한 집단 내에서 일어나는 상호작용은 또 다른 심리적인 기제인 동조화 효과를 양산하고 그 결과 집단극화가 일어난다. 에코 체임버 효과는 밀폐된 반향실(echo chamber)에서 자신과 같은 목소리가 메아리치고 증폭되는 현상이다. 디지털공간에서 유사한 사람들끼리만 소통하게 되어 점차적으로 편향된 사고가 강화되는 효과를 뜻한다. 네트워크 관점에서 보면 이런 현상을 포모필리 도는 유유상종 효과라고 부를 수 있다. 필터버블과 에코 체임버는 사람들 의 확증편샹을 강화시켜서 허위조작정보(가짜뉴스)를 생산하고 유통시키는 원인이기도 하다(황용석, 2021)

알고리즘에 의한 차별 문제는 젠더 영역에서 가장 두드러지게 나타난다. 젠더 차별은 여러 형태를 띠는데, 개발자가 이미 사회적으로 고착화된 편견을 반영하여 알고리즘을 디자인하기도 하고, 학습과정에서 또는 시장의 압력에 의하여 편향과 차별이 나타나고 강화되기도 한다(한애라, 2021). 

개발자가 젠더편향을 의도적으로 AI 디자인에 반영하는 경우로는, 인공지능 스피커의 목소리를 여성으로 하는 것이나, 혹은 딥페이크(DeepFake)를 이용한 합성 음란동영상과 같이 처음부터 젠더착취를 목적으로 알고리즘이 디자인되는 경우도 있다. 개발자가 의도하지 않은 알고리즘 편향이나 차별은, 학습데이터가 부족하여 소수자에 대한 대표성을 결여하는 경우, 학습데이터 자체가 기존의 편견을 반영하고 있고 알고리즘은 이를 그대로 학습함으로써 편향을 띠게 되는 경우, 알고리즘 자체는 성 중립적으로 설계되었더라도, 시장 메터니즘의 부가적 효과와 구조적 문제로 편향이 발생하는 경우 등으로 나눌 수 있다(Cowgill & Tucker, 2019).

Bertrand & Mullaninathan(2004)은 여러 기업들에 이력서를 보내서 인종별로 취업 기회에 있어 차별이 있는지 확인하고자 했다. 연구자들은 동일한 이력서에 오직 이름만 전형적인 이름(Emily나 Greg)인지 전형적 흑인 이름(Lakish나 Jamal)인지 차이를 두었고, 이 경우 면접 요청을 받을 확률이 얼마나 차이가 나는지 실험해 보았다. 그 결과 백인 이름의 경우 50% 이상 면접 요청을 받을 확률이 더 높은 것으로 드러났다. 더욱이 더 우수한 이력서의 경우 인종 간 차별이 더욱 심화되는 것으로 드러났다. 즉 밴인 이름의 경우 더 우수한 이력서를 제출하면 당연하게도 면접 요청을 받을 확률이 유의 하게 높아지는 데 비하여, 흑인 이름의 경우에는 더 우수한 이력서를 제출하더라도 면접 요청을 받을 확률의 증가가 더 어렵다는 점을 시사하는 것이다(김병필, 2021).

이러한 차별 문제를 해결하기 어려운 근본적인 이유는 결정자가 스스로는 차별을 한다는 인식이 없이 차별적인 결과를 낳는 결정을 내리기 때문이다. Kahneman(2011)에 따르면 사람의 사고 구조는 ① 즉각적이고 자동적인 대응에 반응하는 시스템 I과 ② 주의깊고 의식적으로 사고하는 시스템 II로 구분된다. 인간은 의도적으로 각종 데이터를 통해 차별적 결정을 내릴 수도 있지만, 위의 취업 실험에서 나타난 결과는 시스템 I이 작용한 결과, 즉 비의도적으로 발생한 것이다. 인간은 합리적인 판단을 내리고 있다고 생각하지만, 현실에서는 스스로도 모르는 사이에 수많은 편향을 일으키고 있다. 따라서 수많은 사람들로부터 발생하는 엄청난 데이터이 자동화된 선택을 하도록 하는 플랫폼 알로리즘이 소수의 영향력이 큰 지배구조 속에서 폐쇄적으로 만들어진다는 것은 상당한 위험성을 가진다고 할 수 있다.

4) 알고리즘의 차별 vs 인간에 의한 차별: 인간의 차별을 해소하기 위한 알고리즘 활용 가능성

경제학에서는 경제주체가 극한의 이기심과 이성 및 계산 능력을 가진 인간이라는 의미의 합리적 인간이라고 가정한다. 그러나 심리학과 행동경제학을 연구하는 사람들은 인간이 비합리적으로 행동하는 경향이 있다는 사실을 다양한 사례를 통해 보여준다. 그와 같은 비합리적 행동에는 차별과 같은 사회학, 심리학, 경제학 등의 고전적 연구 주제도 있다.

Kleinberg et al.(2018)은 알고리즘을 활용할 경우 차별 문제를 사법적으로 통제하는데 더 효과적일 수 있다고 주장한다. 그는 직원 채용 사례를 제시하며, 기업이나 정부가 알고리즘을 이용하여 채용 여부를 결정했다고 한다면, 소송상 입증이 훨씬 더 쉬워진다고 말한다. 즉, 차별금지 소송에서 알고리즘에 관한 전문가 증인의 감정을 통해 ① 알고리즘이 최적화하고자 하는 목적 ② 알고리즘이 활용한 데이터 및 ③ 알고리즘의 학습 과정을 확인할 수 있으므로, 알고리즘이 특정 성별, 인종, 연령을 선호하였는지 파악해 낼 수 있다는 것이다.(김병필, 2021)

Kleinberg et al.(2018)은 ‘명료하지 않은 인간의 의사결정’(ambiguity of human decision)이 종종 누군가의 차별 여부를 법체계가 알 수 없게 만든다고 한다. 알고리즘이 차별에 어떤 영향을 미치는지 이해하기 위해서는 그것이 차별  판독(detection)에 어떤 영향을 미치는지 이해해야 한다. 적절한 요건이 마련되면 알고리즘은 새로운 형태의 투명성을 위한 잠재력을 제공하고, 따라서 그러한 알고리즘이 없다면 사용할 수 없을 차별 탐지 기회를 창출한다. 알고리즘의 특수성은 또한 경쟁적 가치들 사이에서 투명한 트레이드 오프(tradeoffs)를 만든다. 이것은 알고리즘이 규제되어야 할 위협일 뿐만 아니라, 올바른 안전장치가 있다면, 알고리즘은 공정함(equity)을 달성할 잠재적으로 긍정적인 힘이 될 수 있다는 것을 의미한다.

의사결정 과정에서 알고리즘을 활용함으로써 얻을 수 있는 또 다른 혜택은 차별을 시정할 수 있는 기술적 가능성을 제공한다는 점이다. 예를 들어 Mancuhan & Clifton(2014)는 머신러닝 방법을 통해 차별 시정이 가능한 사례를 제시한다. 위 연구는 자동차 보험료 산정 시 특정 성별의 운전자에 대한 차별이 존재하는 상황을 상정한다. 자동차 보험료를 정하는 데 자동차의 종류나 사고 이력 등 사고의 위험성과 관련된 변수가 아니라, 성별이 영향을 끼친다면 이는 공정하다고 보기 어렵다. 그런데 머신러닝 기법을 이용하면 사고 이력, 자동차 종류, 운전자의 직업 및 성별 등의 각각의 변수가 자동차 보험료에 얼마나 영향을 미치는지 파악해 낼 수 있다. 다음으로 학습된 머신러닝 모델에서 성별 변수의 효과를 제거하여 성별 요인이 보험료에 영향을 미치지 않도록 수정한다. 그 결과 수정된 모델은 기존 모델에 비해 성별 간 더욱 평등한 결과를 도출해 내게 되는 것이다.

김병필(2021)은 이처럼 알고리즘을 활용한 경우 차별을 발견하고 이를 시정하는 용이해진다는 장점이 있다고 주장한다. 그는 그 이유가, 결정을 내리는 인간과 알로리즘을 서로 비교했을 때 인간이 더 ‘블랙박스’에 가깝고, 그에 비하면 오히려 알고리즘은 상대적으로 투명하기 때문이라고 한다. 인간의 경우 어떠한 근거로 특정 지원자를 선발했는지, 특정 피고인을 석방했는지 확인하기 어렵다. 이에 비해 알고리즘은 활용한 목적함수, 수학모델, 데이터는 모두 확인할 수 있다. 

그는 물론 곧바로 사회 전반에 걸쳐 알고리즘을 널리 활용하기는 쉽지 않고, 차별금지 소송에서는 원고가 알고리즘을 쉽게 감사(audit)할 수 있는 전문가 증인을 확보해야 한다는 부담이 있을 수 있기 때문에, 더욱 공정한 알고리즘을 현실에 적용하기 위해서는 추가적인 검증과 연구가 필요하다고 주장한다. 하지만 앞으로 인공지능 전문가 풀이 증가하고 인공지능 활용에 대한 사회적 수용성이 더욱 높아진다면, 차별에 대해 종전보다 더욱 효과적으로 대응할 수 있을 것이라고 한다.

이러한 관점은 알고리즘이 아니라 인간에 의한 의사결정을 통해 공정성을 확보할 수 있을 것이라는 캐시 오닐(Cathy O’Neil)의 주장과 상반된다. 


4. 정책 방향 1: 인공지능, 투명성과 공정성 윤리기준

1) AI 윤리가이드라인: 유럽의 신뢰 가능한 AI(truthworthy AI) (주: 변순용·이연희(2020)에서 European Commission(2019), High-Level Expert Group on AI presented Ethics Guidelines for Trustworthy Artificial Intelligence을 요약정리한 글을 재인용함.)

2018년에 출범한 EU의 AI에 대한 전문가그룹(High-Level Expert Group on Artificial Intelligence, AI HLEG)은 전 유럽에서 개발되는 AI와 관련된 윤리적 가이드라인을 작성하기 위해 만들어진 독립적 집단으로, 이들은 2019년 4월에 신뢰가능한 AI 구조를 법적 AI, 윤리적 AI, 건강한 AI로 규정하고 이를 4개의 윤리 원칙, 7가지 요건, 평가에 관하여 규정하는 문서를 발표하였다. 

(1) 신뢰가능한 AI의 4가지 윤리원칙

‘인간의 존엄성 존중’, ‘개인의 자유’, ‘민주주의, 정의 그리고 법치에 대한 존중’, ‘평등, 비차별 그리고 연대성’, ‘시민의 권리’라는 기본적인 권리를 토대로 하여 4가지 윤리원칙이 제안되고 있다. 

① 인간의 자율성 존중 원칙
이 원칙은 인간의 자유와 자율성에 대한 존중을 보장한다. 인간과 AI의 상호작용에서 인간은 자기 결정을 내릴 수 있어야 하고, 민주적 과정에 참여할 수 있어야 한다. AI 시스템은 부당하게 인간을 억압, 강요, 기만, 조작, 조건 지우거나 몰아가서는 안 된다. 오히려 AI 시스템은 인간의 지적, 사회적 그리고 문화적 스킬을 향상시키고 보완하고 강화하도록 설계되어야 한다. 인간과 AI 시스템의 기능 할당은 인간 중심적 설계 원칙을 지켜야 하며 인간의 선택에 적절한 기회의 여지를 남겨야 한다.

② 해악 금지 원칙 
이 원칙은 AI 시스템이 해를 발생시키거나 악화시켜서는 안되며, 인간에게 불리한 영향을 미쳐서는 안 된다는 것을 의미한다. 이 원칙은 인간의 존엄성뿐만 아니라 정신적, 육체적 통일성을 보호하는 것을 포함한다. 취약한 사람들은 보호를 방아야 하며, AI 시스템의 개발, 배치 그리고 사용에서도 적용되어야 한다. AI 시스템이 고용주와 피고용인, 사업체와 소비자, 정부와 시민과 같은 권력이나 정보의 비대칭성으로 인해 부정정인 영향을 유발하거나 악화시키는 상황에 특히 조심해야 한다. 금지되는 해악에는 자연환경이나 모든 생명체에 대한 해악도 포함된다.

③ 공정성 원칙 
AI 시스템의 개발, 배포 및 사용은 공정해야 한다는 공정성의 원칙은 실질적인 차원과 절차적인 차원을 가지고 있다. 실질적 공정성 측면은 볼리 후생 및 비용의 평등하고 정당한 분배 조장, 개인과 그룹이 불공정한 편견, 차별 및 낙인이 없도록 보장하고자 한다. 불공정한 편견을 피할 수 있다면 AI 시스템은 사회적 공공성을 높일 수도 있다. 교육, 재화, 서비스, 그리고 기술에 대한 접근에서으 평등한 기회가 조성되어야 한다. 절차적 공정성 측면에는 AI 시스템과 시스템을 운영하는 사람이 내린 결정에 대하여 이의를 제기하거나 효율적인 배상을 청구할 수 있는 능력을 포함한다. 이렇게 하기 위해서는, 결정에 책임이 있는 실체를 찾아야 하고, 결정 과정이 설명될 수 있어야 한다.

④ 설명가능성 원칙
이 원칙은 AI 시스템에 대한 사용자들의 신뢰를 구축하고 유지하는 데 있어서 매우 중요한 원칙이다. AI 시스템의 과정이 투명해야 하고, AI 시스템 능력과 목적이 공개적으로 밝혀져야 하고, 최대한 가능한 정도록 결정들이 직접적, 간접적으로 영향을 받는 사람들에게 설명될 수 있어야 한다는 것을 의미한다. 이러한 정보가 없다면 내려진 결정에 대한 적절한 이의를 제기할 수 없다. 하나의 모델이 특정한 산출이나 결정을 산출한 이유(그리고 입력요인의 어떤 결합이 결정에 기영한 이유)에 대한 설명이 항상 가능한 것은 아니다. 이러한 경우를 ‘블랙박스’ 알고리즘이라고 존중한다면, 설명가능성의 다른 조치가(예를 들어 추적가능성, 감사가능성, 시스템의 능력에 대한 투명한 의사소통) 필요해질 수도 있다. 설명가능성이 필한 정도는 산출이 잘못되거나 정확하지 못할 때의 결과의 심각성과 맥락에 의존될 것이다. 

2) 알고리즘의 투명성과 설명가능성

알고리즘이 현재 우리에게 주는 실용성 및 효율성을 충분히 활용하되 투명성을 제고하고자 하는 노력이 필요하다. 개인에 대한 설명이 투명성의 제고에 일정한 한계를 가진다면 다른 관점의 정책들도 고려하는 것이 바람직하다. 실제로 많은 학자들과 가이드라인은 정보주체에게 설명을 하는 것 외에도 투명성을 높일 수 있는 다른 방안들ㅇ르 모색해 왔다. 그중 대표적으로 것으로 전문성을 가진 (정보주체 외에) 제3자로 하여금 알고리즘의 정확성, 편향성 등에 대하여 지속적인 관리 및 감독을 하도록 하는 방안이 있다. 구체적으로는 조직 차원의 관리감독기구를 설치하는 것이나 내부감사(auditing), 품질 관리(quality assurance)를 고려해 볼 수 있다. 정보주체에 대한 설명이 투명성의 제고에 가지는 현실적 한계를 고려할 때, 정보주체에 대한 설명과 더불어 이러한 조직적 차원의 노력을 병행하는 것이 인공지능이라는 포털 언론의 새로운 편집자가 등장한 지금 우리 앞에 놓이 과제가 아닐까 생각한다.(이선구, 2021)

(1) 알고리즘 투명화법

AI의 영향력을 생각하면 인간에게 가져다주는 혜택만큼이나 잘못 사용됐을 때 끼칠 해악도 클 것임을 예상하기는 어렵지 않다. AI 윤리성에 대한 담론도 뜨겁다. 자율주행차가 교통사고를 냈을 때 누구에게 책임을 물을 것인가? 윤리적인 AI는 공정하고 안전하면서도 인간 중심적인 판단을 내려야 하지만, 자율주행 AI의 판단이 운전자나 보행자 중 어느 한 쪽을 경시한다면 심각한 문제를 야기할 수 있다.

윤리적인 AI의 요구사항 중 하나는 투명성이다. 여기서 투명성이란 ▲상호작용하고 있는 상대가 AI라는 것을 사용자가 인지할 수 있을 것 ▲AI의 판단 과정(알고리즘)을 사용자가 알 수 있을 것 등을 포함한다. 여기서 후자인 AI의 판단 과정(알고리즘)을 알 수 있어야 한다는 것은, 중요하기는 하지만 무척이나 어려운 문제다. 그렇기에 대부분의 기업들은 알고리즘의 입력값과 출력값에 문제가 없다면, 판단 과정을 알 수 없더라도 AI 서비스를 출시하고 있다.

정의당은 류호정 국회의원의 대표발의로 ‘알고리즘 투명화법’을 발의했다. 알고리즘 투명화법은 ▲알고리즘 설계 시 준수해야 할 원칙 규정, 가이드라인 보급 ▲알고리즘 서비스 이용자의 건강에 명백히 해를 끼칠 경우 조사 및 시정 명령의 근거 마련 ▲알고리즘 서비스 이용자의 알고리즘에 대한 설명요구권 부여 ▲알고리즘 관련 갈등과 분쟁 조정을 위해 방통위 산하 알고리즘분쟁조정위 설치 등을 골자로 하고 있다.(정의당 페이스북)

(2) GDPR의 설명의무

GDPR은 매우 방대한 내용의 전문(Recital)과 99개이 조항으로 이뤄진 본문으로 구성되어 있다. (주: GDPR의 원문과 번역문은 다음 사이트에서 확인할 수 있다. https://gdpr.kisa.or.kr/gdpr/static/gdprProvision.do)
 본문은 유럽연합의 회원국 내에서 자동적으로 법적 구속력을 가진다. 이것은 정보보호지침이 회원국의 입법을 통해서만 회원국 내에서 법적 효력을 가지던 것과 대비된다. 그러나 전문은 형식적으로 법적 효력이 없다. GDPR 전문은 ‘공정하고 투명한 정보처리(fair and transparent pricessing)의 원칙’을 선언하고 이 원칙을 여러 차례 언급하면서 이 원칙이 추구하는 목적을 달성하기 위하여 ① 정보주체에게 충분한 정보가 제공될 것, ② 정보주체의 이해나 권리에 발생하는 위험을 최소화할 것을 요구한다(이선구, 2021).

극단적으로 데이터를 추출하고 지나치게 의존하는 이러한 환경에서, 현존하는 GDPR 법률이 어떻게 도움이 될 수 있는가? GDPR이 웹 사이트의 개인 정보 보호 통지 또는 메일링 리스트 구독과 상호 작용할 때 주로 관련이 있다는 일반적인 가정이 있지만, GDPR의 실제 가치는 데이터 기반 의사결정의 영향으로부터 개인에게 제공할 수 있는 보호에 있다. 후자는 AI 기반 자동화가 사회에 미치는 가장 중요한 문제로 파악됐다.[25] EU에서 자동화된 의사결정의 적용범위와 범위는 의료서비스 할당에서부터 복지사기 탐지, 모집, 예측경찰, 국경통제까지 거의 모든 삶의 영역에 영향을 미친다.[26]

GDPR은 제22조에 '거부권'(right to object) 또는 '이의제기권'(right to contest)의 형태로, 그리고 제13조, 제14조, 제15조에서는 ‘설명을 요구할 권리'(right to explanation)의 형태로 인공지능의 알고리즘에 의한 자동화된 의사결정(ADM, Automated Decision Making)으로부터 개인을 보호할 수 있도록 명시하고 있다. 즉 GDPR 제22조 제1항은 '개인정보주체는 프로파일링 등, 본인에 관한 법적 효력을 초래하거나 이와 유사하게 본인에게 중대한 영향을 미치는 자동화된 처리에만 의존하는 결정의 적용을 받지 않을 권리를 가진다'고 명시하고 있다. 중요한 것은, 회원국 정보보호 당국자 회의(Article 29 Working Party, WP29)이 사소한 인간의 개입은 중요하지 않을 것이라고 주장했다. 이에 대해 비판적인 입장으로, Wachter et. al.,(2018)는, 데이터 주체에게는 '데이터 수집가들 중의 일부의 입장에서, 자신의 견해를 표현하고, 자동화된 의사결정에 이의를 제기하며, 인간의 개입을 얻을 권리'가 부여된다고 말한다. (: Wachter, Sandra and Mittelstadt, Brent, “A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI,” (October 5, 2018). Columbia Business Law Review, 2019(2): 78. Accessed at: <https://ssrn.com/abstract=3248829>)
 이처럼 GDPR을 사용하면 추론을 기반으로 ADM과 프로파일링을 평가하고 이의를 제기할 수 있다. (주: Armelle Skatulski(September 23 2020) Algorithm in command? Automated Decision-Making and the GDPR
https://autonomy.work/portfolio/gdprandbeyond/#1600857675626-7762c5dd-6d84)



알고리즘에 대한 투명성을 실현하는 것은 사회적으로 중요한 과제이지만, 설명의무를 통하여 이 과제를 해결하는 것은 그다지 간단하지 않다. 현재 설명 가능하지 않은 인공지능들이 다수라는 사실을 고려하고 설명을 제공받더라도 이를 이해하는 데에 어려움을 겪곤 하는 정보주체의 현실을 고려하지 않을 수 없다. 설명 가능한 인공지능의 개발을 목표로 하고 있지만 딥러닝 기술의 성격을 고려할 때, 정확성이 개선될수록 설명 가능성은 떨어질 가능성이 크다.(이선구, 2021) 

알고리즘이 현재 우리에게 주는 실용성 및 효율성을 충분히 활용하되 투명성을 제고하고자 하는 노력이 필요하다. 개인에 대한 설명이 투명성의 제공에 일정한 한계를 가진다면, 다른 관점의 청책들도 고려하는 것이 바람직하다. 실제로 많은 학자들과 가이드라인은 정보주체에게 설명을 하는 것 외에도 투명성을 높일 수 있는 다른 방안들ㅇ르 모색해 왔다. 그중 대표적인 것으로 전문성을 가진 (정보주체 외의) 제3자로 하여금 알고리즘의 정확성, 편향성 등에 대하여 지속적인 관리 및 감독을 하도록 하는 방안이 있다. 구체적으로는 조직 차원의 관리감독기구를 설치하는 것이나 내부감사품질 관리를 고려해 볼 수 있다.


5. 정책 방향 2: 플랫폼 공유화 방안

1) 공공재로서의 데이터에 소유권을 부여

현재 데이터는 누군가의 소비가 다른 이의 소비를 방해하지 않기에 비경합적이며, (지식재산권 형태의 인위적 장벽을 만들지 않는 한) 소비에 기여하지 않는 이를 소비로부터 배제할 수 없기에 비배제적인 것으로 통용되고 있다. 이 점에서 디지털 데이터는 지식과 같은 정보재, 치안이나 국방 같은 공공재의 특성을 공유한다. 즉 데이터는 공공재(commons)로서의 성격이 강하다.

<표 1> 기존의 공공재로서의 데이터 구분
 
구분 소비경합성
rivalry in consumption
높음 낮음
배제가능성 excludability 높음 사적 재화 자연독점
(옷, 택시이용, 의료) (대중교통, 통신, 케이블방송 )
낮음 공유자원 순수 공공재
(바닷물고기, 국립공원) (국방, 소방, 등대, 데이터)


문제는 플랫폼 기업이 아무런 비용 지불 없이 데이터를 활용한 수익을 독차지하고, 이윤 창출을 위해 데이터 사용에서 발생하는 알고리즘 편향이나 차별 등의 사회적 문제를 야기하고 있으며, 이에 대한 책임도 회피하고 있다는 데 있다. 이를 해결하기 위해서는 공공재로서의 데이터에 소유권과 가격을 부여함으로서 그 사용에 대한 책임성과 효율성을 제고할 필요가 있다.

기업이나 개인이 탄소 배출에 대해 아무런 비용을 지불하지 않는다면 기후위기라는 사회적 문제가 발생하고 이는 결국 파국으로 치닫게 된다. 이는 흔히 무임승차 문제 혹은 죄수의 딜레마 문제라고 하는데, 최근에는 이러한 문제를 극복하기 위해 탄소배출이라는 ‘음의 외부효과’를 발생하는 주체에게 그 비용을 부과함으로써 죄수의 딜레마 게임을 일종의 협조게임으로 전환함으로서 동일한 경제주체들일지라도 그들의 행위가 비협조에서 협조 행위로 바꾸도록 하는 정책들이 주목받고 있다. 

이와 같이 기존에 공공재로 취급되던 데이터에 데이터를 생성하는 데이터 노동자들에게 소유권을 부여함으로써 그 데이터를 사용하는 사람들이 그에 대한 대가를 지불하게 한다면 이 역시 외부효과를 시장으로 내부화함으로써 데이터 사용에 대한 책임성과 효율성을 높일 수 있을 것이다.

예를 들어, 구글번역기에 영어 문장을 올리면 어느 정도 쓸만한 우리말 문장으로 번역이 된다. 마치 거대한 클라우드 서버 안에 인간의 통역 기능이 있는 인공지능이 들어 있는 것과 같다. 하지만 사실은 진짜 사람들이 번역한 수많은 예문(데이터 노동이 창조한 것)을 인터넷에서 수집하여 내가 입력한 문장과 끼워 맞추는(플랫폼 기업의 노동자가 행하는) 것이다. 따라서 어떤 사람이 말하거나 행하는 것이 데이터베이스에 조금이나마 기여하여 기계 번역 알고리즘이나 시장 예측 알고리즘이 작업을 수행할 수 있도록 한다면, 기여의 크기와 기여로 인한 가치에 비례하여 그 사람에게 나노지불(nanopayment)이 이뤄지는 것이 마땅하다.

이와 유사하게 “노동으로서의 데이터”을 주장하기도 한다. 예컨대, ‘가사 노동’은 사회의 노동력을 제공하는 유의미한 노동임에도 불구하고 그 대가를 지불받지 않고 있다. 데이터도 이와 같다고 보는 시각이다. 포즈너와 웨일(2019)은 현재의 "자본으로서의 데이터(Data as Capital, DaC)" 패러다임에서 “노동으로서의 데이터(Data as Labor, DaL)" 패러다임으로 전환할 필요가 있다고 주장한다. 즉 데이터는 자본에서 생긴 것이 아니라, 노동을 통해 제공된다는 것이다(에릭 포즈너·글렌 웨일, 박기영 옮김, 2019). 


<표 2> "자본으로서의 데이터 " 대 "노동으로서의 데이터 " 관점에서 본 주요 특징

 
이슈 Data as Capital (DaC) Data as Labor (DaL )
자본으로서의 데이터 노동으로서의 데이터
소유권 기업 개인
인센티브 기업가 “일상적인” 기여자
미래 노동 보편적 기본소득 데이터 노동
존엄성의 기원 여가와 같은 노동 밖 생활에서 데이터 작업에서 디지털 존엄성
온라인 상의 사회적 계약 무료로 데이터를 얻기 위해 무료로 서비스를 제공하고 감시를 허용 데이터 노동시장을 창조하기 위한 길항력으로서의 데이터노동조합


2) 생산수단으로서의 인공지능과 로봇에 대한 소유 (주: Richard B. Freeman, 2016 “Who Owns the Robots Rules the World: The Deeper Threat of Robotization”
https://www.harvardmagazine.com/2016/05/who-owns-the-robots-rules-the-world)



리처드 프리먼은 우리 모두가 직장에서 로봇으로부터 이익을 얻는지 또는 로봇이 수퍼 부유한 소수층과 그들을 제외한 사회구성원 사이의 소득 불평등을 악화시키는지 여부는 누가 로봇을 소유하고 있는지에 달려있다고 주장한다.

그는 자동화된 노동 시장의 첫 번째 법칙은 인공지능과 컴퓨팅 성능이 향상되면서 로봇이 인간의 작업을 대체 할 수 있다는 것이며, 두 번째 법칙은 기술 진보가 시간이 지남에 따라 로봇 대체품의 비용을 절감한다는 것이다. 세 번째 법칙은, 첫 번째와 두 번째의 결과로, 자동화를 겪고 있는 직종의 노동자들의 임금이 떨어질 것이라는 것이다.

그는 직장의 로봇화(Robotization of work)는 미래의 직장을 장악할 로봇/기계 기술에 대한 소유권을 우리가 지니고 있는 한, 모두가 적게 일하고 더 많은 여가를 누리고 더 건강하고 풍성한 제품을 소비할 수 있는 세상을 창조할 것이라고 말한다. 즉 당신의 일자리를 대체하고 있는 로봇을 당신이 소유하고 있다면 당신의 삶은 더욱 나아질 것이고, 나의 일자리를 대체하고 있는 로봇을 내가 소유하고 있다면 나의 삶은 더욱 나아질 것이라고 주장한다.

3) 기업의 민주적 소유지배구조로의 전환 방안

(1) 대규모 플랫폼 기업의 소유지배구조 전환 플랜_영국 노동당의 ‘포용적 노동자 소유 기금’과 미국 버니 샌더스의 ‘민주적 종업원소유기금’ 

영국의 싱크탱크인 커먼웰스(Common Wealth)는 바람직한 민주적 소유지배구조를 <그림 2>과 같이 설명한다. 즉 노동자가 주식의 일정 지분 예컨대 25%를 소유함으써 주식회사의 최고의결기관인 주주총회에서 소유주로서의 권한을 행하고, 또 노동이사제를 통해 사측과 동일한 비율로 노동자 추천 이사를 선임할 수 있도록함으로써, 기업 운영에 주요한 의사결정권자로서의 역할을 수행하도록 하는 것을 핵심적 요소로 여긴다.

이러한 민주적 소유지배구조에서 노동자 소유지분을 전향적으로 확대하기 위한 시도로, 영국 노동당은 2019년 총선에서 “포용적 노동자소유 기금”을 공약으로 제시했고, 미국 버니 샌더스 상원의원은 이와 유사한 “민주적 종업원소유기금”의 도입을 주장했다.

2016년 미국 민주당 대선 경선과정에서 제기된 버니 샌더스의 노동자 기업인수 방안은 다수의 정치인들로부터 주목을 받았고, 대선 이후 2018년 중소기업종업원소유법으로 제정되기에 이르렀다. 영국 노동당의 제레미 코빈은 영국 기업의 장기적 성장을 이루고, 경제력의 정체를 극복하고, 자동화를 통한 생산력 증가를 신속히 실현하고, 민주주의의 원리를 일상 생활에 구현하기 위한 목적으로 기업의 소유전환을 주요한 공약으로 삼았던 것이다. 

영국 노동당은 2019년 총선에서 모든 대기업(종업원 250명 이상)이 “포용적 노동자소유 기금”(IOF, Inclusive Ownership Fund)에 자사 주식을 의무적으로 적립하는 것을 추진하는 공약을 내걸었다. 10년 동안 매년 1%의 주식을 10% 보유할 때까지 IOF에 적립하도록 하고, 그보다 작은 규모 기업은 자발적으로 IOF를 설립·운영할 수 있도록 하는 내용의 공약이었다. 

그 주식은 해당 기업의 노동자이 집단적으로 보유하고, 여기서 발생한 배당금은 매년 최대 500파운드(약 75만원)까지 종업원들에게 분배하고, 초과액은 영국 재무부에 세금 명목으로 지급되며, 이는 "사회적 배당"이라는 이름으로 사회복지 서비스에 사용될 것을 명시했다.

IOF는 회사의 종업원이 선출한 노동자 이사가 참여하는 이사회가 관리하며. 이 주식 지분은 노동자에게 배당으로 지급되며 퇴직 시에 판매할 수 있다. 
이 안이 실행된다면, IOF로부터 매년 총 60억 파운드의 배당금이 발생하는데, 그 중 40억 파운드는 노동자들에게 나눠지고 나머지 20억 파운드는 정부의 공공 서비스 자금으로 사용하게 된다.

버니 샌더스는 연간 수입이 최소 1억 달러 이상인 기업, 대차대조표 총액이 최소 1억 달러 이상인 기업, 모든 상장기업은 종업원이 최소한 회사 지분의 20%를 소유할 때까지 매년 적어도 2%의 주식을 노동자에게 제공하도록 하는 공약을 지난 2020년 민주당 대선 경선과정에 내걸었다. 이는 신주발행과 민주적 종업원소유기금(Democratic Employee Ownership Funds) 설립을 통해 실현된다.

이 기금은 노동자가 직접 선출하는 신탁위원회가 관리하게 된다. 노동자들은 이 제도를 통해 자신에게 주어진 주식을 투표할 권리를 보장받게 된다. 이 기금은 다른 기관투자자들과 동일한 의결권을 가질 것이며 그들 지분의 양도나 매각은 허용되지 않는다. 대신에, 노동자의 몫으로 영구적으로 신탁에 맡겨진다. 배당금은 펀드로부터 종업원들에게 직접 지급된다. 

중소기업의 경우 미국의 차입형 ESOP를 통해 기업의 미래 이윤으로 노동자 지분을 일정 정도 확보함으로써 기업의 성장과 노동자의 이해가 서로 부합하도록 하는 방안을 생각해 볼 수 있다. 

이를 통해 해당 기업에 대한 노동자 소유지분을 확대하고, 기업의 영향력 있는 주주로써 기업의 중요한 결정과정에서 의결권을 행사할 수 있다. 이사회 구성원의 비율을 주주 45%, 노동자 45%, 소비자단체 또는 정부 10%가 되도록 함으로써 다중이해관계자가 기업의 운영과정에 참여하도록 할 수 있다.(그림 2 참조)

(2) 중소기업(예: 지역 배달앱)_노동자 기업 인수

미국에서 2018년에 제정된 중소기업종업원소유법(Main Street Employee Ownership Act  of 2018)은 기업 매각 시 노동자가 기업인수 의사를 밝히면 중소기업청이 지급보증을 서고 은행으로부터 대출을 받을 수 있도록 하고 있다. 이에 따라 미국의 종업원주식소유제도(ESOP)을 통한 노동자의 기업인수  기회가 확대되고 있다. 

최근 미국에는 230만의 베이비부머 오너들이 퇴직을 앞두고 있는데, 소속 종업원 수는 2,500만 명에 이른다. 이들이 소유한 기업은 실적 악화에 따른 구조조정 혹은 파산을 하는 기업이 아니라 기업을 계속 유지할 가치가 충분하지만 오너의 나이가 들어서 기업을 처분해야 하는 양질의 기업들이다. 따라서 이들 기업을 사모펀드나 경쟁사에 매각함으로써 지역사회의 부가 외부로 유출되도록 나둘 것이 아니라, 지역에 거주하는 노동자들이 인수함으로써 기업을 효과적으로 존속시켜 일자리를 지키고, 지역주민의 실업을 최소화함으로써 지역사회의 부를 유지·형성하는 데 기여할 수 있다.

< 그림 1 > 차입형 ESOP 제도를 통한 노동자 기업인수 방안 


미국의 ESOP제도는 노동자가 적극적으로 기업을 인수할 수 있는 방법을 제공하며, 차입매수(MBO)와 유사하다.
① ESOP 신탁은 그 자금을 기업의 보증으로 금융기관으로부터 차입하고, 
② 차입한 자금으로 주식을 구매하며, 그 주식은 금융기관의 담보물이므로 종업원들의 개인 계정으로 분배되지 않고 가계정에 분배하게 되며.
③ 기업의 수익이 발생하면 세금이 부과되지 않는 배당을 하고, 
④ 이 배당을 이용하여 차입금을 상환하며, 
⑤ 그 상환한 부분에 해당하는 만큼의 주식이 가계정에서 종업원의 개인 계정으로 분배되는 것이다.
4) 플랫폼에 대한 민주적 공유 방안

미국과 영국의 진보적 싱크탱크인 민주주의협동연구(Democracy Collaborative)와 커먼웰스(Common Wealth)가 공동으로 작성한 보고서 “플랫폼 공유자원: 데이터와 플랫폼 재구성”는(주: https://www.common-wealth.co.uk/reports/common-platform-tech-utility-antitrust)
 플랫폼 기업의 독점 규제, 노동자의 권리와 보호, 온라인 발언권, 데이터 프라이버시, 통제 등의 분야에 필요한 핵심 정책 및 규제 방안을 제시하고 있다. 

이 보고서는 플랫폼 및 데이터와 관련된 혁신적 의제라고 판단되는 5가지 기본 원칙을 다음과 같이 제시하고 있다. 

① 개인 정보 보호 및 반감시(anti-surveillance): 데이터 수집 여부, 수집 대상 데이터, 사용 가능 방법에 대한 결정은 현재 구성되는 민간 기업이나 국가의 손에 맡겨져서는 안 된다. 오히려 새로운 민주적인 다중 이해관계자 조직과 접근방식이 필요하다.
② 인클로저(사유화)에서 공공재에 이르기까지: 플랫폼과 데이터는 공공 및 공유 형태의 새로운 소유지배구조를 가진 자산으로 재정립되어야 한다.
③ 전지구적 다중이해관계자 지배구조: 전지구적 특성을 보이는 플랫폼과 데이터의 소유권과 지배구조를 민주화하기 위한 제안은 반드시 전세계 사람들이 의미 있게 참여할 수 있는 과정과 접근방식을 제공해야 한다. 
④ 기업의 집중과 권한 축소: 빅테크와 플랫폼 기업의 독점력을 제한 것이 중요하지만, 독점규제 전략은 더 나아가 플랫폼과 빅테크 기업의 소유권 및 지배권의 구조적 변화로 이어져야 한다.    
⑤ 공적 자금 지원 확대: 기업 권력을 약화시키고 경쟁을 높이기 위한 정부 조치(반독점 및 규제 전략 등) 외에도 다중이해관계자, 공공 플랫폼, 및 기타 대안을 개발하기 위해 집중적으로 공적 자금을 지원해야 한다. 

이 보고서는, 이러한 원칙을 바탕으로, 오늘날의 데이터 플랫폼 기업이 야기하는 위기를 해결할 정책 방안들을 다음과 같이 제시한다.
 
  • ● 주요 플랫폼에 대한 민주적 공유: 시장 지배적인 플랫폼 기업이 초래하는 자연 독점 및 기타 문제를 해결하기 위해서는, 이러한 디지털 공공 시설을 민주적 공공 소유로 전환할 필요가 있다. 
  • ● 노동자와 노조를 위한 21세기 “뉴딜”:  플랫폼 기업을 통해 조직된 일자리가 안전하고 품위있게 유지될 수 있도록 새로운 노동권 보호 정책을 도입해야 한다. 나아가 노동자의 집단적 조직력 강화 방안을 강구해야 한다. 
  • ● 데이터 수집 및 사용에 대한 표준과 원칙을 설정하는 다중 이해관계자 대리인 도입: 다중 이해관계자 대리인을 도입하여 데이터를 수집할 수 있는 시기와 방법을 결정하도록 한다. 여기서 노동자와 이해관계자 단체가 데이터 수집 기술의 도입 및 사용에 대한 권한을 행사하며, 직장에서의 감시와 모니터링 기술의 도입 및 사용에 대한 최종 결정이 이뤄지도록 해야 한다.
  • ● 시민들의 삶의 질 향상을 위해 데이터에 접근할 수 있는 권한과 민주적 지배권을 제공하기 위한 “데이터 신탁” 네트워크 형성: 각 분야와 장소에 따라 일련의 데이터 신탁이 구축되도록 한다. 이러한 자율적인 법적 기관은 특정 데이터 셋의 관리자 역할을 수행하여 데이터를 안전하고 민주적으로 공유할 수 있도록 지원한다. 예를 들어, 그러한 데이터 신탁이 운송 데이터를 수집하도록 설계하고, 노동자가 해당 분야의 약관에 관한 특정 데이터에 접근할 수 있도록 함으로써 그들의 협상력을 높일 수도 있다.
  • ● 공공 플랫폼 조성 기관(Public Platform Accelerator, PPA), 국립 커뮤니티 데이터 연구소(National Lab for Community Data, NLCD), 공공 디지털 협동조합(Public Digital Cooperatives, PDC): 다양한 공공 연구개발(RD&P) 기관을 도입해 탈중심적이고 민주적으로 소유되는 데이터 및 플랫폼(및 주변 생태계)의 개발에 공적 자금을 투입해야 한다.
  • ● 국립 투자은행: 국립 투자은행이 국가 차원에서 주도하는 공공 은행의 네트워크 구축과 같은 공적 금융을 보다 광범위하게 개혁함으로써 플랫폼 협동조합과 기타 민주적인 대안적 기업 조직에 대한 자금지원 차별을 해소해야 한다.
  • ● 지역사회에 디지털 자산을 형성: 새로운 디지털 미래를 설계하는 데 마을, 도시, 지방이 선봉에 서야 한다. 앞에서 제시된 많은 제안(데이터 공동결정, 데이터 신탁, PPA, NCLD, PDC 포함)과 연계해서, 지역사회 디지털 자산을 구축하는 전략은 우리가 어떻게 데이터를 생성하고 사용하는지, 그리고 가치 유지와 성장을 추구하는 중요한 목표를 가지고 디지털 플랫폼과 인프라가 어떻게 개발되고 소유되는지를 새롭게 구상하는 데 선도적 역할을 해야 한다.

플랫폼 기업을 <그림 2>와 같이 민주적 소유지배구조로 전환하고, 개인이 만드는 데이터를 데이터 신탁을 통해 집단적으로 보유하고 다중이해관계자의 대리인이 관리하도록 하면 <그림 3>같은 플랫폼 공유 시스템을 구현할 수 있을 것이다.

<그림 2> 대안적 기업 모델_표준

<출처: Common Wealth, https://www.common-wealth.co.uk/reports/commoning-the-company >


<그림 3> 대안적 기업 모델_에너지·플랫폼 등 기간산업 적용



5. 맺음말

구글, 아마존, 카카오, 네이버 같은 '빅테크' 거인들이 갈수록 우리 경제를 장악하고 우리의 문화, 사회적 상호작용, 정치시스템에 엄청난 영향력을 행사하고 있다는 지적은 상대적으로 논란의 여지가 없다. 디지털 거래와 계약의 핵심에 있는 소수 대형 플랫폼 기업 집단은 점점 더 우리 시대의 악덕자본가이자 거대 불로소득자로 변해가고 있다. 
이들 기업은 잠재적 경쟁자들을 제거하면서 권력을 제한하기 위한 규제와 공공 정책을 무시하면서, 지대추구 행위에 집중했다. 그들은 우연하게도 데이터의 수집·사용과 관련해서 또한 독립적으로도 수많은 부정적인 사회·경제·정치적 문제들과 연결되고 있다. 

이러한 문제들 중 주요한 것들은 다음과 같다.
• 경제적 불평등 증가와 경제력의 집중으로 지배적 플랫폼이 필연적으로 지대를 독점할 지위를 갖게 되었다. 
• 노동자에 대한 안정망이 지속적으로 쇠퇴하고 새로운 형태의 직장 통제 방식이 확대되고 있다.
• “감시 자본주의”가 심화되고 있다. 그 속에서 삶과 사회의 모든 것이 데이터를 만들기 위해 파헤쳐지고 있다. 이 데이터는 단지 매매되는 것으로 그치는 게 아니라, 인간의 행동을 변경하고 지시하기 위한 목적으로 그 사용이 점점 확대되고 있다.
• 차별·불공정·인종차별 문제가 우리 경제 시스템의 핵심 특징으로 작동하도록 하는 알고리즘 관리와 그로 인한 편향이 대두하고 있다.
• 가짜 뉴스의 확산을 통한 민주적, 시민적 규범이 훼손되고 있다. 
• 이윤 증식을 위한 플랫폼 기업의 조세 회피/탈루 및 규제 재정권(예: 유리한 규제 환경을 추구하는 쇼핑)을 활용.
• 디지털 영역이 물질적 배경 및 자연 시스템과 밀접하게 연결되어 환경에 미치는 부정적 영향을 미치고 있다. 

최근 거대한 재벌 기업 규모로 성장한 플랫폼 기업은 독점력을 앞세워 위와 같은 경제적, 사회적 문제들을 양산하고 있다. 물론 플랫폼에는 무궁무진한 잠재력도 남아있다. 사람들을 상품과 서비스에 연결하기 위한 인프라로서 플랫폼은 엄청나게 유용한 기능을 제공할 수 있고, Covid-19가 증명했듯이, 그것들은 우리가 어떻게 살고, 일하고, 여가를 즐기는 데에 없어서는 안 될 것이다. 더욱이, 그들의 협업적이고 네트워크화된 성격을 고려할 때, 플랫폼은 또한 지배구조와 소유권의 다중이해관계자 모델을 통해 새로운 조직형태로 변화될 가능성도 크다. 
우리에게 주어진 과제는 플랫폼이 가지고 있는 민주적이고 능동적인 가능성을 집중된 기업 소유와 이윤 극대화의 구조로부터 해방시키는 것이다. 현재 플랫폼이 독점하고 있는 경제적 권력을 분산하고 민주화할 수 있다면, 사적 권력이 민주적 규제를 넘지 않도록 보장할 수 있다. 그러기 위해서는 소유와 통제에 대한 새로운 지배구조를 모색하고 실현할 필요가 있다.



[참고자료]

고학수·김병필, 2021, “다가온 미래, 닥쳐온 현실”, 『인공지능 윤리와 거버넌스』, 고학수·김병필 편, 한국인공지능법학회 AI정책 포럼총서1, 박영사.

고학수·박도현·이나래, 2021, “인공지능 윤리규범과 규제거버넌스의 현황과 과제”, 『인공지능 윤리와 거버넌스』, 고학수·김병필 편, 한국인공지능법학회 AI정책 포럼총서1, 박영사.

곽주원·허준석·송용택, 2013, 검색의 중립성이 인터넷 생태계에 미치는 영향, 한국정보통신정책연구소.

권오성, 2021, “인공지능과 노동법”, 법학논문집 제45집 제2호.

김병권, 2021, “인공지능시대의 알고리즘 투명화는 왜 필요한가?” 알고리즘 투명화법 토론회 발제문, 정의당.

김병필, 2021, “인공지능에 의한 차별과 공정성 기준”, 『인공지능 윤리와 거버넌스』, 고학수·김병필 편, 한국인공지능법학회 AI정책 포럼총서1, 박영사.

버지니아 유뱅크스(김영선 옮김), 2018, 『자동화된 불평등: 첨단 기술은 어떻게 가난한 사람들을 분석하고, 감시하고, 처벌하는가』, 북트리거.

변순용·이연희, 2020, 『인공지능 윤리하다』, 어문학사.

브라이언 크리스천·톰 그리피스(이한음 옮김), 2018, 『알고리즘, 인생을 계산하다』, 청림출판(주).

사피야 우모자 노블(노윤기 옮김), 2018, 『구글은 어떻게 여성을 차별하는가』, 한스미디어. 

에릭 포즈너·글렌 웨일(박기영 옮김), 2019, 『래디컬 마켓』, 부키(주).

임경숙, 2019, 『인공지능에 관한 법적 규율방안』, 한양대학교 법학전문대학원.

캐시 오닐(김정혜 옮김), 2016, 『대량살상 수학무기』, 흐름출판.

https://www.nia.or.kr/site/nia_kor/ex/bbs/View.do?cbIdx=82618&bcIdx=21082&parentSeq=21082



Arrieta Ibarra, Imanol and Goff, Leonard and Jiménez Hernández, Diego and Lanier, Jaron and Weyl, Eric Glen, Should We Treat Data as Labor? Moving Beyond 'Free' (December 27, 2017). American Economic Association Papers & Proceedings, Vol. 1, No. 1, Forthcoming, Available at SSRN: https://ssrn.com/abstract=3093683

Bo Cowgill and Catherine E. Tucker, 2020, Algorithmic Fairness and Economics, Columbia Business School Research Paper

Hanna, Thomas, Mathew Lawrence, & Nils Peters, 2020, A Common Platform: Reimagining Data and Platforms, Democracy Collaborative & Common Wealth. https://www.common-wealth.co.uk/reports/common-platform-tech-utility-antitrust

Hettie O’Brien & Mathew Lawrence, (2020), Data and the Future of Work, Common Wealth, 

    https://www.common-wealth.co.uk/reports/data-and-the-future-of-work

Jon Kleinberg, Jens Ludwig, Sendhil Mullainathan, Cass R Sunstein, (2018), Discrimination in the Age of Algorithms, Journal of Legal Analysis, Volume 10, Pages 113–174, https://doi.org/10.1093/jla/laz001

Jacobi, Jennifer (13 September 2001). "Patent #US2001021914". Espacenet. Retrieved 4 July 2018.

Jules Peck, (2020), The role of regional cooperative banks in community wealth building, Democracy Collaborative,

https://democracycollaborative.org/learn/blogpost/role-regional-cooperative-banks-community-wealth-building

Katzenbach, C. & Ulbricht, L. (2019). Algorithmic governance. Internet Policy Review, 8(4). https://doi.org/10.14763/2019.4.1424

Legg, Shane; Hutter, Marcus (15 June 2007). A Collection of Definitions of Intelligence  (Technical report). IDSIA . arXiv :0706.3639 . Bibcode :2007arXiv0706.3639L . 07-07.

Mancuhan, Koray and Chris Clifton. “Combating discrimination using Bayesian networks.” Artificial Intelligence and Law 22 (2014): 211-238.

Nilsson, Nils (1998). Artificial Intelligence: A New Synthesis . Morgan Kaufmann. ISBN  978-1-55860-467-4 . Archived  from the original on 26 July 2020 . Retrieved  18 November  2019 .

Poole, David; Mackworth, Alan ; Goebel, Randy  (1998). Computational Intelligence: A Logical Approach . New York: Oxford University Press. ISBN  978-0-19-510270-3 . Archived  from the original on 26 July 2020 . Retrieved  22 August  2020. 

Richard B. Freeman, 2016 “Who Owns the Robots Rules the World: The Deeper Threat of Robotization”

https://www.harvardmagazine.com/2016/05/who-owns-the-robots-rules-the-world

Rieder, Bernhard, and Jeanette Hofmann. 2020. "Towards platform observability". Internet Policy Review 9 (4). DOI: 10.14763/2020.4.1535. https://policyreview.info/articles/analysis/towards-platform-observability.

Russell, Stuart J.; Norvig, Peter  (2003), Artificial Intelligence: A Modern Approach  (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN  0-13-790395-2

Striphas, Ted. "What is an Algorithm? – Culture Digitally". culturedigitally.org. Retrieved 20 November 2017.

https://oecd.ai/en/wonk/oecd-ai-system-classification-year-of-progress-ai-governance

https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

Thomas Hanna, Mathew Lawrence, Nils Peters, 2020, A Common Platform:Reimagining Data and Platforms, Common Wealth.

https://www.common-wealth.co.uk/reports/common-platform-tech-utility-antitrust

OECD, AI Principles

     https://www.oecd.org/going-digital/ai/principles/.

European Commission, (2019), ETHICS GUIDELINES FOR TRUSTWORTHY AI.

ORCD, (2019), Recommendation of the Council on Artificial Intelligence 

      https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

Merriam-Webster Online Dictionary. Archived from the original on February 14, 2020. Retrieved November 14, 2019.
  • #플랫폼경제#알고리즘