top of page
작성자 사진TongRo Images

인공지능과 더 나은 미래: 조직된 편향

최종 수정일: 2023년 7월 3일

3월 15일, 챗GPT(ChatGPT)의 개발사로 잘 알려진 ‘오픈AI(OpenAI)’가 새로운 대형 언어모델 GPT-4를 공개했습니다. 조선시대의 군주 세종대왕이 훈민정음 창제 도중 분노에 못 이겨 신하들 앞에 맥북프로를 집어던졌다는 ‘거짓말’을 지어내며 웃음거리가 되었던 기존 모델과는 달리, 이번 모델은 환각 현상(사실관계가 맞지 않은 말을 만들어내는 현상)을 대폭 개선하며 주목할 만한 변화를 선보였습니다.



인공지능은 전술한 언어 모델 외에도 신약 개발 · 우주 과학 등 다양한 방면에 사용되며 4차 산업혁명을 선도하고 있습니다. 하루가 다르게 발전하는 인공지능 기술은 눈부신 미래를 선사해 줄 것처럼 빛나지만, 우리는 이 장밋빛 환상에서 빠져나와 잠시 숨을 고를 필요가 있습니다. 〈메트로폴리스(1927)〉의 세계관이 극단적으로 묘사한 대로 가장 큰 위험은 가장 아름다워 보이는 환상 바로 아래에 도사리기 때문입니다.



샬리니 칸타야(Shalini Kantayya) 감독의 2020년작 다큐멘터리 〈조직된 편향(Coded Bias)〉은 인공지능의 불편한 진실을 더욱 극명하게 드러내어 줍니다. 미국 최대의 독립 영화제인 선댄스 필름 페스티벌(Sundance Film Festival)에서 호평을 받은 이 영화는 매사추세스 공과대학(MIT)의 미디어 연구소에서 근무하는 연구자 조이 부올람위니(Joy Buolamwini)가 안면 인식 기술의 허점을 우연히 발견하며 시작됩니다. 짙은 피부색을 가진 자신의 얼굴은 인식하지 못하지만, 흰색 가면을 쓰자 ‘사람’의 얼굴임을 곧바로 알아채는 안면 인식 기술은 그 자체로 과거의 데이터로 ‘정답’을 찾아내려는 시도와 그 시도가 더 나은 미래를 가져다주리라는 맹목적인 믿음이 얼마나 위험한지를 짚어 냅니다.



86분 동안 감독의 카메라는 10년간의 인사 데이터를 학습한 아마존(Amazon)의 인공지능이 입사지원자를 추천하는 과정에서 여성을 “적극적으로 평가 절하했다”는 사실, 인공지능이 ‘위험 인물’로 분류했다는 근거를 들어 어린아이를 불심 검문하는 영국 경찰, 중국공산당의 지도이념에 순응하는 시민들을 겨냥한 중국 정부의 적극적 보상체계 등 인공지능을 이용한 인권 침해 사례를 고스란히 포착합니다.

이는 정보와 데이터가 누적되는 과정에서 발생한 소외와 편견을 역으로 비추어 내며 우리로 하여금 ‘역사는 승자의 기록이다.’라는 명구를 씁쓸하게 곱씹게 합니다. 정보와 데이터란 사회에서 특권을 거머쥔 이들이 가공하고 직조해 왔음을 고려할 때, 이를 토대로 한 현대의 패러다임 웹 3.0은 월드 와이드 웹의 창시자 팀 버너스-리(Tim Berners-Lee)가 여러 차례 공개적으로 표명한 바와 같이 지구상의 모두가 평등하게 연결되는 통신망, ‘월드 와이드 웹(World Wide Web)’의 본래 의도에 진실되게 부합하지 않는다는 결론에 도달하기 때문입니다.



생각의 흐름을 ChatGPT의 ‘거짓말’과 〈조직된 편향〉 속 안면 인식 기술의 ‘인종차별’로 다시 돌려 볼 때 인공지능을 신뢰할 수 있는가에 대한 질문은 곧 이를 이용하는 인간, 한 발 더 나아가 이에 대응하는 인간의 태도에 대한 질문으로 이어집니다. 이 질문에 대해 메러디스 브루사드(Meredith Broussard)는 더 가디언(The Guardian)지와의 인터뷰에서, “우리는 우리의 기술이 모두에게 잘 작동하도록 요구할 수 있으며, 이를 어떠한 경우에 사용할지를 신중하게 결정할 수 있다(we can demand that our technologies work well – for everybody – and we can make some deliberate choices about whether to use them.)”고 답한 바 있습니다. 따라서 인공지능을 향한 찬탄과 비탄이 뒤섞인 전망 속에서 확신할 수 있는 한 가지는 바로 더 나은 미래는 기술 그 자체가 아닌, 더 나은 사회를 만들기 위한 시민들의 실천에 달려 있다는 사실입니다.



참고문헌 목록


1. ChatGPT: What Are Hallucinations And Why Are They A Problem For AI Systems

2. 아마존의 ‘인공지능’ 채용 시스템은 여성을 추천하지 않았다, 왜?

3. OpenAI의 ChatGPT 소개 중 ‘한계(Limitations)’

4. ChatGPT can’t lie to you, but you still shouldn’t trust it

5. ‘생성 AI, 신뢰성 확보 쉽지 않네’··· 빙AI, 덕어시스트의 ‘출처 제공 기능’ 검토해보니...

6. “인터넷, 법제화된 권리 보호 필요” 웹 창시자 팀 버너스 리

7. AI expert Meredith Broussard: ‘Racism, sexism and ableism are systemic problems’

조회수 230회

최근 게시물

전체 보기

Comments


bottom of page