과학기술의 성별 편향
등록일
2024-03-21
대상
주제
유형
조회수
7264
첨부파일

공공누리 공공 저작물 자유이용허락

본 저작물은 공공누리 제4유형 (출처표시 + 상업적 이용금지 + 변경금지) 조건에 따라 이용할 수 있습니다.

*본 영상은 배리어프리 정책의 일환으로 스크립트가 제공됩니다.

(나레이션) 안녕하세요?

동아대학교 기초교양대학 교수 임소연입니다. 저는 과학기술과 젠더를 주로 연구하는 과학기술학 연구자이기도 하고요.

 

오늘은 과학기술과 젠더 관련한 여러 주제 중에서도 과학기술의 젠더 편향에 대해 이야기를 나눠보고자 합니다.

 

국어사전에서 편향’을 찾아보시면 한 쪽으로 치우침이라고 나와 있습니다.

그렇다면 과학기술의 젠더 편향이란, 과학기술이 한 쪽 성에 치우쳐 있음을 뜻할 것입니다.

과학기술은 인간이 아니라 자연과 사물을 대상으로 하는 학문이기 때문에 애초에 젠더 구분이 있을 수 없지 않을까 생각할 수도 있습니다.

또 과학 연구나 기술 개발은 실험실이나 연구소에서 객관적인 방법과 절차에 따라 수행되는 것이기 때문에

과학자나 공학자의 성별과는 무관하게 치우침 없이 중립적인 지식과 기술을 만들어 낼 것이라는 믿음을 가지고 있기도 합니다.

 

먼저 과학기술의 젠더 편향에 대해서 알아보겠습니다.


과학기술의 젠더 편향은 크게 두 가지 유형으로 구분할 수 있습니다.

첫 번째는 통계적 편향, 그리고 두 번째는 사회적 편향

 

먼저 통계적 편향은 주로 동물이나 인간을 대상으로 하는 실험에서 찾아볼 수 있습니다.

지금까지 많은 생명의학 연구에서 실험 동물이나 피험자의 성이 남성으로 치우쳐 있었기 때문입니다.

2006년과 2009년 사이 유럽에서 그리고 1997년과 2006년 사이 미국에서 조사된 바에 따르면,

심혈관 질환 관련 임상시험에서 남성 피험자는 많게는 전체의 80%에 달합니다.

이 질환이 유독 남성 환자가 많기 때문이지 않을까 생각 할 수 있지만

놀랍게도 여성은 전체 심혈관 질환 환자의 절반 이상이며 사망률은 오히려 더 높습니다.


반면 사회적 편향은 통계적 편향과는 다릅니다.

통계적 편향이 실재를 그대로 반영하지 않고 특정 성을 표준으로 삼기 때문에 일어나는 문제라면

사회적 편향은 말 그대로 사회의 편향을 그대로 반영하기 때문에 발생하는 편향입니다.

 

과학기술은 진공 상태에서 만들어지지 않는다는 말이 있습니다.

인간이 만드는 다른 어떤 것과 마찬가지로 과학기술은 사회의 영향을 받습니다.

특히 여성과 남성에 대한 사회적 편견과 고정관념은 과학 지식과 기술의 생산에 큰 영향을 줄 수 있습니다.

대표적인 사례로 자동차 안전을 위한 충돌 시험에서 사용되는 '더미'라고 하는 인체 모형이 있습니다.

70년대부터 자동차 충돌 시험에 사용되었던 인체 모형은 남성이었고

여성 신체 특성을 반영한 여성 인체 모형이 본격적으로 등장한 것은 불과 몇 년 전의 일입니다.

   

실제 여성 운전자들이 점점 증가했음에도 불구하고 운전자를 남성이라고 전제하는 사회적 편견이 그대로 반영되었기 때문입니다.

이와는 반대 사례가 가사나 육아와 관련한 과학기술 입니다.

방금 제가 설명 드렸던 자동차 충돌실험에서의 모형과는 반대로 가사나 육아와 관련한 과학기술은 주로 여성을 대상으로 합니다.

싱크대 등 주방용 가구는 성인 여성의 평균 신체에 맞춰져 있습니다

 

자동차 충돌 실험에서의 젠더 편향은 이보다 더 심각한 문제입니다.

만약 계속해서 남성 인체 모형만 사용된다면 여성 운전자들의 안전에는 소홀해지게 되기 때문입니다.

한 조사에 따르면, 충돌 사고 시 여성 운전자가 심각한 부상을 입을 확률이 같은 조건의 남성 운전자에 비해서 47% 더 높아진다고 합니다.

이렇게 과학기술의 젠더 편향을 인식하고 그것을 개선하고 애쓰는 것은

여성과 남성이 모두 건강하고 안전한 삶을 살기 위해 반드시 필요한 일입니다


과연 인공지능은 '젠더 편향'으로부터 자유로운가?

앞서 과학기술의 '젠더 편향'을 '통계적 편향' 그리고 '사회적 편향'으로 나누었기 때문에

인공지능도 마찬가지로 먼저 '통계적 편향'에 대해서 설명 드릴게요.

 

통계적 편향은 특정 젠더를 과소재현하거나 과대재현하는 데이터를 학습하는 경우가 이에 해당합니다.

 

가장 잘 알려진 사례로는 아마존 얼굴 인식 프로그램입니다.

인종과 젠더에 따라서 얼굴 사진을 단순히 구분하면

백인 남성과 백인 여성, 유색인 남성과 유색인 여성 이렇게 4개의 그룹으로 나눌 수 있는데

이 프로그램이 각 그룹의 얼굴을 정확하게 인식하는 정도가 다르게 나타났습니다.

이 인공지능 학습을 위해 제공된 데이터 셋 중 80% 이상이 백인, 75% 이상이 남성의 얼굴 이미지었습니다.

백인 남성의 얼굴 이미지에 대한 학습이 압도적으로 많이 이루어졌기 때문에 정확도가 100%에 이르게 된 것이고

반대로 유색인 여성의 얼굴 이미지에 대한 학습은 부족했기에 정확도가 70%도 나오지 않는 것입니다.

 

통계적 편향의 또 다른 사례는 기계 번역입니다. 한국어와는 달리 영어와 같은 서구 언어의 경우 인칭 대명사에 성별이 부여됩니다.

실제 대화가 이루어지거나 전체 글 안에 문장으로 제시되는 상황에서는

앞에 나온 명사에 따라서 남성 대명사와 여성 대명사 중 어떤 것으로 받을 것인지가 무리없이 결정됩니다.

그러나 실제 사용 맥락이 삭제된 채 존재하는 문장을 번역하는 인공지능 번역 프로그램의 경우는 다릅니다.

예를 들어, 한국어로 내 친구는 약속을 잘 지킨다는 문장은 영어로 어떻게 번역이 될까요?

많은 경우 인공지능 번역기는 이 문장을 “My friend keeps his promise”라고 번역합니다. 여기서 'his'가 인칭 대명사가 되겠죠.

내 친구의 성별에 대한 정보가 전혀 없음에도 불구하고 알고리즘은 그를 그 남자로 번역하는 것입니다


물론 2000년 이후 남성 대명사 대 여성 대명사의 비율은 2:1 정도로 개선이 되었으나

그 이전에는 남성 대명사가 여성 대명사의 3~4배 이상으로 쓰였다고 합니다.

인공지능이 학습하는 데이터는 과거에서부터 축적된 데이터이기 때문에

지금 현재 혹은 아주 최근에 일어나 사회적 변화를 바로 반영하기 어렵다는 것이죠.

이러한 통계적 편향을 개선하기 위해서는 과소재현된 데이터를 보강해 주는 작업이 필요합니다.

 

문제는 '사회적 편향'입니다.

이 유형의 젠더 편향을 이해하기 위해서는 인공지능 알고리즘에 대한 이해가 선행되어야 합니다.

알고리즘은 학습용으로 주어진 데이터를 기계가 스스로 학습하여 규칙을 도출해 내도록 하는 계산과정 혹은 처리절차입니다.

알고리즘을 통해서 기계는 인간이 미리 규칙을 주지 않고 주어진 데이터에서 스스로 규칙을 찾아낼 수 있습니다.

다시 말해 인간이 젠더를 구분하고 차별하도록 의도적으로 학습시키지 않아도

알고리즘을 통해서 데이터에 내재되어 있는 편향이라는 규칙을 찾아내서 보이는 것으로 만드는 것입니다.

 

대표적인 사례는 아마존 입사지원서 선별 프로그램입니다.

아마존에서 만든 이 프로그램은 아마존 기존 입사자들의 이력서를 학습했고

기존 채용자들 중 남성 비율이 높았기 때문에 남성 지원자들의 입사지원서에서 흔히 발견되는 표현이나 경력 등을

높이 평가하는 경향이 있었습니다.

   

두 번째 사례는 애플 카드 발급 프로그램입니다.

애플에서 신용 카드 발급 절차에서 인공지능 프로그램을 사용했는데

동일한 조건의 남녀임에도 여성이 남성에 비해 신용 한도가 10~20배 낮게 나오는 결과가 발생한 일이 있었습니다.

이를 테면 모든 재산을 공동명의로 소유하고 있고 신용등급도 동일한 부부가 함께 애플 카드를 신청했는데

아내가 남편에 비해 신용 한도가 더 낮게 나온 것입니다.

 

문제는 알고리즘이 불투명하기 때문에 왜 이러한 결과가 도출되는지 쉽게 알아내고 수정하기 힘들다는 사실입니다

통계적 편향에 비해서 사회적 편향은 그 개선이 더 어렵습니다.

 

지금까지 살펴본 바와 같이 과학기술의 젠더 편향은 우리의 생명, 건강, 안전, 삶의 질, 고용 등과 직결된 문제입니다.

특히 인공지능은 인간과 달리 공정한 의사결정을 내릴 것이라는 기대와는 달리

기존 편향을 더욱 증폭하여 부당한 차별이나 젠더 고정관념 강화 등으로 이어질 수 있습니다.

 

새로운 기술을 개발하고 과학 연구를 할 때 이제는 당장의 효율성보다

동물실험에서 암컷과 수컷이 동일하게 사용되었는지 생명의학 연구에서 여성과 남성의 차이가 고려되었는지

기술 사용자를 한 쪽 성으로만 상상하고 있지는 않은지 등을 생각해야 하겠습니다.

 

인공지능을 개발할 때에도 데이터가 여성 혹은 남성 등 한쪽 성을 과소재현하거나 과대재현하고 있지 않은지

알고리즘이 데이터에 내재된 사회의 편향을 증폭하고 있지는 않은지 살피고 개선 방법을 찾아야겠습니다.


주로 남자들이 게임을 좋아한다는 고정관념이 있잖아요.

실제로 시중에 나온 게임을 대상으로 남녀 아이들의 선호도와 대중성을 조사해 보았습니다.

그랬더니 가장 인기가 많고 매출이 높은 비디오 게임은 남녀 아이들 모두에게 선호되는,

말하자면 젠더 고정관념이 강하게 반영되지 않은 게임인 것으로 나타났습니다.

비디오 게임 사례를 통해 말하고자 하는 바는 이것입니다.

젠더 고정관념에 근거한 과학기술을 만드는 것은 당장은 쉽고 효율적인 선택으로 보이지만 결국 가장 나쁜 선택일 수 있다는 사실입니다.

 

젠더 편향이 없는 과학기술은 그래서 더 좋은 과학기술,

그야말로 특정 성에 치우친 과학기술이 아니라 모두를 위한 과학기술이 될 수 있습니다.

그러한 과학기술을 만들기 위해서는 한 쪽 성이 표준이 되는 것

그리고 사회의 젠더 고정관념과 차별을 당연하게 생각하지 않는 인식이 무엇보다 중요하다고 하겠습니다.

 

과학기술의 젠더편향에 대한 오늘 이야기는 여기에서 마치겠습니다. 감사합니다.

X
다운로드 하기 전!
*본 교육 콘텐츠의 실제 활용 현황을 파악하기 위한 조사입니다.
1. 직업
2. 콘텐츠 사용목적
※ 콘텐츠 활용 전 확인해주세요.

  • ‘젠더온 활용가이드[바로가기]’를 확인하시고 협조 바랍니다.

  • 젠더온 콘텐츠는 게재 3년 후 시행하는 품질관리 결과,
            내용의 시의성과 사회적 공감도 등에 따라 비공개 처리될 수 있으니 활용에 유의하시기 바랍니다.

  • 기관·단체에서의 활용은 정확한 안내와 현황 파악을 위해 아래 내용을 포함하여
            메일을 통한 사전 협의 부탁드립니다.
            ①기관·단체명, ②활용 기간, ③활용 장소, ④게시 콘텐츠, ⑤활용 방안, ⑥담당자명, ⑦담당자 연락처

  • 기타 콘텐츠 활용에 대한 특이사항은 genderon@kigepe.or.kr로 문의 바랍니다.
다운로드 닫기

▶️ 콘텐츠에 대한 의견은 genderon@kigepe.or.kr 로 보내주시면 콘텐츠 제작 및 활용 시에 참고 하겠습니다.