우리 곁의 'AI 윤리'함께 만들어 가는 스마트한 미래

 이전에 작성했던 포스팅 중에서 사물인터네(IoT),클라우드 컴퓨팅,스마트 자동차에 대해서 포스팅을 했었습니다.이렇게 포스팅을 하면서 인공지능 AI에도 많은 관심을 갖게 되었습니다.

그래서 오늘은 우리 일상에 점점 더 가까이 다가오고 있는 인공지능 AI에 대해 이야기를 해 보려고 합니다. 


우리 곁의 'AI 윤리'함께 만들어 가는 스마트한 미래


우리가 알아야 할 미래 기술의 핵심 가치

AI 개발과 사용에 따른 윤리적인 문제,제작자의 편견이나 선입견으로 인해 생기는 편향성 문제,그리고 위에서 언급한 문제들을 포함한 공정성 있고 책임 있는 AI 개발을 위한 가이드라인에 대해 알아 보려고 합니다.일단 주제는 이렇게 잡았는데 조금 어렵게 생각이 드네요..최대한 쉽고 재미있게 풀어 보도록 하겠습니다.

AI란 무엇일까?

먼저, AI가 무엇인지 간단하게 짚고 넘어가겠습니다. AI는 쉽게 말해 인간의 지능을 흉내 내는 컴퓨터 프로그램 입니다.우리가 항상 손에 들고 다니고, 없으면 왠지 신경 쓰이고,불안 증상을 느끼게 하는 스마트폰을 예로 들면, 구글 어시스턴트같은 음성 비서,온라인 쇼핑몰의 추천 시스템,자율주행 스마트 자동차까지 상당히 많은 곳에서  AI가 활용되고 있습니다.

AI와 윤리적 딜레마

그런데 이렇게 편리한  AI도 문제가 문제가 있을 수 있습니다. 바로 윤리적인 문제 입니다. AI가 사람처럼 생각하고 판단을 내리는데, 그 판단이 항상 옳을 수 있을까? 예를 들어 보겠습니다.

예로 든 설정에 다소 무리가 있지만 이해해 주시고 넘어가 주시면 감사 하겠습니다.

AI로 운영되는 자율 주행 자동차가 주행 중 갑자기 브레이크가 고장이 났습니다. 하필 이면 그때 차량 신호등이 적색으로 바뀌고 횡단보도가 청색 으로 바뀌면서 어르신이 횡단보도를 건너고 있습니다.옆 차선에는 어린이들이 타고 있는 노란색 유치원 버스가 있습니다.선택지가 두 방향 밖에 없을 때 AI는 어떤 선택을 할까요? 어느 쪽이 더 나은 선택 일까요? 물론 예제로 든 설정에 무리가 있겠지만 ...이런 상황에서 AI의 판단 기준은 무엇 일까요?

이처럼 AI가 내리는 결정이 윤리적으로 바른 결정인지,그 결정에 대한 책임은 누구에게 있는지 등의 문제가 바로 AI윤리의 핵심 이라고 생각됩니다.

AI 의 편향적인 문제

다음은 AI의 편향적인 문제에 대해서도 얘기해 보겠습니다. 모르는게 없는 똑똑한 AI도 사람이 만듭니다. 그러다 보니 AI를 만든 사람의 편견이나 선입견이 AI에게 그대로 반영될 수 있을 것입니다. 

예를 들면,한 회사에서 AI를 이용해서 신입 사원 지원자를 선별 한다고 가정 해 보겠습니다. 만약 이 AI가 과거의 데이터 만으로 학습을 했다면, 과거에 남성 직원이 많았던 직종 에서는 여성 지원자를 부적합 하다고 판단을 할 수 있을 것입니다. AI의 판단에 의한 결정이지만 이것은 명백한 성차별 이라고 볼 수 있지 않을까요? 

이 예는 어느 한 대기업에서 실제로 있었던 일 이었으며, 이런 편향적인 문제가 있음이 밝혀져서 사용을 중단 했다고 합니다. 이런 편향적인 문제는 인종,출신,나이,지역등 다양한 분야에서 나타날 수 있습니다.

공정한 AI를 위한 노력

그래서 요즘에는 '공정한AI'를 만들어 내기 위해서 다양한 배경의 사람들이 AI개발에 참여 하고 있으며,AI가 학습하는 데이터도 어느 한쪽으로 편향 되지 않도록 신중하게 선별하고 있다고 합니다.

책임 있는 AI 개발을 위한 가이드라인

이제 책임 있는 AI 개발을 위한 가이드라인에 대해서 알아 보겠습니다. 세계 각국의 정부와 기업들이 AI 윤리 가이드라인을 만들고 있습니다. 대표적인 몇 가지를 소개 합니다.

  • 투명성 입니다 AI가 어떠한 원리로 작동을 하는지 정확하게 설명할 수 있어야 할 것입니다.
  • 공정성 입니다.AI는 성별이나 인종, 나이등에 관계없이 모든 사람을 공평하게 대해야 합니다.
  • 안전성 입니다. AI 시스템은 안전해야 하며, 사람에게 위해를 끼치지 않아야 합니다.
  • 인간을 중심으로 해야 합니다. AI는 인간의 삶을 더 좋게 만들기 위한 도구일 뿐입니다.인간을 대체 하는 존재가 되어서는 안됩니다.
  • 프라이버시를 보호해야 합니다. AI가 개인정보를 다룰 때는 반드시 프라이버시를 존중해야 합니다.
  • 책임이 명확 해야 합니다.AI의 결정으로 인해서 문제가 생길 경우 그에 대한 책임 소재가 명확해야 합니다.

이와 같은 가이드라인을 지키면서 AI를 개발하고 사용하는 것이 바로 '책임 있는 AI'를 만드는 방법일 것입니다.

@------------@

지금까지 AI 윤리에 대해서 이야기를 해 보았는데, 처음에는 어려운 주제를 택해서 힘든 포스팅이  될 것이라 생각 했지만 생각보다 재미 있었습니다.

AI 윤리라는 주제가 우리의 일상생활과 아주 가깝게 있는 문제 입니다.

SNS에 열심히 글을 올렸는데 AI가 부적절한 내용이라고 판단해서 삭제해 버리고, 면접을 보는데 AI 가 말투,표정등을 분석해서 부적합 하다고 판정을 내려 버린다면? 이런 상황에서 우리는 AI 의 판단 근거를 알 권리가 있으며, 공정한 판단 이었는지 따져볼 수 있어야 할 것입니다.

AI는 우리에게 더 편리하고 풍요로운 삶을 살아갈 수 있도로 도와 줄 것입니다.하지만 우리는 AI 가 올바른 방향으로 발전할 수 있도록 지켜보고, 때로는 회초리도 들어야 할 것입니다.

자,그럼 여기서 마무리 하겠습니다.

감사합니다.