차별·혐오에 쉽게 물드는 AI…'착한 알고리즘' 만들려면

차별·혐오에 쉽게 물드는 AI…
'착한 알고리즘' 만들려면

구글AI, 흑인더러 "고릴라"

애플은 같은 능력 가졌는데도

남성 카드한도 여성의 10배

AI윤리·신뢰성 확보할 도구

롤스로이스 `알레테이아`

개발 과정부터 통제·수정

편향적인 내용 지속적 감시

인공지능(AI)은 기술적으로 인류의 문명을 한 단계 더 높은 단계로 이끌어주는 기술임에는 틀림없다. 다만 윤리적으로 봤을 때, 기술의 진보가 곧 인류의 행복을 담보한다고 볼 수만은 없다. 농업의 시작, 철기 문명의 시작, 산업혁명 등 과거 사례를 봐도 역사적인 기술 혁명이 인류 전체의 부를 가져다준 것은 맞지만, 갑작스러운 변화에 피해를 보는 사람들도 다수 생겼기 때문이다.

AI도 마찬가지다. 많은 학자가 AI 기술로 바뀌는 삶의 변화와 그로 인한 부작용에 대해 고민하고 있다. 고민을 하는 중에 기술은 진보하고 현시점에도 AI로 인한 부작용은 꾸준히 발생하고 있다.

최근 AI로 인한 윤리 문제가 하나둘씩 구체적인 사례로 등장하고 있다. 인류가 우려한 만큼 심각한 문제는 아니다. AI 사용이 제한된 상황으로, 인류에게 큰 영향력을 미치지는 못하는 상황이라서 그 피해가 적은 편이다. 하지만 AI의 윤리 문제는 '소수의 취약 계층'을 대상으로 한다는 점에 사소한 문제로 치부할 수는 없다. 장기적으로 취약 계층의 생존과 문제가 될 수 있기 때문이다. 구글 AI는 흑인을 고릴라로 인식했으며, AI 기반 애플 카드는 남성에게 같은 조건을 가진 여성보다 신용카드 한도액을 10배로 허용한 사례가 있다.

이런 취약 계층에 대한 편향적인 문제는 앞으로 AI 기술이 인류에 직접적인 영향력을 줄 때, 이미 바꿀 수 없는 심각한 문제로 발전될 가능성이 크다. 마치 이미 걷잡을 수 없을 만큼 진행된 작금의 지구 온난화 사태처럼 말이다.

이를 해결하기 위해 국제 사회는 'AI 윤리'를 위한 다양한 신뢰 도구를 개발하고 있다. 대표적으로 2019년 4월 유럽연합(EU)은 '신뢰할 수 있는 AI 가이드라인'을 발표했다.

또 다른 AI 윤리 도구로는 롤스로이스가 만든 '알레테이아(The Aletheia)' 프레임워크가 있다. 롤스로이스는 AI 윤리와 신뢰성에 대한 철학·학문적 대화를 실제 적용으로 옮기는 것을 목적으로 이를 만들었다. 원론적인 규정이 아닌 실생활에 적용 가능한 구체적인 지침이다.

EU의 가이드라인과 롤스로이스의 프레임워크는 비슷한 주제로 접근하지만, 접근 방식에서는 상당히 다른 모습을 보여준다. EU의 가이드라인은 100페이지가 넘는다. AI 윤리에 대한 근본적인 질문을 다룬 방대한 문서다. 반면 롤스로이스는 한 장의 A3 문서를 통해 '무엇(What)'부터 '어떻게(How)'라는 질문에 대한 답을 준다. 실용적인 프로세스를 고려했기 때문이다.

EU의 가이드라인과 롤스로이스의 프레임워크와 같은 AI 윤리 도구는 이를 미처 준비하지 못한 기업이나 기관 등 다양한 조직이 자체적인 AI 지침을 만드는 데 사용할 수 있도록 돕는다. 기업들이 AI를 개발하기에 앞서 AI 사용으로 인한 영향을 충분히 고려해야 한다. 여기에는 사회적 영향, 거버넌스, 신뢰, 투명성 등 중요한 요소가 포함된다. 기업 경영진과 이사회는 AI 윤리 도구가 제시하는 요소를 엄격하게 고려했는지 확인해야 한다.

이런 절차는 개발 전 주기에 걸쳐 이뤄져야 하며, 이를 위한 단계적인 프로세스가 필요하다. AI 기술을 적용하기에 앞서, AI가 결정한 내용이 편향적인지 윤리적으로 잘못됐는지를 감지하고, 관리자가 개입해 이를 통제하고 수정하는 각각의 단계가 필요하다는 것이다. AI 윤리 도구는 AI 알고리즘을 만들고 학습시키기 위한 기술적인 접근은 아니다. AI가 전체 개발주기에서 작동하기 때문에 AI 윤리 도구는 기술적으로 반윤리적인 문제가 발생할 때도 이를 지속적으로 감시할 수 있어야 한다.

예를 들어 머신러닝의 최신 기법 중 강화학습은 강력한 보상 시스템으로 학습이 진행되기 때문에 인류 보편적인 윤리와 맞지 않을 수도 있다. 더 나은 보상을 받기 위해서는 비윤리적인 상황이 유리할 수 있기 때문이다. 이런 강화학습이 제대로 된 AI 모델로 발전하려면 윤리적인 방향으로 학습을 해야 한다. 학습을 하는 것은 기술적인 영역이지만, 이를 확인하는 과정에는 AI 윤리 도구를 도입해야 최종적으로 개발된 AI 윤리 모델의 신뢰성이 커질 수 있다.

AI는 급격하게 발전하고 있다. 지금까지 개발한 AI 모델이 윤리적이고 신뢰성이 있더라도, 새로운 AI 모델을 도입한 학습에서는 더 이상 유효하지 않을 수도 있다. 이를 위해서 체계적인 모니터링 시스템이 필요하다.

앞으로 AI 기술이 현재의 세계를 근본적으로 변화시킬 것은 확실하다. 이 과정에서 윤리적인 문제는 지속적으로 발생할 수밖에 없다. 문제가 발생한 뒤 해결하는 것보다는 미리 이를 검증할 수 있는 AI 윤리 도구를 만들어 문제를 미연에 방지하는 것이 중요하다. 또한 이런 AI 윤리 도구는 발전하는 AI 기술과 변화하는 사회상에 맞춰 지속적인 연구가 필요하다.

이는 공적 영역과 사적 영역의 모든 이해 당사자들이 함께 머리를 모으고 고민해야 할 문제다.