기술의 발견
인공지능 권고안 제시
AI 기술이 만드는 인류의 미래
알파고와 이세돌 9단의 대국은 인공지능의 시대를 체감하게 하는 충격적인 사건이었다. AI에 대한 인간의 두려움은 SF영화가 아니라 현실에서 느낄 수 있다. 인간의 지적능력보다 빠르게 진화하는 AI 기술은 이미 우리 삶에 깊게 들어와 있기 때문이다. AI의 기술에 대한 이슈가 계속 논의되는 만큼, 국제사회도 AI 기술에 대한 합의된 권고안을 내놓았다.
Editor 이성주
기술은 눈부시게 발전하고 있지만,
AI 기술에 대한대안이
마련되지 않았다는 점이
바로 대한민국을 비롯해 국제사회에서
우려하는 문제였다.
두려움보다 빠른 인공지능의 현실
인공지능은 이미 우리 삶에 깊이 들어와 있다. 아이폰에 탑재된 인공지능 ‘시리’ 혹은 ‘빅스비’에게 말을 걸고, 궁금한 내용을 물어보거나 전화를 걸어달라고 말하는 일상은 더 이상 특별한 풍경이 아니다. 2016년에 인류에게 알파고와 이세돌 9단의 대국은 ‘인공지능’(Artificial Intelligence, AI)의 시대를 체감하게 하는 일이었다. 이 사건은 인간과 알파고의 대결처럼 보였으나, 알파고 역시 2017년 ‘알파고 제로’라는 새로운 인공지능 기술이 나타나며 역사의 뒤안길로 사라졌다.
이처럼 인공지능 기술은 나날이 빠르게 발전을 거듭하고있다. AI란 용어는 1956년 미국 다트머스대 인지과학자들이 뇌의 기능에 대한 연구를 정부에 제안할 때 처음 사용됐다. AI 기술은 이제 자동차, 의료, 금융 등 각산업분야에 광범위하게 응용되고 활용되는 만큼 부정적 사례도 속출하고 있다. 기술은 눈부시게 발전하고있지만, AI 기술에 대한 대안이 마련되지 않았다는 점이 바로 대한민국을 비롯해 국제사회에서 우려하는 문제였다.
미국, 유럽, 일본 등 세계 주요 국가에서 AI 산업 활성화와 함께 부작용을 최소화할 수 있는 윤리기준 제정에 나선 것도 이 때문이다. 인류에게 독이 될지 약이 될지는 전적으로 인간의 몫, SF영화에서만 보던 두려움이 이제 현실로 다가왔기 때문이다. 인간의 삶은 기술 발달에 따라 편리해졌다. 하지만, 여러 가지 문제와 우려의 목소리가 이어지는 것도 사실이다.
AI 기술이 만드는 디스토피아!?
인류가 AI에 대해 느끼는 두려움은 어디서 오는 걸까? 이미 AI 기술이 인류의 지적능력을 뛰어넘었다는 것이 두려움의 가장 큰 이유가 아닐까. 업계에서는 “AI가 사람의 지능이나 사고방식을 따라잡으려면 최소 10년이상은 걸린다”며 “인명피해나 여론조작 같은 치명적인 부작용을 걱정하는 건 시기상조”라고 일축하고 있지만 이미 당면한 해킹이나 중독, 일자리 축소는 경계해야 한다고 지적하고 있다. 인간에게 긍정적인 혹은부정적인 영향을 줄 AI를 대체로 두 가지로 분류한다.
AI를 약한(Weak) AI와 강한(Strong) AI로 나누며, 강한AI는 인간의 감성을 이해하고, 사람을 보조하거나 함께 활동하는 단계를 뛰어 넘어 ‘자율적’으로 사람처럼 행동하는 로봇을 말한다. 윤리 의식이 떨어지는 AI가 스스로 반인륜적인 문화를 확산시킬 가능성도 배제할 수없다. 실제로 AI 기술에 대해 우려했던 일이 현실로 일어난 사례도 있다. 지난 2016년 마이크로소프트의 AI챗봇 ‘테이’가 백인 우월주의, 나치숭배 등의 발언을 해 마이크로소프트가 해당 서비스를 즉시 중단시킨 바 있다. 2015년에는 구글의 ‘구글사진’ 서비스에서 얼굴 자동인식 기능의 오류로 흑인이 ‘고릴라’로 표시되어 회사 측이 이에 대해 사과하고 긴급 패치를 내놓기도 했다. 사람의 개입이 불가능할 정도로 AI 기술이 고도화된다면, 어떤 결과가 초래될지 장담할 수 없다. 미국, 유럽, 일본 등 세계 주요 국가에서 AI 산업 활성화와 함께 부작용을 최소화할 수 있는 윤리기준 제정에 나선 것도 이 때문이다.
AI의 위험성을 제거하기 위해
무엇보다도 인간은 AI가 만들어낸
결과에 대응할 수 있어야 하고,
AI의 보안을 강화해야 한다는 내용이
권고안에 포함됐다.
AI 기술의 긍정적인 영향에 주목하는 이들도 있다. 인공지능은 시각장애인을 위해 주변 상황이나 텍스트를 음성으로 설명해주고, 청각장애인에게 사람의 목소리를 자막으로 변화해서 보여준다. 또한, 컴퓨터 시각 기술로 산림 파괴를 감시해 환경을 보호할수도 있다. 인권침해 감시에도 인공지능이 활용되기도 한다. 이에 대한 적절한 예로, 국제인권단체 휴먼라이츠워치는 2017년 8월 미얀마 정부가 소수민족인 로힝야족의 마을을 불태울 당시 항공사진 분석으로 마을이 불탄 시점과 규모를 파악하고 가해자를 찾을 수 있었다.
고려대 전기전자공학부 도락주 교수는 AI 기술의 긍정적인 면에 대해 “인공지능은 ‘터미네이터’의 이미지보다 ‘아톰’의 이미지가 강했으면 좋겠다”고 말했다. 터미네이터는 인간의 반역자이지만 아톰은 인류의 친구이기 때문이다. 세탁기가 여성의 인권을 높였듯이 인공지능이 인간을 보다 창의적인 일에 전념하도록 도와줄 것이라는 긍정적인 입장이다. 이에 덧붙여, 기술이 윤리적으로 사용될수 있도록 통제하는 일이 중요하다고 말했다.
윤리적인 AI 기술의 미래를 위해
국내에서도 AI 윤리 가이드라인을 마련하는 움직임이 지난해부터 본격화되고 있다. 그리고 이러한 국제사회의 의견이 반영된 것이 OECD 권고안이다. OECD 인공지능 권고안 도출이라는 상징적인 시작으로, AI 기술에대한 원칙과 기준들이 국제사회뿐 아니라 국가, 단체, 개인의 의견을 통해 다양하게 논의되고 있다. 구글, 페이스북, 아마존, IBM 등은 2016년 ‘파트너십 온 AI’를 결성해 AI의 부작용 예방을 위해 노력하는 연구자와 단체들을 후원하고 있다. 미국의 정보통신기술(ICT) 전문가 단체인 국제전기전자기술자협회(IEEE)는 2016년 말 AI 윤리기준 지침서의 초안을 발표하고 지침서를 점검하고 있다.
한국은 2007년 세계에서 처음으로 ‘로봇 윤리헌장’의 초안을 정부가 주도했지만 이후 제대로 된 AI 윤리 원칙을 규정하지 못한 상황이다. 하지만, 2018년 11월 한국 행정안전부는 AI 서비스가 준수해야 할 윤리 기준과 가이드라인을 마련하고 있다고 전한 바 있다. AI 기술에 대한 다양한 논의가 각계각층에서 나오는 만큼, AI가 인간의 가치를 존중하며 인간의 안전을 보장해줄 수 있는유익한 기술로 성장하길 기대해본다. AI 기술이 인류에게 ‘축복’이 될지 ‘재앙’이 될지는 알 수 없지만, 인류가 노력하는 만큼 우리의 가장 좋은 친구가 되지 않을까.