(YTN) ‘착한 인공지능’ 개발 위한 윤리 규범 속속 등장 (2016. 4. 7)

[앵커]
기술 개발에 대한 인간의 끝없는 욕망, 그것이 어떤 재앙을 낳는지 SF 영화에 종종 등장하곤 하죠?

인공지능 기술이 하루가 다르게 발전하자 사람이 통제할 수 없는 시점이 올 수 있다는 전망도 나오고 있습니다.

이런 암울한 미래를 막기 위해 세계 각국은 인공지능 기술 개발에 대한 윤리규범을 마련하기 위해 고심하고 있습니다.

허찬 기잡니다.

[기자]
지난 1월 미국 캘리포니아 아실로마에서 열린 인공지능 콘퍼런스 현장입니다.

테슬라의 최고경영자 일론 머스크.

알파고 창시자 데미스 허사비스.

전 세계 과학기술계 명사들이 인공지능과 공존하는 미래에 어떻게 대비할지 논의하기 위해 모였습니다.

[웬델 왈라크 / 미 예일대 교수 : AI가 적용되면서 현대인의 삶이 거의 모든 면에서 변하고 있다는 사실을 인지하고 있다면, 앞으로 드러날 윤리적인 문제에 대해서도 생각해 볼 수밖에 없습니다.]

이 자리에서 인간에게 이로운 AI를 만들자는 약속, 이른바 ‘아실로마 AI 원칙’이 탄생합니다.

23개 조항 안에는 자기 복제가 가능한 AI도 사람의 통제 아래 있어야 한다는 내용이 포함돼 잠재적 위험에 대한 경각심을 놓치지 않았습니다.

일본 인공지능학회는 연구자가 갖춰야 할 윤리성을 AI도 준수해야 한다는 윤리 지침을 내놨습니다.

유럽의회는 여기서 한발 더 나아가 AI 로봇을 철저히 규제하기 위해 ‘전자 인격’으로 규정하는 결의안도 통과했습니다.

[안드레아 베르토리니 / 이탈리아 산타나대 교수 : (로봇에게) 특정 분야에서 사람에게 경제적 이익을 창출할 수 있도록 권리와 의무가 주어지게 됩니다.]

이렇게 AI의 안전성이나 법적 책임 문제 등에 대비하기 위한 다양한 시도가 이뤄지고 있습니다.

한국도 최근 AI와 로봇의 윤리 문제를 다룬 보고서를 발간하는 등 한창 논의가 진행 중입니다.

하지만 아직까지는 인공지능 기술 개발 자체에 주력하고 있는 상황입니다.

[차두원 / 한국과학기술기획평가원 연구위원 : 국가 차원에서는 과연 (인공지능이) 어떠한 잘못된 케이스로 국민에게 위해가 될 수 있을지에 대한 영향연구가 본격적으로 진행되어야 합니다.]

인공지능의 활용 영역이 넓어질수록 그에 비례해 부작용에 대한 우려도 커지고 있습니다.

인간과 인공지능.

그 평화로운 공존을 위해서는 어떤 조건이 필요한 지 사회적인 논의가 필요한 시점입니다.

YTN 사이언스 허찬입니다.

답글 남기기

아래 항목을 채우거나 오른쪽 아이콘 중 하나를 클릭하여 로그 인 하세요:

WordPress.com 로고

WordPress.com의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Facebook 사진

Facebook의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

%s에 연결하는 중