메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

한빛출판네트워크

한빛랩스 - 지식에 가능성을 머지하다 / 강의 콘텐츠 무료로 수강하시고 피드백을 남겨주세요. ▶︎

IT/모바일

인간은 인공지능의 지배자로 존재할 수 있을까? ①인공지능의 머릿속 들여다보기

한빛미디어

|

2023-12-15

|

by 뉴 사이언티스트 외 6인

6,213

인공지능의 목표는 탄생부터 지금까지 본질적으로 변하지 않았지만, 인공지능을 만드는 방법은 시대가 변하며 크게 바뀌었습니다. 초기 엔지니어들은 인간이 말을 하고, 글을 읽고, 그림을 보는지에 대한 수학적 모델을 만든 후 이런 작업을 논리적으로 추론하는 컴퓨터 프로그램을 제작해 지능적 행동을 만들어내려고 했습니다. 하지만 현실 세계의 복잡함을 다루기에 적절하지 않았죠. 

 

그러다 인공지능 분야에서 성과가 누적되면서 연구자들은 중요한 사실을 깨달았습니다. 데이터가 이론적 모델보다 더 강력할 수 있다는 사실입니다. 그리하여 소량의 통계적 학습 알고리즘과 대량의 데이터로 무장한 인공지능 기계의 새로운 세대가 등장하게 되었습니다.

 

생각하는 새로운 방식

인공지능의 데이터 주도 접근법은 온라인 쇼핑에서 상품을 추천하는 수준을 뛰어넘어 삶의 거의 모든 영역에 영향을 주고 있습니다. 네덜란드 헤이그에 있는 네덜란드 과학 수사 연구소가 13년 동안이나 추적을 피했던 살인 용의자를 머신러닝 시스템을 이용해 찾아낸 것처럼요. 이 시스템은 아주 많은 DNA 샘플을 분석하고 비교했습니다. 사람이 직접 하기에는 너무 시간이 많이 걸리는 일이었죠.

 

보험업계와 신용업계도 각 개인의 위험 분석 알고리즘을 이용하는 머신러닝을 받아들이고 있습니다. 제약업계도 통계적 인공지능을 이용해 인간이 분석하기에는 너무 많은 유전 데이터를 꼼꼼히 살펴봅니다. IBM의 왓슨이나 구글의 딥마인드와 같은 인공지능은 의료 진단까지 수행합니다. 빅데이터 분석을 하면 인간이 놓치는 것까지 볼 수 있습니다. 인공지능은 인간이 스스로를 아는 것보다 더 인간을 잘 이해할 수 있죠. 하지만 그러기 위해서는 다르게 생각하는 방식을 채택해야 해요.

 

인공지능 연구 초기에는 ‘설명가능성explainability’, 즉 시스템이 어떻게 그 결정을 내리게 됐는지 보여줄 수 있어야 한다는 생각이 중요하게 여겨졌습니다. 규칙 기반의 기호 추론 시스템이 결정을 내릴 때 인간은 시스템이 수행한 논리적 절차를 추적해 그 결정의 이유를 알아낼 수 있었습니다. 그러나 오늘날 데이터 주도 인공지능이 하는 추론은 엄청나게 많은 데이터의 복잡한 통계적 분석에 해당합니다.

 

다시 말해, ‘왜’를 버리고 단순한 ‘무엇을’로 바꿨다는 뜻이죠.

 

마이크로소프트의 크리스 비숍의 말에 따르면, 숙련된 기술자가 인공지능의 추론 과정을 분석한다 해도 이는 의미 없는 일일 가능성이 높습니다. 인공지능이 내린 결정에 대해 왜 그렇게 결정했는지 알 수는 없기 때문이죠.

 

인공지능의 결정은 인간이 해석할 수 있는 규칙을 통해 결론에 도달하는 것이 아니기 때문입니다. 하지만 비숍은 이런 시스템이 거둔 성과에 비하면 이 정도의 약점은 받아들일 수 있다고 생각합니다. 초기 인공지능은 이해하기 쉬웠을지 몰라도, 그 성능은 실망스러웠죠. 누군가는 이런 전환을 비판하겠지만, 비숍을 비롯한 다른 연구자들은 인간적인 설명을 포기할 때가 됐다고 생각합니다. 넬로 크리스티아니니는 이렇게 전합니다.

 

"설명가능성은 사회적 합의입니다. 예전에는 설명가능성이 중요하다고 결정했습니다. 하지만 지금은 중요하지 않다고 결정한 겁니다."

 

영국 브리스틀 대학교의 피터 플래치는 컴퓨터공학과 학생들에게 완전히 다르게 생각하는 방식을 가르치려고 합니다. 플래치는 프로그래밍은 절대적인 것을 다루는 기술이지만, 머신러닝은 불확실한 정도를 다루는 기술이므로 사람들이 좀 더 의심해야 한다고 생각합니다.

 

가령 아마존이 추천하는 책을 볼 때 ‘머신러닝이 추천하는 건가?’, ‘팔리지 않는 책을 재고로 갖고 있어서인가?’ 같은 질문을 한다거나 ‘고객님과 비슷한 사람들’, ‘이 책과 비슷한 책’이 정말 무엇을 뜻할까? 하는 것처럼 말이죠.

 

높아진 위험

 

마이너리티 리포트.jpg

그림. 범죄를 예측하고, 미래의 범죄자를 체포하는 치안 예방 시스템

(영화 마이너리티 리포트, 출처:alternativemovieposters.com)

 

오늘날 인공지능 기계가 담보대출 신청, 의료진단, 그리고 심지어 피의자가 유죄인지 여부까지 등 다양한 분야에서 설명할 수 없는 결정을 내리고 있기 때문에 위험은 더 커지고 있습니다. 우리를 위해 결정해주는 인공지능에 익숙해져서 아예 신경도 쓰지 않게 되는 날이 온다면 어떻게 될까요?

 

만일 의료 분야의 인공지능이 몇 년 내에 당신이 폭음하기 시작할 것이라고 결정한다면 어떨까요? 의사들이 이를 이유로 장기이식을 연기할 수 있을까요? 아무도 그 결정이 어떻게 내려졌는지 알 수 없다면 당신을 위해 변론하기도 어려울 것입니다. 그리고 누군가는 인공지능을 다른 것보다 더 신뢰할 수도 있죠. 플래치는 이렇게 말합니다. “사람들은 알고리즘이 알아낸 사실을 받아들이는 데 너무 순응적입니다. 컴퓨터는 ‘안 돼’ 라고 할 수 있습니다. 그게 문제입니다.” 인간에 있어 진정한 위험은 ‘질문하기’를 포기할 때 올 것입니다.

 

지금 이 순간에도 지구 어딘가에는 당신이 어떤 사람인지, 그리고 어떤 사람이 될지 결정하고 있는 인공지능 시스템이 있을 수도 있습니다. 하버드 대학교의 라타냐 스위니 교수에게 일어난 일을 생각해봅시다. 어느 날 스위니 교수는 자신이 쓰는 구글 검색엔진 결과에 “체포된 적이 있습니까?”라고 묻는 광고를 발견합니다. 이 광고는 백인 동료교수들에게는 나타나지 않았죠. 

 

스위니 교수는 이 경험으로 구글 검색에서 쓰는 머신러닝이 비의도적으로 인종주의 성향을 갖게 됐다는 사실을 밝히는 연구를 시작했습니다. 수많은 상관관계의 혼돈 속에서 흑인에게 더 자주 붙는 이름이 체포 전과기록에 대한 광고와 연결되었던 것입니다.

 

인공지능의 머릿속을 들여다볼 수 있을까?

네 생각을 말해주면 1페니를 주겠다는 영어 관용구가 있습니다. 누군가의 행동을 이해하려면 그 사람의 생각을 이해하는 것이 매우 중요합니다. 인공지능도 마찬가지입니다. 신경망이 문제를 해결하는 과정을 기록하는 새로운 기법이 있으면 신경망이 어떻게 동작하는지를 이해할 수 있고, 더 나은, 그리고 더 믿을 수 있는 인공지능을 만들 수 있을 것입니다.

 

지난 몇 년간, 신경망에 기반한 딥러닝 알고리즘은 많은 인공지능분야에서 혁신을 주도해왔습니다. 문제는 인간이 이런 알고리즘이 어떻게 그런 일을 하는지를 알 수 없는 경우가 있다는 것입니다. 이스라엘 하이파에 있는 이스라엘 공과대학교의 니르 벤 즈리헴은 딥러닝 시스템은 블랙박스라고 이야기 합니다. “잘 돌아가면 다행인 거고, 잘 돌아가지 않으면 큰일이 난 거죠.”

 

신경망은 부분의 합을 넘어서는 시스템입니다. 신경망은 아주 단순한 인공뉴런이라는 구성 요소들로 이루어져있죠. 즈리헴은 “이 신경망에서 특정한 영역을 찍어 신경망의 모든 지능이 거기에 들어 있다고 말하기는 불가능합니다”라고 말합니다. 신경망에서는 연결의 복잡성 때문에 딥러닝 알고리즘이 주어진 결과에 도달하기 위해 밟아온 단계를 역추적하기가 사실상 불가능할 수 있습니다. 이런 경우, 이 인공지능은 신의 계시 같은 성격을 갖게 되고 그 결과는 오직 믿음으로 받아들여지게 되죠.

 

이 문제를 설명하기 위해, 즈리헴과 동료들은 동작 중인 딥러닝 시스템의 이미지를 만들었습니다. 이들의 표현에 따르면, 여기에 사용된 기법은 알고리즘이 문제를 해결하는 과정에서의 활동을 포착하는, 컴퓨터에 대한 fMRI (기능적 자기공명영상)같은 방법입니다. 이 이미지를 사용하면 연구자들이 신경망에서의 종료점들을 포함한 진행단계들을 확인할 수 있습니다.

 

연구팀은 고전 아타리 26008 게임 중 3개(<벽돌깨기>, <시퀘스트 DSV>, <팩맨>)를 플레이하는 과업을 수행하는 신경망을 구축했습니다. 그리고 딥러닝 알고리즘이 각 게임을 플레이하는 동안 12만 개의 이미지를 수집한 다음, 게임을 여러 번 플레이할 때 같은 순간을 비교할 수 있는 기법을 활용해 데이터 지도를 그렸습니다.

 

신경망의 뇌 스캔 이미지_기계는 어떻게~.jpg

그림. 신경망의 '뇌 스캔 이미지' 

(출처: 기계는 어떻게 생각하고 학습하는가, 한빛미디어, 2018)

 

진짜 뇌 스캔 결과와 상당히 비슷해 보이는 이 그림은 특정한 순간 게임의 플레이를 포착한 이미지입니다. 색의 차이는 게임에서 그 순간에 인공지능이 얼마나 잘 과업을 수행하고 있었는지를 보여줍니다.

 

예를 들어 '벽돌깨기'는 플레이어가 길쭉한 바와 공을 이용해 밝은 색의 벽돌들로 이루어진 벽에 부딪혀 구멍을 만드는 게임인데, 연구팀은 한 맵에서 알고리즘이 항상 벽돌 사이를 통과해 볼을 벽 위로 보내려 시도한다는 사실을 보여주는 명확한 바나나 모양의 벽돌벽 공간을 확인할 수 있었습니다. 이것이 신경망이 스스로 알아낸 승리 전략이었던 것이죠. 게임 과정을 포착해 지도화하니 알고리즘이 연속된 게임에서 얼마나 성공적으로 적용되는지 확인할 수 있었습니다.

 


 

이 글은 『기계는 어떻게 생각하고 학습하는가』 내용을 재구성하여 작성하였습니다.

 

인간과의 바둑 경기로 우리를 놀라게 한 알파고, 질문에 척척 대답하는 챗GPT 등 우리 일상에는 정말 많은 인공지능이 자리잡았습니다. 미래 언젠가 기계의 지능은 인간 두뇌의 능력을 뛰어넘을테죠. 이들 기계는 대체 어떻게 생각하고 학습하는 걸까요? 닉 보스토롬, 피터 노빅, 토비 월시를 비롯한 AI 전문가들과 뉴 사이언티스트는 인공지능의 현재와 미래를 자율주행차, 킬러로봇, 머신러닝은 물론 AI 윤리까지 인공지능 시대에 알아야 할 필수 지식을 통해 흥미롭게 살펴봅니다.

 

 

기계는 어떻게 생각하고 학습하는가_섬네일.png

 

 

인공지능은 우리를 파멸할까요, 구원할까요? 

질문에 대한 답을 기계는 어떻게 생각하고 학습하는가에서 확인해 보세요.

댓글 입력
자료실

최근 본 상품0