팬데믹의 시대, 코로나 이후의 사회 흐름을 진단하고 삶의 방향성을 제시하는 ‘2021 현대차정몽구재단 미래지식 포럼’(이하 미래지식포럼)이 4일 서울 중구 페럼타워에서 개최됐다. 현대차정몽구재단과 조선일보 더나은미래가 공동 주최한 이번 포럼은 ‘포스트 코로나 시대, 우리는 어떻게 연결되는가’라는 주제로 여섯 가지의 주제 강연이 차례로 진행됐다. 코로나19 확산 방지를 위해 비대면으로 열린 이번 포럼은 2200여 명의 시청자들이 유튜브와 네이버TV 생중계로 강연을 지켜봤다. 이날 ‘연결’을 주제로 각 분야 전문가들이 제시하는 미래 청사진을 차례로 전한다.
[2021 현대차정몽구재단 미래지식 포럼] |
---|
① “손잡지 않고 살아남은 생명은 없다” -최재천 교수 ② “진심이 드러나는 시대가 온다” -허태균 교수 ③ “범죄를 이기는 연결의 힘” -박미랑 교수 ④ “잉여와 결핍의 연결” -정석 교수 ⑤ “AI는 인간의 유머를 이해하지 못한다” -오혜연 교수 ⑥ “공감의 반경을 넓히는 시간” -장대익 교수 |
“알파고를 보고 많은 사람이 인공지능(AI)에 대해서 두려움을 느꼈지만, 사실 AI에 대해서 잘 아는 사람들에게는 그리 충격적인 결과는 아니었어요. AI가 특별히 잘하는 일이 있지만, 뜻밖에 못하는 것도 많기 때문이죠.”
오혜연 카이스트 전산학부 교수는 4일 서울 중구 페럼타워에서 열린 ‘2021 현대차정몽구재단 미래지식 포럼’ 네 번째 세션에서 ‘AI와 인간의 연결’을 주제로 강연을 진행했다.
이날 오 교수는 AI에 대한 이해를 돕기 위해 AI와 인간의 차이부터 짚었다. “인간은 어떤 일을 하든 쉽게 적응해요. 이를테면 갑자기 눈이 실내등이 꺼져 주변이 어두워지더라도 금방 바뀐 환경에 적응해서 선택을 바꾸죠. 반면 AI는 이런 변화하는 환경에 즉각적으로 결정을 바꾸는 것을 무척 어려워합니다.”
인간과 AI의 차이를 설명하는 대표적인 사례로는 안면 인식과 필체 분석이 있다. 오 교수는 “예전에는 AI에게 숫자 4를 가르칠 때 세로 한 획, 대각선 한획, 가로 한획인 형태로 입력했고, 사람 얼굴도 특정 사람 눈의 가로세로 비율, 눈동자 색, 코의 세부적인 길이까지 알려줘야 했다”면서 “이러한 방식으로는 같은 사람이 마스크를 끼면 누군지 인식하지 못한다”고 말했다. 이어 “AI와 달리 사람이 마스크 착용한 사람도 누군지 쉽게 알아보는 건 변화하는 환경에 적응하기 때문”이라고 강조했다.
AI의 강점도 분명히 존재한다. 오혜연 교수는 알파고와 딥페이크를 예시로 들었다. 그는 수백만개 데이터를 습득한 AI가 어떻게 작동하는지 설명하면서 “알파고는 프로들의 기보를 전부 외워서 바둑을 두게 한다면 더 잘할 것이라는 예상에서 출발했고 실제로 사람을 이겼다”고 말했다. 이어 “사람들은 딥페이크로 만든 영상에 나온 사람이 진짜인지 아닌지 구별할 수 없지만, AI는 세세한 분석을 통해서 구분할 수 있다”고 했다.
결국 인류가 AI의 강점을 어떻게 잘 활용할 것인지의 문제가 남는다. 오 교수는 “최근 반려로봇과 같은 사례로 인간과 AI의 공존 가능성을 점쳐보는 시도가 일어나고 있다”면서 “뇌졸중으로 반신마비가 온 환자에게 재활을 돕는 반려로봇을 보낸 사례가 있는데, 처음에는 귀찮아했지만 로봇이 계속해서 칭찬하고 응원하는 등 재활을 도우면서 서로 교감하는 모습까지 나타났다”고 했다.
“실제 이 반려로봇 프로젝트에 참여했던 사람들의 인터뷰 중에는 ‘로봇이 돌봄에 더 적합하다’는 말도 있었습니다. 가족이 돌보면 서로 감정 상하는 일도 있지만, 로봇은 그럴 일이 없기 때문이에요. 이런 방식으로 사회문제를 해결할 수 있을 겁니다.”
이날 오혜연 교수는 현재 개발 중인 ‘사회적가치를 만드는 AI 기술’을 소개하기도 했다. 그는 “시각장애인이 사진을 찍어서 보내면 자원봉사자가 건널목을 건너도 되는지, 앞에서 아이들이 피아노를 치고 있다는 등 상황에 대해 설명해주는 애플리케이션이 있다”며 “이 애플리케이션에서 자원봉사자들이 제공하는 답변을 AI에게 교육해서 자동으로 시각장애인들에게 답변을 주는 기술을 개발하고 있다”고 말했다. 그는 AI를 통해서 사회문제를 해결할 수도 있지만, AI를 사용하고 만드는 ‘사람’과의 연결이 가장 중요하다고 강조했다. 오 교수는 대표적인 예시로 미국에서 판사들의 범죄자 판결을 도와주는 AI였던 ‘컴파스’를 들었다. 그는 “컴파스는 백인에게는 완화해서, 흑인에게는 엄격하게 판단을 내리는 등 인종차별을 하는 편향성 문제가 일어났다”며 “이런 편향성은 데이터에서 오고, 이 데이터는 편향된 사람들에서 온 것”이라고 말했다.
“AI는 인간을 이해하는 도구입니다. 인간이 어떤 생각을 하고 감정을 가지는지 파악해야 AI를 만들 수 있고, 그런 과정이 인간을 이해하는 과정인 거죠. 문학작품에서 느끼는 감동, 인간의 감정을 온전히 이해하는 AI를 만들 수는 없겠지만, 인간과 비슷한 AI를 만들기 위해 인간을 연구하면서 시뮬레이션하는 연구라고 보면 될 것 같아요.”
김지강 더나은미래 기자 river@chosun.com