올해 노벨상 과학 분야에선 4명의 AI 연구자가 수상자로 선정됐다. 이중 물리학상을 공동수상한 제프리 힌턴(76) 캐나다 토론토대 명예교수는 물리학 이론을 활용한 AI연구로 현 시점 챗GPT를 필두로 한 ‘생성 AI 시대’를 여는 데 큰 역할을했다. 그런데 그는 지난 8일 온라인 기자회견에서 “정부가 대기업들이 AI 안전 연구에 더 많은 자원을 투자하도록 유도해야 한다”고 말했다. 생성 AI 시대를 연 주역이 AI 위험성을 경고한 것이다.
힌턴 교수는 지난해 10월 캐나다 토론토에 위치한 벡터연구소에서 팩플과 진행한 단독 인터뷰에서도 AI가 초래할 위험에 대해 수차례 강조했다. 힌턴 교수에 따르면 AI가 초래할 위험은 ‘사회적 위험’과 ‘실존적 위험’ 2가지로 나뉜다. 이중 사회적 위험은 실업‧가짜뉴스‧차별과 편향‧전투 로봇을 의미한다. 예컨대 AI가 만든 가짜뉴스로 부정선거 가능성이 커지거나, AI가 일자리를 줄여 빈부격차가 심하게 나타나거나, AI 힘을 악용하는 전투로봇이 등장하는 종류의 위험이다. 그는 이보다 실존적 위험이 더 인류에게 위험하다고 설명했다. 실존적 위험은 AI가 인간보다 더 높은 지능을 갖게 돼 인류를 통제하고 싶어하는 상황을 말한다.
” “두 살짜리 아이가 있다고 가정해 보자. 당신이 애한테 이렇게 말한다. ‘완두콩을 먹을 거니, 브로콜리를 먹을 거니?’ 아이는 둘 다 먹지 않아도 된다는 사실을 모른다. 완두콩은 브로콜리만큼 맛이 나쁘지 않으니 먹을 수 있다고 생각할 뿐이다. 그리고 당신이 그렇게 (둘 중 하나라도 먹게끔) 조종하고 있단 것도 아이는 모른다. 초지능이 당신보다 훨씬 더 똑똑해진다면, 두 살짜리 아이를 속이는 어른처럼 당신을 아주 쉽게 조종할 수 있을 것이다. 인간들이 ‘초지능은 똑똑하지 않다’고 여기게끔 초지능이 인간을 속이는 것도 가능하다.” “
힌턴 교수는 이런 AI의 실존적 위험이 언제 현실로 닥칠거라고 생각할까. 그리고 눈부신 속도로 발전하는 AI를 제어하기 위해선 우리는 어떤 노력을 기울여야할까. 올해 노벨 물리학상 수상자이자 지난해 5월 구글을 퇴사하고 국내 언론과 첫 대면 인터뷰를 한 힌턴 교수의 생각을 팩플에서 들여다볼 수 있다.
‘알파고의 아버지’로 불리는 데미스 허사비스 딥마인드 최고경영자(CEO)는 이번 노벨 화학상 공동 수상자로 선정됐다. 신약개발을 위한 단백질 구조를 예측하는 AI 모델인 ‘알파폴드2’를 개발한 공로를 인정받았다.
신약 개발이 어려운 이유는 질병의 비밀을 담고 있는 자물쇠와 열쇠가 무수히 많아서다. 신약 개발은 통상 특정 질병을 유발하는 인체 내 단백질(자물쇠)을 찾아낸 다음 이를 치료할 신약 후보 물질(열쇠)을 발굴한 뒤 효과를 검증하는 단계를 거친다. 문제는 사람 힘만으론 무수히 많은 경우의 수를 시험해 보는 데 시간과 비용이 너무 많이 든다는 점이다. 챗GPT에도 쓰인 ‘트랜스포머’ 기반 AI 모델인 알파폴드2는 단백질 구조 예측에 걸리는 시간을 대폭 줄였다. 독일 막스플랑크 연구소의 안드레이 루파스 교수는 2020년 네이처에 “10년간 알아내지 못한 특정 단백질 구조를 알파폴드2는 30분 만에 밝혀냈다”며 “게임 체인저(game changer)가 등장했다”고 말했다.
알파폴드2는 기존 예측 모델과 무엇이 달랐을까. 제약 분야에 뛰어든 AI는 암·알츠하이머(치매)·백혈병 등 인류를 괴롭혀 온 난치병을 해결할 수 있을까. 팩플 오리지널에서는 알파폴드와 같이 난치병 치료를 위한 연구에 활용되고 있는 신약 개발 AI 세계를 집중 해부했다.