2023년 11월, 챗GPT 개발사인 오픈AI의 CEO 샘 올트먼이 개발보다 윤리를 중시하는, 이른바 ‘효과적인 이타주의(EA·Effective Altruism)’ 이사진들에게 해임을 당하는 일이 발생합니다. 하지만 샘 올트먼은 투자자와 임직원들의 지지에 힘입어 5일 만에 다시 복귀했는데요. 이 사건은 단순히 경영권 문제에 그친 것이 아니라, 일반인도 ‘인공일반지능(Artificial general intelligence, AGI)’에 대해 관심을 두기 시작한 계기가 되었습니다.
스스로 학습하고 훈련하는 궁극의 AI
인공일반지능은 마크 구부르드(Mark Gubrud) 노스캐롤라이나 대학교 교수가 1997년 저술한 ‘나노 기술과 국제 안보’라는 논문에서 처음 등장했습니다. 구부르드 교수는 자기 복제 시스템을 갖춘 군사용 인공지능의 출현을 전망하며 이를 AGI로 규정했습니다. 개념적으로 AGI는 사람의 명령 없이도 스스로 학습과 훈련이 가능한 꿈의 AI입니다. 이는 사람의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있는 기계를 가리킵니다.
하지만 궁극의 AI에 대한 아이디어는 무려 200여 년 전까지 거슬러 올라갑니다. 러브레이스 백작부인 어거스터 에이다 킹은 찰스 배비지가 개발한 ‘차분기’를 보고 ‘두뇌가 생각과 감정을 일으키는 원리를 구현하고 싶다’는 생각을 했습니다. 이후 앨런 튜링이 맨체스터대 연구원으로 재직하며 ‘이미테이션 게임(기계가 인간과 얼마나 비슷하게 대화할 수 있는지를 기준으로, 기계에 지능이 있는지를 판별하는 시험)’이라는 아이디어를 떠올렸고, 프랑크 로젠블라트는 처음으로 단층 신경망을 활용한 ‘퍼셉트론(입출력을 갖춘 알고리즘으로, 입력을 주면 정해진 규칙에 따른 값을 출력하는 것)’을 직접 만들기도 했습니다.
한편, 급격히 발전하고 있는 AI에 대한 염려의 목소리도 존재하는데요. 오픈AI의 공동창업자인 일리야 수츠케버는 “AI에 약간의 자의식이 있는 것 같다”고 주장하며, AI 안전이 가장 중요하다고 강조했습니다. 만약 AI가 사람을 월등히 초월하는 능력을 보유하고, 자율적으로 판단할 경우, 존재만으로도 위협적이기 때문에 지금부터 통제해야 한다는 주장을 내세우기도 했습니다.
샘 올트먼 역시 포브스와 인터뷰에서 유사한 생각을 내비친 적이 있습니다. 그는 “AGI는 (스스로 일해) 수익을 발생시킬 텐데 이를 어떻게 배분해야 할지가 관건일 것”이라면서 “AI를 누가 통제할 수 있으며, 이를 소유한 회사는 어떤 지배구조로 구성돼야 하는지 등 새로운 생각이 필요하다”고 지적한 바 있습니다.
하지만 AGI에 대한 개념은 보는 사람마다 제각각입니다. 혹자는 AGI가 자율적 판단을 전제로 하는 AI이기 때문에 자의식을 갖출 가능성이 크다고 보고 있고, 혹자는 AGI는 능력만 특출할 뿐이니 경계할 필요가 크지 않다고 반박합니다. 이런 가운데 구글은 올해 11월 AGI에 대한 기준을 처음으로 분류했습니다.
구글 딥마인드, AGI를 6단계로 분류하다
구글 딥마인드 연구진들은 AGI에 대한 개념이 그동안 시대에 따라 시시각각 변했다고 말합니다. 다만 이들은 AGI가 이제 철학적 논쟁 대상에서 실용적 개념으로 변경됐다고 강조했습니다.
구글 딥마인드는 AGI를 크게 레벨 0부터 5까지 총 6단계로 규정했습니다. 레벨 0은 ‘AI 아님(NO AI)’, 레벨 1은 숙련되지 않은 성인과 유사한 ‘신진(Emerging)’, 레벨 2는 숙련된 성인의 상위 50% 이상인 ‘유능함(Competent)’, 레벨 3은 숙련된 성인의 상위 10%인 ‘전문가(Expert)’, 레벨 4는 숙련된 성인의 1%인 ‘거장(Virtuoso)’, 레벨 5는 숙련된 성인 능력을 초월하는 ‘슈퍼휴먼(Superhuman)’을 뜻합니다.
AGI는 6단계의 분류 외에도 용도에 따라 모든 부분을 다룰 수 있는 ‘일반 AGI’와 한 분야만 다루는 ‘특수 AGI’로 구분합니다. 일반 AGI의 범용 목적 서비스 사례를 살펴보면, 레벨 0은 2001년 AWS가 런칭한 크라우드소싱 웹페이지, 레벨 1은 오픈 AI 챗GPT, 구글 바드, 메타 라마2가 대표적입니다.
반면 특수 AGI의 특수 목적 서비스 사례는 이미 레벨 5까지 진입한 상태입니다. 레벨 5는 단백질 구조를 밝혀내는 AI 알파폴드가 대표적입니다. 단백질 구조를 밝혀내려면 짧게는 몇 개월에서 길게는 몇 년이 걸리지만, 알파폴드는 2~3시간 만에 이를 분석해 낸다는 평가를 받고 있습니다. 특히 ‘단백질 구조 예측 학술대회(CASP)’에 참가해 98개 그룹 가운데 압도적 1위를 달성하며 시선을 끌었습니다. 알파제로는 규칙만 입력하면 심층 신경망 기술을 통해 스스로 학습하고 승률을 높이는 AI로 유명합니다. 이미 이세돌 9단을 이긴 알파고와 그 후에 등장한 알파고 제로마저 격파해 버린 케이스입니다.
구글 딥마인드가 분류한 AGI는 능력 외에도 기능성 / 일반성·성능성 / 메타인지(생각에 대한 생각) / 생태학적 타당성(보편성) / 경로성을 만족시켜야 합니다. AGI는 과정이 아닌 기능 그 자체로, 성능 면에서 뛰어나야 합니다. 또한 새로운 작업을 학습하는 능력을 갖추면서도 완제품이 아니더라도 잠재력이 있어야 하며, 사람이 중시하는 가치를 달성할 수 있어야 한다고 강조합니다.
구부루드 교수는 AGI라는 개념을 처음 사용하면서 AGI에 대해 ‘복잡성과 속도 면에서 사람의 두뇌에 필적하거나 능가하고, 일반적인 지식을 습득·조작·추론할 수 있으며, 사람의 지능이 필요한 산업 또는 군사 직전의 모든 단계에서 사용할 수 있는 AI 시스템’이라고 규정했습니다. 이후 머레이 샤나한 임페리얼 칼리지 런던대 교수는 ‘특정 작업 수행에 특화되어 있지 않지만, 사람처럼 광범위한 작업을 수행하는 방법을 학습할 수 있는 인공지능’이라고 강조했습니다.
이처럼 AGI 시스템은 구글 알파폴드나 알파제로처럼 사람의 상상을 뛰어넘는 행동을 하기 때문에 딥페이크, 속임수, 조작 등에 사용되더라도 사람이 간파하지 못할 가능성이 매우 큽니다.
두머 VS 부머, AGI에 대해 갈리는 의견들
현재 IT업계와 학계는 AI로 인해 자칫 인류가 파멸할 수 있다고 보는 ‘두머(Doomer)’진영과 섣불리 예단하기 어렵기 때문에 현재로선 개발이 정답이라고 보는 진영을 ‘부머(Boomer)’진영으로 나뉘어 있습니다. 특히 부머들은 파멸론을 기득권 진영의 사다리 걷어차기라고 보고 있는데요. 규제를 외칠 경우 후발 주자들이 더 큰 피해를 보기 때문입니다. 영국에서 열린 AI 정상 회의에서 테슬라의 CEO 일론 머스크는 “감독을 하기 전에 통찰력을 갖고 시작하는 것이 중요하다”며 규제에 시동을 걸려는 미국 정부를 비판했습니다.
또한 메타의 얀 르쿤 수석 과학자 겸 부사장은 X(옛 트위터)를 통해 “AI에 대한 염려의 목소리는 공포를 조장하는 대규모 기업 로비에서 비롯됐다”고 지적했습니다. 뿐만 아니라, 6년 전 AI 스타트업인 랜딩 AI를 창업한 스탠퍼드대 교수 앤드류 응 역시 “일부 AI 기업이 AI에 대한 두려움을 이용해 시장 지배력을 확대하려고 하고 있다. 빅테크 기업은 오픈소스 진영과 경쟁하기 원치 않으며, AI가 인류를 멸종시킬 것이라고 주장하고 다닌다”고 목소리를 높였습니다. 논란은 계속되겠지만, AI의 발전은 올 수밖에 없는 미래가 됐습니다. 앞으로 또 어떤 혁신을 보여줄지 이제 전 세계가 주목하고 있습니다.
글 ㅣ 이상덕 ㅣ 매일경제 실리콘밸리 특파원·<챗GPT 전쟁: 실리콘밸리는 지금 무엇을 준비하고 있는가> 저자