빠르게 훑는 인공 지능의 역사 (원제: A short history of AI)
1. 인공지능(AI) 기술 발전의 역사
1) 1956년, 인공지능을 탐구한 최초의 학술 모임
출처: Specturm
1956년 여름, 뉴햄프셔 다트머스 대학에 소규모의 저명한 그룹이 모였습니다. 이 그룹에는 정보 이론의 창시자인 클로드 섀넌(Claude Shannon)과 더불어, 노벨 경제학상과 컴퓨팅 기계 학회가 수여하는 튜링상을 모두 수상한 유일한 인물인 허브 사이먼(Herb Simon)이 있었습니다.
이들은 ‘기계로 하여금 언어를 사용하고 추상화와 개념을 형성하도록 만드는 방법’과 ‘인간만 풀 수 있는 문제를 기계로 해결하는 방법’을 논의하고자 했던 젊은 연구자 존 매카시(John McCarthy)의 요청으로 모인 것이었죠. 이것이 매카시가 '인공지능(AI: Artificial Intelligence)'이라고 불렀던 분야에 관한 최초의 학술 모임입니다. 이 모임은 향후 60여 년 동안 야심에 걸맞은 진전을 이루지 못한 채 AI 분야를 대표했는데요.
2) 1980년대, ‘전문가 시스템’ 기반 방향성 합의
출처: Techvidvan
다트머스 회의가 사람처럼 생각하는 기계에 대한 과학적 탐구의 시발점은 아니었습니다. 앨런 튜링(Alan Turing)도 이를 궁금해했고, 매카시에게 영감을 준 존 폰 노이만(John von Neumann)도 마찬가지였습니다.
1956년에는 이미 이 문제에 대한 여러 가지 접근이 존재했는데요. 역사학자들은 매카시가 자신의 프로젝트에 ‘인공지능’이라는 용어를 사용한 이유 중 하나가 모든 접근 방식을 포괄하기 위함이라고 생각합니다.
일부 연구자들은 현실과 수학적 공리를 결합하여 적절한 응답을 추론하는 시스템을 선호했고, 다른 연구자들은 어떤 일의 발생 확률이 다른 일들의 발생 확률 변화와 영향을 주고 받는 시스템을 구축하는 것을 선호했습니다.
이후 수십 년간 이 주제에 대해 많은 지적 동요와 논쟁이 있었지만, 1980년대에 이르러서는 앞으로 나아갈 방향에 대한 폭넓은 합의가 이루어졌습니다. 바로 상징적 논리를 사용해 인간의 노하우를 최대한 포착하고 적용하는 '전문가 시스템'이었는데요. 특히 일본 정부는 이 시스템에 대한 아이디어와 하드웨어를 지원해 주었습니다.
그러나 대부분의 경우 이러한 시스템은 현실 세계의 복잡성에 대처하기에는 너무 융통성이 없는 것으로 판명되었습니다. 1980년대 후반이 되자 인공지능은 약속에 비해 부실한 결과를 내는 것의 대명사로 불리는 불명예를 겪었습니다. 이 분야에 종사하는 연구자들은 인공지능이라는 용어를 기피하기 시작했죠.
3) 1990년대, 인간의 뇌세포 작동 방식 적용한 ‘인공 신경망’ 발전
출처: LG CNS
이어진 인공지능의 겨울을 인내한 일부 학자들로부터 오늘날의 AI가 탄생했습니다. 1940년대에 신경세포(뉴런)의 일종인 뇌세포가 작동하는 방식이 밝혀졌는데요. 컴퓨터 과학자들은 기계도 뇌세포와 같은 방식으로 연결할 수 있는지 궁금해했습니다.
뇌에서는 뉴런들이 상호 연결을 통해 서로 활동을 촉발하거나 억제할 수 있고, 다른 뉴런의 역할에도 영향을 줍니다.
다트머스 출신인 마빈 민스키(Marvin Minsky, 1927~2016)는 실험실에서 하드웨어를 사용해 뉴런의 네트워크를 처음으로 모델링했습니다. 그 이후에는 소프트웨어로 상호 연결된 뉴런의 계층을 시뮬레이션했습니다.
인공 신경망은 명시적인 규칙을 사용하여 프로그래밍되는 것이 아니라 수많은 예제에 노출되어 '학습'합니다. 이러한 학습 과정에서 뉴런 간의 연결 강도(가중치)가 반복적으로 조정되어 결국에는 주어진 입력이 적절한 출력을 생성하도록 합니다.
민스키는 이 아이디어를 포기했지만, 다른 사람들이 이를 발전시켰는데요. 1990년대 초까지 신경망은 손으로 쓴 숫자를 인식하여 게시물을 분류하는 등의 작업을 수행하도록 훈련되었습니다. 연구자들은 뉴런의 계층을 더 추가하면 더 정교한 성과를 거둘 수 있을 것이라고 생각했습니다. 하지만 계층이 늘면 시스템이 느려지는 게 문제였습니다.
4) 2000년대, GPU 활용한 속도 개선 및 효율적 훈련 알고리즘 작동
출처: SK 하이닉스
새로운 종류의 컴퓨터 하드웨어는 속도 문제를 해결할 방법을 제시했는데요. 2009년 그 잠재력이 극적으로 입증되었습니다. 스탠포드 대학교의 연구원들이 기숙사 방에서 게임용 PC를 사용하여 신경망(뉴런 계층) 실행 속도를 70배 향상한 것이죠.
이는 모든 PC에 '중앙 처리 장치(CPU: Central Processing Unit)'와 화면에 게임 세계를 생성하는 '그래픽 처리 장치(GPU: Graphic Processing Unit)'가 탑재되어 있었기 때문에 가능했는데요. 특히 GPU는 신경망 코드를 실행하는 데 적합한 방식으로 설계되어 있었습니다.
이렇게 향상된 하드웨어 속도와 더 효율적인 훈련 알고리즘을 결합하면 수백만 개로 연결된 네트워크를 합리적인 시간 내에 훈련할 수 있는데요. 그 결과 인공 신경망은 더 많은 입력값을 처리할 수 있었으며, 결정적으로 더 많은 계층을 가질 수 있었습니다. 이러한 '더 깊은(deeper)' 신경망은 훨씬 더 뛰어난 성능을 발휘하는 것으로 밝혀졌습니다.
5) 2012년, 딥러닝과 이미지 인식 시스템 발전
출처: LG CNS
‘딥 러닝(Deep Learning)’으로 알려지게 된 이 새로운 접근법의 위력은 2012년 ImageNet 챌린지에서 분명해졌습니다. 이 대회에 참가한 이미지 인식 시스템에는 백만 개가 넘는 라벨이 붙은 이미지 파일 데이터베이스가 제공되었습니다. 개 또는 고양이 같은 특정 단어에 대한 데이터베이스에는 수백 장의 사진이 포함되어 있었습니다.
이미지 인식 시스템은 이러한 예시를 사용하여 이미지 형태의 입력값을 한 단어로 된 설명 형태의 출력값과 '매핑(mapping)'하도록 훈련했습니다. 그 후, 이 시스템은 이전에 보지 못한 이미지에 대해서도 적절한 설명을 생성하도록 훈련했습니다.
2012년 당시 토론토 대학교의 제프리 힌튼(Geoff Hinton)이 이끄는 연구팀은 딥러닝을 활용하여 85%의 정확도를 달성했고, 이는 곧 획기적인 성과로 인정받았습니다.
2015년 쯤에는 이미지 인식 분야의 거의 모든 사람들이 딥러닝을 사용했습니다. 이미지넷 챌린지의 우승 정확도는 인간의 평균 점수보다 높은 96%에 달했죠. 딥러닝은 소리를 텍스트에 매핑하는 ‘음성 인식’, 얼굴을 이름에 매핑하는 ‘얼굴 인식’, 번역 등 서로 다른 유형으로 매핑하는 "인간만 풀 수 있는 문제"에도 적용되었습니다.
6) 딥러닝을 적용한 서비스의 등장
출처: 녹색경제신문
이러한 모든 문제 해결에 있어 방대한 양의 인터넷 데이터는 필수가 되었으며, 인터넷을 사용하는 사람들의 수가 대규모 시장의 가능성을 보여주었습니다. 그리고 신경망을 더 크게(즉, 더 깊게) 만들고 더 많은 학습 데이터를 제공할수록 그 성능은 더욱 향상되었습니다.
딥러닝은 곧 모든 종류의 새로운 제품과 서비스에 적용되었습니다. 아마존의 알렉사(Alexa)와 같은 음성 기반 기기가 등장했고, 온라인 트랜스크립션(transcription) 서비스가 유용해졌으며, 웹 브라우저는 자동 번역을 제공했습니다.
예전이나 지금이나 AI라고 불리는 거의 모든 기술이 실제로는 표면 아래 딥러닝에 의존하고 있기 때문에 앞서 소개한 서비스가 AI에 의해 가능해졌다고 말하는 것이 당황스럽기는커녕 멋지게 들리기 시작했습니다.
2. 생성형 AI, 챗GPT의 등장
“Chatgpt와 그 경쟁자들은 실제로
‘언어를 사용하고 추상화를 형성’
하는 것처럼 보입니다.”
1) 2017년, 트랜스포머(transformer) 모델 등장
출처: 인공지능신문
2017년에는 더 높은 컴퓨팅 성능과 더 많은 데이터가 제공하는 양적 장점에 질적 변화가 더해졌는데요. 바로 ‘트랜스포머(transformer)’라고 불리는 새로운 뉴런 연결 방식이 등장한 것입니다. 트랜스포머는 신경망이 입력 받는 패턴을 기억함으로써 데이터의 특징에 ‘집중(attention)'할 수 있게 해줍니다.
트랜스포머는 신경망이 문맥을 더 잘 파악할 수 있게 해주었고, 이는 '자기 지도 학습'이라는 기술에 적합했습니다. 이는 훈련 중에 일부 단어가 무작위로 비워지고 모델이 가장 가능성이 높은 후보를 채우도록 스스로 학습하는 방식입니다. 이렇게 하면 학습 데이터에 미리 레이블을 지정할 필요가 없으므로 인터넷에서 가져온 수십억 단어의 원문을 사용하여 모델을 학습할 수 있습니다.
2) 2019년, 트랜스포머 기반 LLM 주목
출처: ResearchGate
트랜스포머 기반 대규모 언어 모델(LLM: Large Language Model)은 2019년 스타트업인 OpenAI에서 GPT-2라는 모델을 출시하면서 더 큰 주목을 받기 시작했습니다. GPT는 ‘생성형 사전 학습 트랜스포머(Generative Pre-trained Transformer)’의 약자인데요.
이 LLM은 명시적으로 학습되지 않은 '돌발적인' 동작을 수행할 수 있는 것으로 밝혀졌습니다. 방대한 양의 언어를 흡수한 결과 요약이나 번역과 같은 언어적 작업뿐만 아니라 간단한 산술이나 소프트웨어 작성과 같이 학습 데이터에 암시되어 있던 작업에도 놀라울 정도로 능숙해졌습니다. 안타깝게도 인공지능이 입력된 데이터의 편견을 재현한다는 것은 인간 사회에 만연한 편견이 인공지능의 결과물에 그대로 드러난다는 것을 의미하기도 했습니다.
3) 2022년, 오픈AI의 GPT-3.5 공개와 생성형 AI
출처: Medium
2022년 11월, 더 큰 규모의 OpenAI 모델인 GPT-3.5가 챗봇의 형태로 대중에게 공개되었습니다. 웹 브라우저를 가진 사람이라면 누구나 프롬프트를 입력하고 응답을 받을 수 있었습니다. 그 어떤 소비자 제품도 이보다 더 빠르게 성장한 적은 없었습니다. 몇 주 만에 ChatGPT는 대학 에세이부터 프로그램 코드까지 모든 것을 생성했습니다. 이렇게 AI는 또 한 번 큰 도약을 이루었습니다.
첫 번째 AI 기반 제품군이 인식(Recognition)에 집중했다면, 두 번째 제품군은 생성(Generation)에 집중합니다. 스테이블 디퓨전(Stable Diffusion)과 DALL-E와 같은 딥러닝 모델은 확산 모델(Diffusion Model)을 사용해 텍스트 프롬프트를 이미지로 전환합니다. 다른 모델들은 놀라울 정도로 사실적인 비디오, 음성 또는 음악을 생성합니다.
이러한 도약은 기술적 개선만 의미하는 게 아닙니다. 진정한 차이는 ‘생성 능력’에 있습니다. 챗GPT와 경쟁사인 구글 Gemini, 전 오픈AI 연구원들이 설립한 앤트로픽(Anthropic)의 Claude는 다른 딥러닝 시스템과 마찬가지로 계산을 통해 결과물을 생성합니다. 하지만 창의적인 방식으로 응답한다는 점에서, 얼굴 인식이나 받아쓰기, 번역 소프트웨어와는 느낌이 매우 다릅니다. 오래 전 매카시가 기대했던 것처럼 정말 "언어를 사용하고" "추상화를 형성"하는 것처럼 보이지요.
이 글은 The Economist의 A short history of AI를 번역하고 일부 편집했으며, 원문이 궁금하다면 여기를 클릭해 확인하세요.
(외신 번역 아이디어 및 합법성 여부는 뉴스페퍼민트를 참조했습니다.)