AI의 역사와 핵심 기술 이해
AI 학습을 시작하며
AI Product Engineering을 향하여...
내가 취업한 이후, 1년 사이에 개발 시장에 많은 변화가 있었다.
Claude, GPT, Gemini 등의 도구가 등장했고, 거대한 모델을 다루는 기업들에서 API 제공을 비교적 저렴한 가격에 제공하기 시작했다.
내가 코드를 타이핑 하는 것보다 AI가 생성하는 게 더 빠른 세상이 왔고, API 덕분에 비싼 개발 및 유지보수 비용을 자랑하던 AI 서비스에 대한 접근성이 높아졌다.
그리고, 이런 세상의 흐름 속에서 감사하게도 능력을 펼쳐볼 기회가 주어졌다.
그렇게 자연스럽게 프론트엔드에서 AI Product 개발자로.
성장의 방향성이 바뀌게 되었다.
목표
올해의 목표로 AI에 대한 학습을 잡았다. 구체적인 계획을 잡기에는 아직 아는 게 없어서, 우선은 이런걸 익혀야 하지 않을까? 싶은 것부터 익히고자 한다.
현재 당장의 목표는 다음과 같다.
- AI 전반에 대해서 용어 익히기
- 선형 대수 및 AI 진행에 필요한 수학적 원리 이해하기
- OpenClaw 분석 후 만들어보기
- 모델 학습 시켜서 브라우저에서 동작시켜보기
우선 이 4가지를 진행하고자 한다.
그리고 이를 시점으로 조금씩 넓혀보고자 한다.
다만, 나는 AI 연구자 포지션이 아니다. 그걸 바라지도 않고. 그렇기에 어디까지나 내가 AI 관련 프로덕트를 만들 때 제대로 수행할 수 있도록 하기 위함에 가깝다.
그렇기에 사이사이에 프론트엔드 / 백엔드 등도 병행해야 하리라.
AI로 AI를 학습하기
부끄럽지만, 한 동안 수학을 담 쌓고 살았다. 접하는 문제 대부분이 수학과는 크게 상관없었기에..
동시에, Python에 대해서도 거의 생 초보에 가깝다.
책을 한 문장까지도 이해하려고 하는 사람
이게 좋다 나쁘다를 떠나서 나라는 사람의 성향은 이렇다.
대학 시절 불친절한 교보재와 여러 요인이 겹쳐서 AI와 관련된 학습을 제대로 하지 못 했었다.
수학도 몇 가지 의문점이 해결이 안되어서 잘 익힌 편은 아니다.
그래도 다행인 것은 지난 날들에서는 발목을 잡았던 내 학습 방식이 오늘날에 와서 빛을 발한다는 점이다.
AI가 있기에 밑도 끝도 없이 물어볼 수 있고, 내 의문을 해결할 수 있다. 리서치 시간을 아낄 수 있으며 사실상 개인 과외 선생님이 있다고 보면 된다.
그래서, 이를 통해서 학습하고자 한다.
우선은 관련도니 용어와 관련된 지식 전반을 가볍게 익히는 것을 목표로 했다.
그래서 다음의 책을 선정했다.

서점에 갔더니 제일 괜찮아 보였기 때문이다.
인공지능이란 무엇일까?
인간 지능의 일부를 Computer로 구현하는 것
인공지능이 무엇인지 쉽게 표현하면 이와 같다.
좀 더 엄밀히 정의하면 다음과 같이 표현할 수 있다.
Artificial intelligence (AI) is the capability of computational systems to perform tasks typically associated with human intelligence, such as learning, reasoning, problem-solving, perception, and decision-making.
인공지능(AI)은 기계가 인간처럼 판단하고 학습하며 문제를 해결하도록 만드는 기술이다.
바꿔 말하면 지능적인 행동을 수행하도록 설계된 알고리즘과 시스템이다.
핵심은 '인간 지능의 일부'를 모방하는 것이다.
그렇다면, 단순히 숫자인지 문자열인지 분류하는 시스템이 있다고 해보자. 이런 규칙 기반 시스템을 인공지능으로 볼 수 있을까?
기계적인 작동 방식으로 동작한다고 해서, 아니라고 단정짓기 어렵다. '인간 지능의 일부를 모방한다.' 라는 관점에서 보면, 문자열을 분류하는 인간 지능을 모방하려는 의도가 있다고 간주할 수 있다. 이에, AI로 볼 수 있다.
그렇지만 우리는 '인간과 구별하기 어려울 정도로 정교한 AI'를 생각하는 경우가 많다.
이를 구분하기 위해 요즘에는 생성형 AI, 범용 인공지능(AGI) 와 같은 용어가 등장해서 구분하고 있다.
역사로 살펴보는 AI
내가 작성하고 있는 글은 기본적으로 책의 진도를 따라가고 있다.
그래서, 이에 기반해서 하나씩 살펴보고자 한다.
앞으로 서술할 내용을 간단히 요약하면 다음과 같다.
| 연대 | 구분 | 주요 특징 | 상세 설명 |
|---|---|---|---|
| 1956 ~ 1974 | 1차 AI 붐 | 기호주의 AI, 낙관론 | 1956년 다트머스 회의에서 “Artificial Intelligence”라는 용어가 처음 등장. 인간의 지능을 논리와 규칙으로 구현할 수 있다고 믿음. 퍼셉트론, 탐색 알고리즘, 정리 증명 프로그램 등이 연구됨. 당시 연구자들은 “10~20년 안에 인간 수준 AI 실현”을 기대했으나 계산 능력과 데이터 부족으로 한계에 부딪힘. |
| 1974 ~ 1980 | 1차 AI 겨울 | 연구 침체 | 기대했던 성과가 나오지 않으면서 정부와 기업의 연구 자금이 감소. 퍼셉트론의 한계(XOR 문제 등)가 지적되며 신경망 연구도 위축됨. AI에 대한 과도한 낙관론이 비판받음. |
| 1980 ~ 1987 | 2차 AI 붐 | 전문가 시스템 | 인간 전문가의 지식을 규칙(rule) 형태로 저장해 추론하는 시스템이 등장. 의료, 화학, 금융 분야에서 실제 산업 적용이 시작됨. 대표적으로 진단 시스템 등이 개발됨. 기업 투자가 활발해지며 AI 산업화 시도 증가. |
| 1987 ~ 1993 | 2차 AI 겨울 | 전문가 시스템의 한계 | 규칙을 사람이 직접 입력해야 했기 때문에 유지·확장이 어려웠음. 새로운 상황에 대한 일반화 능력이 부족했고 개발 비용이 높았음. 결국 투자 감소와 함께 다시 침체기에 들어감. |
| 1993 ~ 2012 | 머신러닝 발전기 | 통계적 학습 부상 | 사람이 규칙을 직접 설계하는 대신, 데이터로부터 패턴을 학습하는 통계적 머신러닝이 주류가 됨. SVM, 의사결정트리, 베이즈 모델 등 발전. 인터넷 확산으로 데이터가 급증하고 컴퓨터 성능이 향상됨. 1997년 IBM Deep Blue가 체스 세계 챔피언을 이김. |
| 2012 ~ 현재 | 3차 AI 붐 (딥러닝 시대) | 대규모 신경망, 빅데이터 | 2012년 이미지넷 대회에서 딥러닝 모델이 압도적 성능을 보이며 전환점이 됨. GPU 발전과 빅데이터 축적이 핵심 역할. CNN, RNN, Transformer 구조 발전. 자율주행, 음성인식, 번역, 생성형 AI 등 다양한 산업 분야에서 실용화. 대규모 언어모델(LLM) 등장으로 생성형 AI 시대 개막. |
1차 AI 붐 (1956 ~ 1974)
“인간의 지능은 논리로 구현할 수 있다.”

AI의 역사를 이야기할 때, 시작점으로 가장 많이 언급되는 사건이 있다. 바로 1956년 미국 다트머스 대학에서 열린 Dartmouth Workshop다.
클루드의 어원이 된 클로드 섀년, 존 매카시, 너새니얼 로체스터, 마빈 민스키 등의 인공지능 창시자 중 일부로 여겨지는 사람들이 참여했다.
이 자리에서 처음으로 “Artificial Intelligence”라는 용어가 공식적으로 사용되었다.
그리고 이 당시 연구자들은 아래와 같은 생각을 했었다.
인간의 사고 과정은 논리와 규칙의 조합이다. 그렇다면 그것을 기계로 구현할 수 있지 않을까?
이 믿음에서, 1차 AI 붐이 출발했다.
기호주의 AI (Symbolic AI)
이 시기의 AI는 지금 우리가 생각하는 딥러닝과는 전혀 달랐다.
핵심은 다음과 같다.
- 지능은 기호(symbol) 조작이다.
- 사고는 논리 규칙(rule) 기반 추론이다.
- 문제 해결은 탐색(search) 과정이다.
즉, 인간이 문제를 풀 때 사용하는 “논리적 사고”를 코드로 옮기려는 시도였다.
대표적인 예로는 아래와 같은 것들이 존재했다.
- 정리 증명 프로그램
- 미로 탐색 알고리즘
- 체스 문제 해결기
조금 더 깊게 살펴보자.
기호주의란 무엇인가?
**기호주의 AI(Symbolic AI)**는
인간의 지능은 "기호(Symbol)를 조작하는 것"이라고 보고 컴퓨터도 기호를 논리적으로 다루면 지능을 만들 수 있다고 본 접근이다.
- 인간 사고 = 논리 + 규칙 + 기호 조작
- 컴퓨터 = 기호 처리 체계
- 그러므로 -> 컴퓨터로 지능 구현 가능
이라는 아이디어가 핵심이다.
기호주의의 핵심 아이디어를 이해하기 위해서 3단 논법을 떠올려보자.
모든 인간은 죽는다.
소크라테스트는 인간이다.
-> 소크라테스는 죽는다.
우리가 평소에는 한국어 문장으로 이를 생각한다.
기호주의자들은 이걸 다음과 같이 바꾸었다.
이게 바로 기호 + 논리 규칙으로 표현된 것이며, 이렇게 사고하는 방식이 기호주의이다.
기호란 무엇인가?
여기에서 쓰인 요소들이 전부 기호이다.
- ∀ (모든)
- → (이면)
- Human(x)
- Mortal(x)
- Socrates
이건 그냥 글자가 아니라, 현실 세계의 개념을 추상적으로 표현한 것 이다.
- 인간 → Human
- 죽는다 → Mortal
- 소크라테스 → Socrates
즉,
세상을 "개념 단위"로 쪼개서 기호로 표현한 것
이게 기호주의에서 말하는 기호라고 볼 수 있다.
논리란 무엇인가?
기호만 있다고 해서 결론이 나오지는 않는다.
기호주의에서는
생각 = 논리 규칙 적용
이라고 본다.
중요한 건 추론 규칙(rule of inference) 이다.
아까 봤던 표현이다. 이걸 다르게 표현하면 다음과 같다.
A -> B
A
∴ B
이걸 논리 추론 규칙(Modus Ponens) 라고 한다.
이 규칙은 고대 ㅊ 러학에서부터 내려온 형식 논리의 핵심이다.
퍼셉트론의 등장
1957년, 심리학자 Frank Rosenblatt는 Perceptron이라는 모델을 발표한다.
퍼셉트론은 단순한 구조였지만 충격적이었다.
- 입력을 받는다.
- 가중합을 계산한다.
- 임계값을 넘으면 1, 아니면 0을 출력한다.
이 구조는 마치 생물학적 뉴런처럼 보였다.
당시 언론은 이렇게 보도하기도 했다:
“기계가 스스로 보고, 배우고, 인식할 수 있다.”
지금 보면 과장된 표현이지만, 그 당시에는 혁명처럼 느껴졌다.
과도한 낙관론
이 시기의 연구자들은 굉장히 낙관적이었다.
- 10~20년 안에 인간 수준 AI 가능
- 자동 번역은 곧 해결
- 지능은 곧 완전히 모델링 가능
하지만 현실은 달랐다.
기술적 한계
문제는 세 가지였다.
-
계산 자원 부족
- 당시 컴퓨터는 지금의 계산 능력과 비교가 불가능할 정도로 느렸다.
-
데이터 부족
- 대규모 데이터셋이라는 개념 자체가 없었다.
-
이론적 한계
- 단층 퍼셉트론은 XOR 문제를 해결하지 못했다.
- 이는 1969년 Marvin Minsky와 Seymour Papert가 출간한 Perceptrons에서 지적되었다.
이 책은 퍼셉트론의 수학적 한계를 증명했고, 신경망 연구에 큰 타격을 주었다.
그리고 찾아온 겨울
기대에 비해 실질적 성과는 제한적이었다.
- 자동 번역은 제대로 작동하지 않았고
- 일반 지능은 요원해 보였으며
- 연구 성과는 투자 규모를 정당화하기 어려웠다.
그 결과, 정부와 기업의 연구 자금이 급감한다.
이 시기를 우리는 1차 AI 겨울이라고 부른다.
1차 AI 붐이 남긴 것
비록 기대만큼의 성과는 없었지만, 이 시기는 중요한 유산을 남겼다.
- 인공지능이라는 학문 분야의 탄생
- 문제 해결을 수학적으로 모델링하는 시도
- 신경망이라는 아이디어의 등장
- 탐색 알고리즘과 논리 추론 연구의 기반
그리고 무엇보다 중요한 것:
인간 지능을 계산 가능한 형태로 표현하려는 시도 자체
이것이 이후 모든 AI 발전의 출발점이 되었다.
개발자 관점에서 보는 1차 AI 붐
프론트엔드 개발자로서 이 시기를 바라보면 이렇게 느껴진다.
이 시기의 AI는:
- “데이터로 학습”한다기보다
- “논리로 설계”하는 시스템이었다.
즉,
을 아주 복잡하게 확장한 형태에 가까웠다.
반면 오늘날의 AI는:
처럼 데이터 기반 학습 모델을 호출하는 형태다.
접근 방식 자체가 다르다.
정리
1차 AI 붐은
“지능은 논리로 구현 가능하다”는 믿음에서 시작된 시대 였다.
기술적 한계로 인해 기대는 꺾였지만, 이 시기의 시도는 이후 머신러닝과 딥러닝의 토대가 되었다.
지금 우리가 사용하는 GPT, Claude, Gemini 같은 모델들도 결국 이 질문에서 출발한다.
인간의 사고는 계산으로 표현 가능한가?
그리고 나는 지금, 그 질문의 연장선 위에서 AI를 배우기 시작했다.