이 책은 초등 산수만 알고 있어도 위에서 아래로 차례대로 읽으면 AI 수학의 큰 흐름을 따라갈 수 있게 만든 교본입니다. 먼저 상황을 이해하고, 그다음에 낱말을 익히고, 마지막에 기호와 식을 붙입니다. 목표는 공식을 많이 외우는 것이 아니라, 수식이 무엇을 말하는지 끝까지 읽을 수 있는 힘을 만드는 것입니다.
- 수와 식을 읽는 가장 기본적인 눈부터 다시 세웁니다.
- 벡터, 행렬, 미분, 적분, 확률, 최적화처럼 AI에서 자주 만나는 수학 언어를 순서대로 익힙니다.
- 신경망, 생성모델, LLM, VLM처럼 현대 AI의 식과 구조를 앞에서 배운 언어로 읽습니다.
- 처음부터 끝까지 순서대로 읽습니다. 뒤 강의는 앞 강의의 말과 생각을 이미 알고 있다고 가정합니다.
- 모르는 단어가 나오면 바로 외우기보다 앞 문장과 예시를 먼저 읽습니다.
- 식이 나오면 먼저 말로 읽고, 그다음에 계산합니다.
- 예제는 가능하면 손으로 직접 따라가 봅니다.
- 막히면 뒤로 더 가기보다 바로 앞 정의와 예시로 돌아옵니다.
- 숫자와 계산의 감각
- 벡터와 행렬의 시작
- 그래프와 함수의 시야
- 경우의 수, 확률, 통계의 기초
- 최적화와 정보이론
- 머신러닝 이론
- 딥러닝과 생성모델
- LLM, VLM, 멀티모달 AI 수학
이 순서는 학교 교과서의 장 순서를 그대로 따르지 않습니다. AI 수식을 읽을 때 먼저 필요한 감각부터 쌓고, 그 위에 더 추상적인 언어를 올리도록 배치했습니다.
- 숫자를 세고 계산하는 감각에서 출발해 문자, 식, 함수, 지수, 로그, 수열, 삼각함수까지 올라갑니다.
- 낯선 기호를 바로 던지지 않고, 왜 그런 표현이 필요한지부터 설명합니다.
- 여러 수를 한 번에 다루는 법을 배웁니다.
- 점, 방향, 좌표, 행렬 연산처럼 뒤에서 계속 쓰일 묶음 계산의 기본 언어를 익힙니다.
- 입력과 출력의 관계를 함수로 읽고, 그 관계를 그래프로 해석합니다.
- 변화, 누적, 근사, 연속 시간 흐름까지 함수 언어로 확장합니다.
- 가능한 경우를 세고, 우연이 섞인 상황을 수로 표현하는 법을 배웁니다.
- 평균, 분산, 조건부확률, 표본처럼 데이터를 읽는 가장 기초적인 말을 익힙니다.
- 손실함수와 경사하강법으로 학습이 실제로 움직이는 과정을 읽습니다.
- 엔트로피와 KL로 분포 차이를 해석하고 일반화를 이해합니다.
- 회귀, 분류, 차원축소, 커널, 잠재변수 모델의 기본 구조를 잡습니다.
- 고전 모델의 가정과 한계를 이해해 딥러닝의 의미를 정확히 봅니다.
- 신경망, 역전파, 표현학습의 핵심 흐름을 연결합니다.
- VAE와 diffusion 같은 생성모델의 수학적 토대를 읽습니다.
- Transformer, pretraining, alignment의 핵심 계산을 따라갑니다.
- 텍스트와 이미지가 만나는 멀티모달 구조를 수학 흐름 안에서 읽습니다.
- 먼저 어떤 문제를 다루는지 설명합니다.
- 그다음 필요한 낱말을 쉬운 말로 소개합니다.
- 그 다음에 기호와 식을 붙입니다.
- 마지막에 계산 예시와 AI 연결로 마무리합니다.
이 책은 이 순서를 지키면서 진행하므로, 위에서 아래로 읽기만 해도 흐름이 끊기지 않도록 구성합니다.
- 정의는 필요가 보인 뒤에 나옵니다.
- 용어는 쓰이기 전에 먼저 설명합니다.
- 그래프와 좌표는 설명 도구이지 출발점이 아닙니다.
- 한 번에 이해되지 않으면 식보다 앞 문장으로 돌아갑니다.
- 끝까지 읽어도 남는 것은 공식 암기가 아니라 읽는 습관이어야 합니다.
이 책을 끝내면 초등 산수에서 출발해 AI 논문과 강의에서 만나는 수식들을 순서대로 읽을 준비가 되어 있어야 합니다. 더 중요한 목표는 낯선 기호를 보자마자 멈추지 않고, 먼저 말로 풀고, 왜 이런 식이 필요한지 이해한 뒤, 계산과 유도를 따라갈 수 있는 읽기 습관을 몸에 붙이는 것입니다.
- 01. 숫자와 계산의 감각
- 02. 벡터와 행렬의 시작
- 03. 그래프와 함수의 시야
- 04. 경우의 수, 확률, 통계의 기초
- 05. 최적화와 정보이론
- 06. 머신러닝 이론
- 07. 딥러닝과 생성모델
- 08. LLM, VLM, 멀티모달 AI 수학
- 37. Attention, Transformer, positional math
- 38. LLM pretraining, scaling laws, tokenization
- 39. Alignment SFT, RLHF, DPO
- 40. CLIP, contrastive learning, multimodal alignment
- 41. VLM, multimodal generation, fusion architectures
- 42. Frontier topics optimal transport, graphs, manifolds, mechanistic interpretability, 최신 논문 독해
- 문제 해설 - 08. LLM, VLM, 멀티모달 AI 수학