AI 공부하기에 앞서
v1.0.0"No description provided for this extension."
어딜 가던 AI는 이제 선택이 아니라 필수가 되었다.
그동안은 AI의 도움을 받아가며
코드를 짜고, 에러를 해결하고, 지식을 쌓아왔다.
하지만 문득 이런 생각이 들었다.
“나는 AI를 쓰고 있는 걸까, 아니면 그냥 소비하고 있는 걸까?”
이제는 AI를 잘 사용하는 개발자가 아니라
AI를 이해하고 다루는 개발자가 되고 싶다.
사실… 조금 늦게 깨달은 감도 있다.
하지만 뭐 어때.
지금이 제일 빠른 때 아닌가?!
그래서 개념부터 제대로 잡아보기로 했다.
LLM (Large Language Model)
대규모 언어 모델
텍스트를 이해하고 다음 단어를 예측하며 문장을 생성하는 AI의 뇌이다.
예시> OpenAI의 GPT, Google의 Gemini, Anthropic의 Claude, Moonshot의 Kimi
위의 예시는 전부 범용 LLM
즉, 글쓰기, 대화, 요약, 분석, 코드 등 전반적으로 잘한다.
코딩 모델 / 코딩 특화 LLM
개발자에게 이게 핵심이다.
범용 LLM이 전천후라면, 코딩모델은 개발 업무에 최적화된 LLM
예시> Codex (OpenAI)
얘네의 역할은 개발자가 하는 일이다.
코드 생성, 리팩토링, 테스트 코드 작성, 터미널 명령어 작성, 프로젝트 단위 이해 등등..
이로 인해 개발자는 코드를 직접 다 치는 사람이 아니라,
AI에게 정확한 업무를 시키는 사람이 될 것이다.
에이전트(Agent)
이제 여기서 한 단계 더 간다고 하면,
단순히 답변만 하는 AI가 아니라,
모델 + 도구 + 자동 실행 능력 = 에이전트
예시> Claude Code, Copilot
에이전트는 코드를 수정하고 파일을 생성하고 명령어를 실행하고 테스트도 실행하고 PR를 생성한다.
즉, LLM은 뇌고, 에이전트는 팀원이다.
컨텍스트(Context)
모델이 지금까지 보고 있는 모든 정보
A: 로그인 API 만들어줘
B: 세션 기반으로 해줘
C: Redis 써줘AI는 C를 하기 위해 A와 B를 모두 기억해야 함
컨텍스트에 들어가는 것들
- 지금 대화 내용
- 시스템 프롬프트
- 도구 정의
- 이전 실행 결과
- 파일 내용 일부
- 에러 로그
그래서:
- 너무 길면 잘림
- 오래된 내용은 잊힘
- 에이전트가 요약해서 다시 넣기도 한다.
공부 방향
단순히 AI를 잘 쓰는 법이 아닌,
- LLM이 어떻게 동작하는지,
- 토큰, 컨텍스트 길이, 왜 가끔 헛소리를 하는지
- Prompt Engineering
- 질문을 어떻게 구조화 할 것인가?
- 단계적 사고 유도
- Tool Calling / Agent 구조
- LLM이 어떻게 외부 API를 호출하는지?
- 멀티 에이전트 구조
- Mermory 설계
- 실무 적용