반응형

 

 

개발 감각 있는지 확인하는 가장 현실적인 방법

 

가끔 이런 생각이 든다.
요즘도 공부는 꾸준히 하고, 새로운 기술도 따라가고, 일도 열심히 하는데 이상하게 “내가 잘 가고 있나?” 싶을 때가 있다.

이번에 본 영상(개발감각 있는지 확인하는 법)은 그 찝찝함을 꽤 정확하게 건드렸다.
핵심은 단순했다.

개발 감각은 코딩을 잘하는 능력이 아니다.

처음엔 좀 의외였다.
우리는 보통 문제를 빨리 푼다거나, 최신 스택을 잘 다룬다거나, 코드 구조를 깔끔하게 짜는 걸 ‘감각 있다’고 말하니까.
근데 영상에서 말하는 감각은 그보다 앞 단계에 있었다.

“지금 이 상황에서 진짜로 풀어야 할 문제가 뭔지 고르는 능력.”

그리고 그걸 가능한 적은 비용으로, 가장 빠르게 해결하는 판단력.


예시가 좋았다.
“실시간 채팅 기능 만들어주세요”라는 요청이 들어왔을 때를 생각해보자.

보통은 바로 기술 선택으로 달려간다.
웹소켓, 메시지 큐, 스케일링, 이런 키워드부터 머리에 뜬다.

근데 감각 있는 개발자는 그 전에 질문부터 한다.

  • 이 기능의 핵심 가치는 뭔가?
  • 이번 릴리즈에서 절대 깨지면 안 되는 건 뭔가?

만약 핵심이 ‘실시간 느낌’이 아니라 ‘메시지 누락 없는 전달’이라면,
초기 버전은 HTTP 폴링 같은 단순한 방식이 오히려 맞을 수도 있다.

화려하진 않다.
하지만 사용자 입장에서 필요한 건 “멋진 기술”이 아니라 “문제 해결”이다.


이 지점에서 좀 뜨끔했다.
나도 가끔 ‘좋은 구현’을 목표로 삼다가, 정작 ‘좋은 해결’을 놓칠 때가 있었으니까.

결국 개발 감각은 뭘 더할지보다 뭘 포기할지 결정하는 힘에 가깝다.
모든 걸 다 잘하려고 하면 대체로 아무것도 끝내지 못한다.


영상에서 실전적으로 도움됐던 건, 감각을 키우는 방법도 꽤 구체적이었다는 점이다.

첫 번째는 오픈소스의 PR 토론이나 RFC를 읽는 것.
사용법 문서만 보면 “어떻게 쓰는지”만 알게 되는데, 토론을 보면 “왜 그렇게 만들었는지”가 보인다.
그 안엔 항상 제약, 타협, 포기가 있다.
그게 결국 실무 판단력의 재료다.

두 번째는 장애 회고(postmortem)를 읽는 것.
실제 서비스는 멋진 코드보다, 망가지지 않고 복구 가능한 코드가 더 중요하다.
장애 사례를 읽다 보면 “우리 시스템은 비슷한 실수를 견딜 수 있나?”라는 질문을 자연스럽게 하게 된다.
이게 꽤 큰 차이를 만든다.


최근엔 기능 시작 전에 스스로 한 가지만 먼저 묻는다.

“이 기능에서 지금 가장 중요한 한 가지는 뭘까?”

이 질문 하나만 제대로 해도,
기술 선택이 훨씬 명확해지고, 일정도 덜 무너지고, 팀 대화도 덜 꼬인다.

개발 감각은 어떤 천재적인 재능이라기보다
좋은 질문을 반복해서 던지는 습관에 가까운 것 같다.

다음 작업 들어가기 전에,
“어떻게 만들지?”보다 먼저
“지금 진짜 해결해야 하는 게 뭔지”부터 확인해보면 좋겠다.

 

 

 

 

반응형
반응형


목차

  1. AionUi란 무엇인가?
  2. 주요 기능
  3. 시스템 요구사항
  4. 설치 방법
  5. 초기 설정
  6. 핵심 기능 활용

AionUi란 무엇인가?

AionUi는 무료, 로컬, 오픈소스 24/7 AI 협업 플랫폼입니다. Gemini CLI, Claude Code, Codex, Qwen Code, Goose CLI, Auggie 등 다양한 커맨드라인 AI 도구들을 통합하여 사용할 수 있는 그래픽 인터페이스를 제공합니다.

🎯 핵심 가치

AionUi는 단순히 CLI 도구의 GUI 래퍼가 아닙니다. 마치 Claude Cowork가 Claude Code를 더 쉽게 사용할 수 있게 만든 것처럼, AionUi는 모든 커맨드라인 AI 도구를 위한 통합 Cowork 플랫폼입니다.

📊 Claude Cowork vs AionUi

구분 Claude Cowork AionUi
지원 OS macOS만 지원 macOS, Windows, Linux 모두 지원
모델 지원 Claude만 Gemini, Claude, DeepSeek, OpenAI, Ollama 등
인터페이스 GUI GUI + WebUI 원격 접속
비용 $100/월 구독 완전 무료 & 오픈소스
데이터 보안 클라우드 로컬 저장 (SQLite)

✨ 왜 AionUi를 선택해야 할까?

커맨드라인 도구들(Gemini CLI, Claude Code, Codex, Qwen Code 등)은 강력하지만 공통적인 불편함이 있습니다:

  • ❌ 대화 내용을 저장할 수 없음
  • ❌ 단일 세션만 지원
  • ❌ 파일 작업이 번거로움
  • ❌ 하나의 모델만 사용 가능

AionUi는 이러한 모든 문제를 해결합니다:

  • 통합 플랫폼 - 하나의 인터페이스로 모든 CLI AI 도구 관리
  • 다중 도구 지원 - Gemini CLI 내장 + 다양한 도구 자동 인식
  • 크로스 플랫폼 - macOS, Windows, Linux 완벽 지원
  • 원격 접속 - 24/7 어디서나 접속 가능
  • 다중 모델 전환 - 하나의 인터페이스에서 여러 모델 유연하게 사용
  • 실시간 미리보기 - 9가지 이상 포맷 지원
  • 로컬 데이터 보안 - 모든 데이터를 로컬에 저장

주요 기능

🤖 1. 멀티 에이전트 모드

여러 CLI AI 도구를 통합 GUI로 관리

AionUi는 Gemini CLI를 내장하고 있어 설치 후 바로 사용할 수 있습니다. 이미 Gemini CLI, Claude Code, CodeX, Qwen Code, Goose AI, Augment Code 등을 설치한 경우 자동으로 감지하여 통합 인터페이스를 제공합니다.

주요 특징:

  • ✅ 자동 감지 + 통합 인터페이스
  • ✅ 로컬 저장 + 다중 세션 지원
  • ✅ 각 세션은 독립적인 컨텍스트 유지

🌐 2. 어디서나 접속 가능

24/7 AI 어비스턴트 - 어떤 기기에서든 접속!

출장 중, 집, 사무실 어디서나 WebUI 또는 다양한 채팅 플랫폼을 통해 AI 도구를 사용할 수 있습니다.

지원 접속 방법:

🌐 WebUI 모드

  • 브라우저를 통해 어떤 기기에서든 접속 (폰, 태블릿, 컴퓨터)
  • LAN, 크로스 네트워크, 서버 배포 지원
  • QR 코드 스캔 또는 계정/비밀번호로 로그인

📱 채팅 플랫폼 통합

  • Telegram - 텔레그램에서 AI 어시스턴트와 직접 대화
  • Lark (Feishu) - 페이슈 봇을 통한 엔터프라이즈 협업
  • Slack 및 기타 플랫폼 곧 지원 예정 🚧

💡 설정 방법: AionUi 설정 → WebUI 설정 → 채널에서 Bot Token 설정!

⏰ 3. 예약 작업

AI가 자동으로 작업을 실행하도록 설정

예약 작업을 설정하면 AI 어시스턴트가 설정한 시간에 자동으로 작업을 실행합니다.

특징:

  • 자연어 대화 - AI에게 일상적인 언어로 작업 지시
  • 유연한 시간 설정 - 매일, 매주, 매월 모두 가능
  • 간단한 관리 - 생성, 수정, 활성화/비활성화, 삭제, 조회 자유롭게

활용 사례:

  • 예약된 데이터 수집
  • 정기 보고서 생성
  • 자동 파일 정리
  • 예약 알림

📁 4. 스마트 파일 관리

배치 이름 변경, 자동 정리, 스마트 분류, 파일 병합

  • 자동 정리: 콘텐츠를 지능적으로 식별하고 자동 분류
  • 효율적인 배치 작업: 원클릭으로 이름 변경, 파일 병합

📄 5. 미리보기 패널

AI 생성 결과를 즉시 확인

9가지 이상 포맷의 시각적 미리보기 지원 (PDF, Word, Excel, PPT, 코드, Markdown, 이미지, HTML, Diff 등)

특징:

  • 즉시 결과 확인 - AI가 파일 생성 후 앱 전환 없이 바로 미리보기
  • 실시간 추적 + 편집 가능 - 파일 변경 자동 추적, Markdown/코드/HTML 실시간 편집 지원

🎨 6. AI 이미지 생성 & 편집

지능형 이미지 생성, 편집, 인식 (Gemini 기반)

  • 다양한 이미지 생성 모델 지원
  • AI 기반 이미지 분석 및 편집 기능

🤖 7. 다중 모델 지원

주류 모델 및 로컬 모델 지원

  • Gemini, OpenAI, Claude, Qwen 등 주류 모델
  • Ollama, LM Studio 등 로컬 모델
  • 다양한 작업 요구사항에 맞춰 모델 유연하게 전환

🛠️ 8. AI 어시스턴트 & 스킬 생태계

10가지 이상의 전문 어시스턴트 내장

  • 🤝 Cowork - 자율 작업 실행
  • 📊 PPTX Generator - PPTX 프레젠테이션 생성
  • 📄 PDF to PPT - PDF를 PPT로 변환
  • 🎮 3D Game - 단일 파일 3D 게임 생성
  • 🎨 UI/UX Pro Max - 전문 UI/UX 디자인
  • 📋 Planning with Files - 파일 기반 복잡한 작업 계획
  • 🧭 HUMAN 3.0 Coach - 개인 개발 코치
  • 📣 Social Job Publisher - 채용 공고 게시
  • 그 외 다수

커스텀 스킬: skills/ 디렉토리에서 스킬 생성 및 관리 가능

🎨 9. 개인화된 인터페이스 커스터마이징

CSS 코드로 자신만의 인터페이스 만들기

  • 완전 커스터마이징 - CSS를 통해 인터페이스 색상, 스타일, 레이아웃 자유롭게 변경

💬 10. 다중 작업 병렬 처리

여러 대화를 동시에 열고 독립적인 메모리 유지

  • 작업이 섞이지 않음
  • 효율성 2배 증가

시스템 요구사항

💻 지원 플랫폼

운영체제 최소 버전
macOS 10.15 이상
Windows Windows 10 이상
Linux Ubuntu 18.04+ / Debian 10+ / Fedora 32+

💾 하드웨어 요구사항

  • 메모리: 4GB 이상 권장
  • 저장공간: 최소 500MB 이상 여유 공간

설치 방법

방법 1: 직접 다운로드 (권장)

1단계: 최신 릴리스 다운로드

GitHub Releases 페이지에서 운영체제에 맞는 설치 파일을 다운로드합니다.

파일 선택 가이드:

운영체제 다운로드 파일
macOS (Intel) AionUi-{version}-x64.dmg
macOS (Apple Silicon) AionUi-{version}-arm64.dmg
Windows AionUi-{version}-setup.exe
Linux (Debian/Ubuntu) AionUi-{version}-amd64.deb
Linux (RedHat/Fedora) AionUi-{version}-x86_64.rpm

2단계: 설치 진행

macOS:

# DMG 파일을 다운로드한 후
1. DMG 파일을 더블클릭하여 열기
2. AionUi 아이콘을 Applications 폴더로 드래그
3. Applications 폴더에서 AionUi 실행

Windows:

# EXE 파일을 다운로드한 후
1. 설치 파일을 더블클릭하여 실행
2. 설치 마법사의 지시를 따라 진행
3. 설치 완료 후 바탕화면 아이콘 또는 시작 메뉴에서 실행

Linux (Debian/Ubuntu):

# DEB 파일 설치
sudo dpkg -i AionUi-{version}-amd64.deb

# 의존성 문제 해결 (필요시)
sudo apt-get install -f

# 실행
aionui

Linux (RedHat/Fedora):

# RPM 파일 설치
sudo rpm -i AionUi-{version}-x86_64.rpm

# 또는 dnf 사용
sudo dnf install AionUi-{version}-x86_64.rpm

# 실행
aionui

방법 2: Homebrew 설치 (macOS만)

# AionUi 설치
brew install aionui

# 실행
aionui

💡 참고: Homebrew 방식은 macOS에서만 사용 가능합니다.


초기 설정

1단계: 첫 실행

AionUi를 처음 실행하면 환영 화면이 나타납니다.

2단계: AI 서비스 설정

AionUi는 Gemini CLI를 내장하고 있어 추가 설치 없이 바로 사용할 수 있습니다!

옵션 A: Google 계정으로 로그인 (권장)

  1. 설정(⚙️) → LLM Configuration 클릭
  2. Google Account 선택
  3. Sign in with Google 버튼 클릭
  4. 브라우저에서 Google 계정 로그인
  5. AionUi 접근 권한 승인

옵션 B: API Key 사용

  1. 설정(⚙️) → LLM Configuration 클릭
  2. 사용하려는 AI 플랫폼 선택
    • Gemini
    • OpenAI
    • Claude
    • Qwen
    • 또는 Custom (로컬 모델용)
  3. API Key 입력
  4. Save 버튼 클릭

API Key 발급 방법:

플랫폼 API Key 발급 링크
Gemini Google AI Studio
OpenAI OpenAI Platform
Claude Anthropic Console
Qwen Alibaba Cloud

3단계: 첫 대화 시작

설정이 완료되면:

  1. 메인 화면에서 New Chat 버튼 클릭
  2. 사용할 모델 선택
  3. 메시지 입력 후 전송!

핵심 기능 활용

📁 파일 관리

파일 업로드

방법 1: 드래그 앤 드롭

1. 파일 탐색기에서 파일 선택
2. AionUi 채팅 창으로 드래그
3. 자동으로 업로드 및 컨텍스트에 추가

방법 2: 파일 선택

1. 채팅 창 하단의 📎 (클립) 아이콘 클릭
2. 파일 선택 대화상자에서 파일 선택
3. 업로드 완료

파일 자동 정리

사용자: "Downloads 폴더의 파일들을 종류별로 정리해줘"

AI가 자동으로:
1. 파일 분석
2. 카테고리별 폴더 생성
3. 파일 이동 및 정리
4. 결과 리포트 제공

배치 이름 변경

사용자: "이 폴더의 모든 이미지 파일 이름을 'product_001.jpg' 형식으로 변경해줘"

AI가 자동으로:
1. 폴더 내 이미지 파일 검색
2. 순차적으로 이름 변경
3. 결과 확인

📄 미리보기 활용

지원 포맷

포맷 확장자 기능
문서 PDF, DOCX, PPTX, XLSX 읽기 전용 미리보기
코드 JS, TS, PY, JAVA, 등 구문 강조 + 실시간 편집
마크다운 MD 렌더링 뷰 + 실시간 편집
HTML, CSS 브라우저 미리보기 + 실시간 편집
이미지 PNG, JPG, GIF, SVG 이미지 뷰어
Diff - 변경사항 비교

실시간 편집 예제

사용자: "간단한 HTML 페이지를 만들어줘"

AI가 HTML 파일 생성 후:
1. 미리보기 패널이 자동으로 열림
2. 왼쪽: 코드 에디터
3. 오른쪽: 브라우저 미리보기
4. 코드 수정 시 실시간으로 미리보기 업데이트

🎨 이미지 생성

기본 사용법

사용자: "석양이 지는 바다 풍경을 그려줘"

AI가 자동으로:
1. 프롬프트 최적화
2. 이미지 생성
3. 결과 표시
4. 파일로 저장 옵션 제공

이미지 편집

사용자: "이 이미지에서 배경을 하늘색으로 바꿔줘"
[이미지 업로드]

AI가 자동으로:
1. 이미지 분석
2. 배경 색상 변경
3. 수정된 이미지 생성
4. 결과 비교 표시

⏰ 예약 작업 설정

작업 생성

1. 설정(⚙️) → Scheduled Tasks 클릭
2. "New Task" 버튼 클릭
3. 작업 내용 입력
   예: "매일 오전 9시에 GitHub 트렌딩 저장소 5개를 요약해서 이메일로 보내줘"
4. 실행 시간 설정
5. "Save" 버튼 클릭

작업 관리

  • 활성화/비활성화: 토글 스위치로 간단히 제어
  • 수정: 작업 클릭 후 "Edit" 버튼
  • 삭제: 작업 클릭 후 "Delete" 버튼
  • 로그 확인: 작업 실행 기록 및 결과 확인

🌐 WebUI 원격 접속

로컬 네트워크 접속

1. 설정(⚙️) → WebUI Settings 클릭
2. "Enable WebUI" 토글 활성화
3. 접속 URL 확인
   예: http://192.168.1.100:3000
4. 같은 네트워크의 다른 기기에서 브라우저로 접속

인터넷 접속 (고급)

외부 네트워크에서 접속하려면:

  1. 포트 포워딩 설정 (라우터에서)
    • 외부 포트: 8080
    • 내부 포트: 3000
    • 내부 IP: AionUi가 실행 중인 컴퓨터 IP
  2. DDNS 설정 (동적 IP인 경우)
    • No-IP, DuckDNS 등의 서비스 이용
  3. 접속
    • http://your-ddns-domain:8080

⚠️ 보안 경고: 인터넷 접속 시 반드시 강력한 비밀번호를 설정하세요!

Telegram 연동

1. Telegram에서 @BotFather 찾기
2. /newbot 명령으로 새 봇 생성
3. Bot Token 복사
4. AionUi 설정(⚙️) → WebUI Settings → Channel
5. Telegram 섹션에서 Bot Token 입력
6. "Connect" 버튼 클릭
7. Telegram에서 봇과 대화 시작!

 

 

 

# 참고 사이트

https://github.com/iOfficeAI/AionUi

 

GitHub - iOfficeAI/AionUi: Free, local, open-source 24/7 Cowork and OpenClaw for Gemini CLI, Claude Code, Codex, OpenCode, Qwen

Free, local, open-source 24/7 Cowork and OpenClaw for Gemini CLI, Claude Code, Codex, OpenCode, Qwen Code, Goose CLI, Auggie, and more | 🌟 Star if you like it! - iOfficeAI/AionUi

github.com

 

반응형
반응형

들어가며

Claude Code는 Anthropic의 Claude AI를 터미널에서 직접 사용할 수 있는 강력한 CLI 도구입니다. 코드 작성, 파일 편집, 디버깅, 프로젝트 분석 등을 대화형으로 수행할 수 있으며, IDE와 통합하여 효율적인 개발 워크플로우를 구축할 수 있습니다.

이 가이드는 Claude Code의 설치부터 초기 설정, 주요 기능, 그리고 기본적인 사용법까지 다룹니다.

 

 

목차

  1. Claude Code란 무엇인가?
  2. 시스템 요구사항
  3. 설치 방법
  4. 초기 설정 및 인증
  5. 기본 사용법

 

 

Claude Code란 무엇인가?

핵심 기능

Claude Code는 다음과 같은 강력한 기능을 제공합니다:

기능 설명
코드 생성 자연어 지시로 코드 작성
파일 편집 기존 파일을 읽고 수정
프로젝트 분석 코드베이스 전체 탐색 및 이해
버그 수정 오류 진단 및 해결책 제시
리팩토링 코드 개선 및 최적화
테스트 작성 자동 테스트 코드 생성
문서화 README, 주석, API 문서 작성
터미널 명령 Git, npm, Docker 등 실행

Claude Code vs 다른 AI 코딩 도구

도구 장점 단점
Claude Code 강력한 추론 능력, 긴 컨텍스트, 파일 편집 CLI 기반 (UI 없음)
GitHub Copilot IDE 통합 우수 짧은 컨텍스트, 단순 자동완성 중심
Cursor 전용 IDE, 시각적 유료 구독, 에디터 제한
ChatGPT 웹 기반, 접근 쉬움 파일 직접 편집 불가

시스템 요구사항

최소 요구사항

  • 운영체제:
    • macOS 10.15 (Catalina) 이상
    • Linux (Ubuntu 18.04+, Debian 10+, Fedora 30+)
    • Windows 10/11 (WSL2 권장)
  • Node.js: 18.0 이상 (20.x 권장)
  • 메모리: 최소 4GB RAM
  • 디스크: 500MB 여유 공간
  • 네트워크: 인터넷 연결 (API 호출용)

권장 환경

  • 터미널: iTerm2 (macOS), Windows Terminal, Alacritty
  • : Bash, Zsh, Fish
  • 에디터: VS Code, Neovim, Vim

 

 

설치 방법

방법 1: npm으로 설치 (권장)

npm을 통한 설치가 가장 간단하고 안정적입니다.

# 1. Node.js 버전 확인
node --version
# v20.x.x 이상이어야 함

# 2. Claude Code 전역 설치
npm install -g @anthropic-ai/claude-code

# 3. 설치 확인
claude --version
# 출력: claude-code v1.x.x

설치 중 권한 오류 발생 시:

# macOS/Linux: sudo 사용
sudo npm install -g @anthropic-ai/claude-code

# 또는 nvm 사용 (권장)
# nvm으로 설치한 Node.js는 권한 문제 없음

방법 2: npx로 임시 실행

설치 없이 바로 사용하고 싶다면:

# 설치 없이 실행
npx @anthropic-ai/claude-code

# 매번 최신 버전 사용
npx @anthropic-ai/claude-code@latest

장점:

  • 설치 불필요
  • 항상 최신 버전 사용

단점:

  • 실행할 때마다 다운로드 (느림)
  • 로컬 설정 유지 어려움

방법 3: 소스에서 빌드

개발자이거나 최신 개발 버전을 사용하려면:

# 1. 레포지토리 클론
git clone https://github.com/anthropics/claude-code.git
cd claude-code

# 2. 의존성 설치
npm install

# 3. 빌드
npm run build

# 4. 전역 링크
npm link

# 5. 실행 확인
claude --version

Windows 설치 (WSL2)

Windows에서는 WSL2 사용을 강력히 권장합니다:

# PowerShell에서 WSL2 설치
wsl --install

# Ubuntu 재시작 후 WSL 터미널에서
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs
npm install -g @anthropic-ai/claude-code

네이티브 Windows (실험적):

# Node.js 설치 (https://nodejs.org/)
# PowerShell에서
npm install -g @anthropic-ai/claude-code

# 경로 확인
where claude

 

 

 

초기 설정 및 인증

API 키 발급

  1. Anthropic Console 접속
  2. API 키 생성
    • 키 이름 입력 (예: "claude-code-dev")
    • 생성된 키 복사 (한 번만 표시됨!)
  3. Settings → API Keys → Create Key
  4. 크레딧 확인
    • 신규 가입 시 $5 무료 크레딧 제공
    • 사용량 확인: Settings → Billing

인증 설정

방법 1: 대화형 설정 (권장)

# Claude Code 실행
claude

# 처음 실행 시 API 키 입력 프롬프트
# API key를 입력하면 ~/.claude/config.json에 자동 저장

방법 2: 환경변수

# ~/.bashrc 또는 ~/.zshrc에 추가
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxx..."

# 적용
source ~/.bashrc  # 또는 source ~/.zshrc

# 테스트
claude chat "Hello"

방법 3: 설정 파일 직접 편집

# 설정 디렉토리 생성
mkdir -p ~/.claude

# 설정 파일 생성
cat > ~/.claude/config.json << 'EOF'
{
  "apiKey": "sk-ant-api03-xxxxx...",
  "model": "claude-sonnet-4-20250514",
  "maxTokens": 8192
}
EOF

# 권한 설정 (보안)
chmod 600 ~/.claude/config.json

초기 설정 확인

# 설정 파일 위치 확인
claude config show

# API 연결 테스트
claude chat "Hello, Claude!"

# 출력 예시:
# Claude: Hello! How can I help you today?

 

 

 

기본 사용법

1. 대화형 모드 (Chat)

# 기본 실행
claude

# 프롬프트가 나타나면 질문 입력
You: Python으로 피보나치 수열을 구현해줘

Claude: 물론입니다. 재귀와 반복 두 가지 방식으로 구현해드리겠습니다.

[코드 생성...]

You: /exit  # 종료

특수 명령어:

명령어 기능
/help 도움말 표시
/exit 종료
/clear 대화 기록 초기화
/save <file> 대화 내용 저장
/load <file> 대화 내용 불러오기

2. 단발성 질의

# 한 줄 명령
claude chat "Explain Git in one sentence"

# 파이프 활용
echo "Translate to Korean: Hello World" | claude chat

# 파일에서 프롬프트 읽기
claude chat < prompt.txt

# 결과를 파일로 저장
claude chat "Write a README for a Todo app" > README.md

3. 파일 편집

# 프로젝트 디렉토리에서 실행
cd my-project

# Claude에게 파일 수정 요청
claude edit "Fix the bug in src/app.js where the user login fails"

# 특정 파일 지정
claude edit --file src/utils.js "Add error handling to all functions"

# 여러 파일 동시 수정
claude edit "Refactor the authentication system"

동작 방식:

  1. Claude가 관련 파일 자동 탐색
  2. 코드 분석 후 수정안 제시
  3. 사용자 승인 시 파일 직접 편집
  4. Git diff 형식으로 변경사항 표시

4. 프로젝트 분석

# 전체 코드베이스 이해
claude analyze

# 특정 질문
claude analyze "Where is the user authentication implemented?"

# 아키텍처 다이어그램 요청
claude analyze "Draw the system architecture"

5. Git 통합

# 커밋 메시지 자동 생성
claude commit

# Pull Request 설명 작성
claude pr

# 코드 리뷰
claude review
반응형
반응형

 

왜 Ollama인가?

클라우드 vs 로컬 LLM 비교

기준 클라우드 (OpenAI, Claude) 로컬 (Ollama)
비용 사용량 기반 (토큰당 과금) 하드웨어 투자 후 무료
프라이버시 데이터가 외부로 전송됨 데이터가 로컬에 유지
지연시간 네트워크 왕복 시간 포함 로컬 처리 (더 빠를 수 있음)
커스터마이징 제한적 완전한 제어 (모델 수정 가능)
모델 선택 제공사 모델만 오픈소스 모델 자유롭게 사용
가용성 서비스 장애 시 중단 네트워크 독립적

로컬 LLM이 적합한 시나리오

다음 경우에 Ollama를 선택하세요:

  1. 민감한 데이터 처리
    • 의료·금융·법률 문서 분석
    • 사내 기밀 정보 처리
    • GDPR/HIPAA 등 규제 준수 필요
  2. 높은 사용량
    • 일일 수백만 토큰 이상 처리
    • API 비용이 부담스러운 경우
    • 배치 처리·실험 단계
  3. 오프라인 환경
    • 인터넷 접속 제한된 환경
    • 군사·정부 프로젝트
    • 현장 디바이스 (엣지 컴퓨팅)
  4. 커스터마이징 요구
    • 파인튜닝 모델 배포
    • 특수 프롬프트 템플릿 필요
    • 모델 병합·실험

다음 경우에는 클라우드 고려:

  • 초기 프로토타입 (빠른 검증 필요)
  • 최신 최고 성능 모델 필요 (GPT-4, Claude Opus 등)
  • 인프라 관리 리소스 부족
  • 소규모·간헐적 사용

설치 및 환경 설정

시스템 요구사항

최소 사양 (소형 모델용):

  • CPU: 4코어 이상
  • RAM: 8GB
  • 디스크: 10GB 여유 공간
  • OS: macOS, Linux, Windows (WSL2)

권장 사양 (중대형 모델용):

  • CPU: 8코어 이상 (또는 GPU)
  • RAM: 16GB+
  • GPU: NVIDIA (CUDA 지원) 또는 Apple Silicon
  • 디스크: 50GB+ SSD

macOS 설치

방법 1: Homebrew (권장)

# Homebrew 설치 (없는 경우)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# Ollama 설치
brew install ollama

# 설치 확인
ollama --version
# 출력: ollama version 0.1.x

방법 2: 공식 설치 스크립트

curl -fsSL https://ollama.com/install.sh | sh

# 서비스 자동 시작 (macOS)
brew services start ollama

Linux 설치 (Ubuntu/Debian)

# 공식 설치 스크립트
curl -fsSL https://ollama.com/install.sh | sh

# systemd 서비스로 자동 시작
sudo systemctl enable ollama
sudo systemctl start ollama

# 상태 확인
sudo systemctl status ollama

수동 설치 (바이너리):

# 최신 릴리스 다운로드
curl -L https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64 -o ollama

# 실행 권한 부여
chmod +x ollama

# PATH에 추가
sudo mv ollama /usr/local/bin/

# 데몬 실행
ollama serve &

Windows 설치

WSL2 사용 (권장):

# PowerShell에서 WSL2 설치
wsl --install

# Ubuntu 재시작 후 WSL 터미널에서
curl -fsSL https://ollama.com/install.sh | sh

네이티브 Windows (실험적):

# Chocolatey로 설치
choco install ollama

# 또는 공식 Windows 인스톨러 다운로드
# https://ollama.com/download/windows

Docker 설치 (플랫폼 독립)

# CPU 전용
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# NVIDIA GPU 지원
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# 실행 확인
curl http://localhost:11434/api/version

설치 확인

# 1. 버전 확인
ollama --version

# 2. 서버 상태 확인
curl http://localhost:11434/api/tags

# 3. 테스트 모델 실행
ollama run llama3:8b

모델 관리 완전 가이드

인기 모델 카탈로그

모델 파라미터 크기 RAM 요구 속도 품질 주요 용도
llama3:8b 8B 4.7GB 8GB ★★★★☆ ★★★★☆ 범용 (추천 시작점)
llama3:70b 70B 40GB 64GB ★★☆☆☆ ★★★★★ 고품질 작업
mistral:7b 7B 4.1GB 6GB ★★★★★ ★★★☆☆ 빠른 응답 필요 시
mixtral:8x7b 47B 26GB 32GB ★★★☆☆ ★★★★★ 복잡한 추론
codellama:13b 13B 7.4GB 16GB ★★★☆☆ ★★★★☆ 코드 생성
phi-2 2.7B 1.7GB 4GB ★★★★★ ★★☆☆☆ 저사양 환경
gemma:7b 7B 5.0GB 8GB ★★★★☆ ★★★★☆ Google 모델

모델 다운로드

# 기본 다운로드 (최신 버전)
ollama pull llama3:8b

# 특정 양자화 버전 (메모리 절약)
ollama pull llama3:8b-q4_0      # 4-bit 양자화 (3.5GB)
ollama pull llama3:8b-q8_0      # 8-bit 양자화 (7.0GB)

# 여러 모델 동시 다운로드
ollama pull llama3:8b & \
ollama pull mistral:7b & \
ollama pull codellama:13b &
wait
echo "모든 모델 다운로드 완료"

모델 조회 및 삭제

# 로컬 모델 목록
ollama list

# 출력 예시:
# NAME              ID              SIZE      MODIFIED
# llama3:8b         a6f7e2f3c1d8    4.7GB     2 days ago
# mistral:7b        b8c9d0e1f2a3    4.1GB     1 week ago

# 모델 상세 정보
ollama show llama3:8b

# 모델 삭제
ollama rm mistral:7b

# 디스크 공간 확인
du -sh ~/.ollama/models
반응형

+ Recent posts