AionUi는 무료, 로컬, 오픈소스 24/7 AI 협업 플랫폼입니다. Gemini CLI, Claude Code, Codex, Qwen Code, Goose CLI, Auggie 등 다양한 커맨드라인 AI 도구들을 통합하여 사용할 수 있는 그래픽 인터페이스를 제공합니다.
🎯 핵심 가치
AionUi는 단순히 CLI 도구의 GUI 래퍼가 아닙니다. 마치 Claude Cowork가 Claude Code를 더 쉽게 사용할 수 있게 만든 것처럼, AionUi는 모든 커맨드라인 AI 도구를 위한 통합 Cowork 플랫폼입니다.
AionUi는 Gemini CLI를 내장하고 있어 설치 후 바로 사용할 수 있습니다. 이미 Gemini CLI, Claude Code, CodeX, Qwen Code, Goose AI, Augment Code 등을 설치한 경우 자동으로 감지하여 통합 인터페이스를 제공합니다.
주요 특징:
✅ 자동 감지 + 통합 인터페이스
✅ 로컬 저장 + 다중 세션 지원
✅ 각 세션은 독립적인 컨텍스트 유지
🌐 2. 어디서나 접속 가능
24/7 AI 어비스턴트 - 어떤 기기에서든 접속!
출장 중, 집, 사무실 어디서나 WebUI 또는 다양한 채팅 플랫폼을 통해 AI 도구를 사용할 수 있습니다.
지원 접속 방법:
🌐 WebUI 모드
브라우저를 통해 어떤 기기에서든 접속 (폰, 태블릿, 컴퓨터)
LAN, 크로스 네트워크, 서버 배포 지원
QR 코드 스캔 또는 계정/비밀번호로 로그인
📱 채팅 플랫폼 통합
Telegram - 텔레그램에서 AI 어시스턴트와 직접 대화
Lark (Feishu) - 페이슈 봇을 통한 엔터프라이즈 협업
Slack 및 기타 플랫폼 곧 지원 예정 🚧
💡 설정 방법: AionUi 설정 → WebUI 설정 → 채널에서 Bot Token 설정!
⏰ 3. 예약 작업
AI가 자동으로 작업을 실행하도록 설정
예약 작업을 설정하면 AI 어시스턴트가 설정한 시간에 자동으로 작업을 실행합니다.
특징:
자연어 대화 - AI에게 일상적인 언어로 작업 지시
유연한 시간 설정 - 매일, 매주, 매월 모두 가능
간단한 관리 - 생성, 수정, 활성화/비활성화, 삭제, 조회 자유롭게
활용 사례:
예약된 데이터 수집
정기 보고서 생성
자동 파일 정리
예약 알림
📁 4. 스마트 파일 관리
배치 이름 변경, 자동 정리, 스마트 분류, 파일 병합
자동 정리: 콘텐츠를 지능적으로 식별하고 자동 분류
효율적인 배치 작업: 원클릭으로 이름 변경, 파일 병합
📄 5. 미리보기 패널
AI 생성 결과를 즉시 확인
9가지 이상 포맷의 시각적 미리보기 지원 (PDF, Word, Excel, PPT, 코드, Markdown, 이미지, HTML, Diff 등)
특징:
✅ 즉시 결과 확인 - AI가 파일 생성 후 앱 전환 없이 바로 미리보기
✅ 실시간 추적 + 편집 가능 - 파일 변경 자동 추적, Markdown/코드/HTML 실시간 편집 지원
Claude Code는 Anthropic의 Claude AI를 터미널에서 직접 사용할 수 있는 강력한 CLI 도구입니다. 코드 작성, 파일 편집, 디버깅, 프로젝트 분석 등을 대화형으로 수행할 수 있으며, IDE와 통합하여 효율적인 개발 워크플로우를 구축할 수 있습니다.
이 가이드는 Claude Code의 설치부터 초기 설정, 주요 기능, 그리고 기본적인 사용법까지 다룹니다.
# 1. Node.js 버전 확인
node --version
# v20.x.x 이상이어야 함
# 2. Claude Code 전역 설치
npm install -g @anthropic-ai/claude-code
# 3. 설치 확인
claude --version
# 출력: claude-code v1.x.x
설치 중 권한 오류 발생 시:
# macOS/Linux: sudo 사용
sudo npm install -g @anthropic-ai/claude-code
# 또는 nvm 사용 (권장)
# nvm으로 설치한 Node.js는 권한 문제 없음
방법 2: npx로 임시 실행
설치 없이 바로 사용하고 싶다면:
# 설치 없이 실행
npx @anthropic-ai/claude-code
# 매번 최신 버전 사용
npx @anthropic-ai/claude-code@latest
장점:
설치 불필요
항상 최신 버전 사용
단점:
실행할 때마다 다운로드 (느림)
로컬 설정 유지 어려움
방법 3: 소스에서 빌드
개발자이거나 최신 개발 버전을 사용하려면:
# 1. 레포지토리 클론
git clone https://github.com/anthropics/claude-code.git
cd claude-code
# 2. 의존성 설치
npm install
# 3. 빌드
npm run build
# 4. 전역 링크
npm link
# 5. 실행 확인
claude --version
# Claude Code 실행
claude
# 처음 실행 시 API 키 입력 프롬프트
# API key를 입력하면 ~/.claude/config.json에 자동 저장
방법 2: 환경변수
# ~/.bashrc 또는 ~/.zshrc에 추가
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxx..."
# 적용
source ~/.bashrc # 또는 source ~/.zshrc
# 테스트
claude chat "Hello"
방법 3: 설정 파일 직접 편집
# 설정 디렉토리 생성
mkdir -p ~/.claude
# 설정 파일 생성
cat > ~/.claude/config.json << 'EOF'
{
"apiKey": "sk-ant-api03-xxxxx...",
"model": "claude-sonnet-4-20250514",
"maxTokens": 8192
}
EOF
# 권한 설정 (보안)
chmod 600 ~/.claude/config.json
초기 설정 확인
# 설정 파일 위치 확인
claude config show
# API 연결 테스트
claude chat "Hello, Claude!"
# 출력 예시:
# Claude: Hello! How can I help you today?
기본 사용법
1. 대화형 모드 (Chat)
# 기본 실행
claude
# 프롬프트가 나타나면 질문 입력
You: Python으로 피보나치 수열을 구현해줘
Claude: 물론입니다. 재귀와 반복 두 가지 방식으로 구현해드리겠습니다.
[코드 생성...]
You: /exit # 종료
특수 명령어:
명령어
기능
/help
도움말 표시
/exit
종료
/clear
대화 기록 초기화
/save <file>
대화 내용 저장
/load <file>
대화 내용 불러오기
2. 단발성 질의
# 한 줄 명령
claude chat "Explain Git in one sentence"
# 파이프 활용
echo "Translate to Korean: Hello World" | claude chat
# 파일에서 프롬프트 읽기
claude chat < prompt.txt
# 결과를 파일로 저장
claude chat "Write a README for a Todo app" > README.md
3. 파일 편집
# 프로젝트 디렉토리에서 실행
cd my-project
# Claude에게 파일 수정 요청
claude edit "Fix the bug in src/app.js where the user login fails"
# 특정 파일 지정
claude edit --file src/utils.js "Add error handling to all functions"
# 여러 파일 동시 수정
claude edit "Refactor the authentication system"
동작 방식:
Claude가 관련 파일 자동 탐색
코드 분석 후 수정안 제시
사용자 승인 시 파일 직접 편집
Git diff 형식으로 변경사항 표시
4. 프로젝트 분석
# 전체 코드베이스 이해
claude analyze
# 특정 질문
claude analyze "Where is the user authentication implemented?"
# 아키텍처 다이어그램 요청
claude analyze "Draw the system architecture"
5. Git 통합
# 커밋 메시지 자동 생성
claude commit
# Pull Request 설명 작성
claude pr
# 코드 리뷰
claude review
# Homebrew 설치 (없는 경우)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# Ollama 설치
brew install ollama
# 설치 확인
ollama --version
# 출력: ollama version 0.1.x
방법 2: 공식 설치 스크립트
curl -fsSL https://ollama.com/install.sh | sh
# 서비스 자동 시작 (macOS)
brew services start ollama
Linux 설치 (Ubuntu/Debian)
# 공식 설치 스크립트
curl -fsSL https://ollama.com/install.sh | sh
# systemd 서비스로 자동 시작
sudo systemctl enable ollama
sudo systemctl start ollama
# 상태 확인
sudo systemctl status ollama
수동 설치 (바이너리):
# 최신 릴리스 다운로드
curl -L https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64 -o ollama
# 실행 권한 부여
chmod +x ollama
# PATH에 추가
sudo mv ollama /usr/local/bin/
# 데몬 실행
ollama serve &
Windows 설치
WSL2 사용 (권장):
# PowerShell에서 WSL2 설치
wsl --install
# Ubuntu 재시작 후 WSL 터미널에서
curl -fsSL https://ollama.com/install.sh | sh
네이티브 Windows (실험적):
# Chocolatey로 설치
choco install ollama
# 또는 공식 Windows 인스톨러 다운로드
# https://ollama.com/download/windows
Docker 설치 (플랫폼 독립)
# CPU 전용
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# NVIDIA GPU 지원
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# 실행 확인
curl http://localhost:11434/api/version
설치 확인
# 1. 버전 확인
ollama --version
# 2. 서버 상태 확인
curl http://localhost:11434/api/tags
# 3. 테스트 모델 실행
ollama run llama3:8b
모델 관리 완전 가이드
인기 모델 카탈로그
모델
파라미터
크기
RAM 요구
속도
품질
주요 용도
llama3:8b
8B
4.7GB
8GB
★★★★☆
★★★★☆
범용 (추천 시작점)
llama3:70b
70B
40GB
64GB
★★☆☆☆
★★★★★
고품질 작업
mistral:7b
7B
4.1GB
6GB
★★★★★
★★★☆☆
빠른 응답 필요 시
mixtral:8x7b
47B
26GB
32GB
★★★☆☆
★★★★★
복잡한 추론
codellama:13b
13B
7.4GB
16GB
★★★☆☆
★★★★☆
코드 생성
phi-2
2.7B
1.7GB
4GB
★★★★★
★★☆☆☆
저사양 환경
gemma:7b
7B
5.0GB
8GB
★★★★☆
★★★★☆
Google 모델
모델 다운로드
# 기본 다운로드 (최신 버전)
ollama pull llama3:8b
# 특정 양자화 버전 (메모리 절약)
ollama pull llama3:8b-q4_0 # 4-bit 양자화 (3.5GB)
ollama pull llama3:8b-q8_0 # 8-bit 양자화 (7.0GB)
# 여러 모델 동시 다운로드
ollama pull llama3:8b & \
ollama pull mistral:7b & \
ollama pull codellama:13b &
wait
echo "모든 모델 다운로드 완료"
모델 조회 및 삭제
# 로컬 모델 목록
ollama list
# 출력 예시:
# NAME ID SIZE MODIFIED
# llama3:8b a6f7e2f3c1d8 4.7GB 2 days ago
# mistral:7b b8c9d0e1f2a3 4.1GB 1 week ago
# 모델 상세 정보
ollama show llama3:8b
# 모델 삭제
ollama rm mistral:7b
# 디스크 공간 확인
du -sh ~/.ollama/models