Dify와 Continue 는 AI 기반 개발 어시스턴트를 구축하는 데 핵심적인 도구지만,
바로 설치에 들어가기엔 고려할 점이 많다.
특히 온프레미스 환경을 염두에 둔다면 미리 구조와 설정 방식을 이해하는 것이 중요하다.
이 글에서는 설치 전에 준비해야 할 기술적, 개념적 요소들을 정리해본다.
1. Dify와 Continue는 무엇을 해주는 도구인가?
도구 | 주요 기능 | 목적 |
---|---|---|
Dify | RAG 기반 챗봇 생성, 모델 연동, 워크스페이스/앱 관리 | 사내 문서를 연동해 대화형 챗봇을 만들고 활용 |
Continue | VSCode 내 AI 코드 어시스턴트, 프롬프트 기반 코드 완성 | 개발 중 AI 코드 자동화와 힌트 제공 |
이 둘은 각기 다른 목적을 지닌 도구이지만, 함께 사용할 경우 ‘문서화 + 코드 생성’이라는 개발 워크플로 전체를 AI로 보조할 수 있다.
2. 설치 전 확인할 시스템 요구 사항
공통 사항
- Linux 기반 서버 또는 Docker 환경 구성 가능해야 함
- Python 3.10+ 또는 Node.js 필요 시 설치 가능 여부 확인
- GPU (선택 사항) 사용 시 CUDA 및 드라이버 설치 필요
Dify 관련
- Postgres, Qdrant 또는 Weaviate 등 벡터 DB 구성 필요
- OpenAI 또는 사설 모델 API 키 필요
Continue 관련
- 최신 버전의 VSCode 설치 필요
- .continue/config.json 파일 설정에 필요한 API 키, 모델 경로 등 준비 필요
3. 사용할 LLM(Local 또는 API)
모델 유형 | 예시 | 장점 | 단점 |
외부 API | OpenAI, Anthropic, Google | 바로 사용 가능, 고성능 | 보안 민감, 비용 예측 어려움 |
사설 모델 | Llama3, Mistral, OpenRouter | 온프레미스 가능, 비용 통제 | 설치와 튜닝 필요 |
TIP: 시작은 외부 API로, 이후 점진적으로 사설 모델 전환을 고려하는 것이 현실적이다.
4. 인증과 API 키 관리 전략
- OpenAI 등 외부 API를 사용할 경우, 조직 단위로 API 키 발급 및 제한 설정 필요
- 내부에서 API 호출 로그를 관리하려면 프록시 또는 미들웨어 구성 고려
- Git 또는 CI 환경에서 키가 노출되지 않도록
.env
또는 비밀 관리 시스템 사용
5. 데이터 흐름 구조 이해하기
아래는 Dify와 Continue가 각자 어떤 식으로 데이터를 처리하는지 개략적인 흐름이다:
Dify
사용자 입력 → 프론트엔드 → 백엔드 → 벡터DB(RAG) + LLM 응답 → 사용자
Continue
사용자 코드 편집 → 프롬프트 생성 → LLM 요청 → 코드 제안 → VSCode 편집기에 삽입
각 시스템의 흐름을 이해해두면, 설치 후 문제가 생겼을 때 빠르게 디버깅할 수 있다.
마치며
이번 글에서는 Dify와 Continue 설치 전 반드시 고려해야 할 기술 요건과 개념적 요소들을 정리해봤다.
설치 자체는 어렵지 않지만, 제대로 활용하려면 준비가 중요하다.
다음 글에서는 Dify를 온프레미스 환경에 설치하는 구체적인 과정을 단계별로 다뤄본다.