Kotlin + Spring Cloud로 인증 중심 MSA 구축하기

왜 인증 중심으로 MSA 설계를 하는가?

인증 중심으로 MSA를 설계 한다는것은 무엇이고 어떻게 설계해야 할까?마이크로서비스 아키텍처(MSA)를 도입하면서 가장 먼저 맞닥뜨리는 고민 중 하나는 ‘인증’이다. 단일 애플리케이션 구조에서는 로그인과 권한 관리를 하나의 서버에서 처리할 수 있지만, MSA 환경에서는 각 서비스가 독립적으로 운영되기 때문에 인증과 권한 관리가 복잡해진다. 이때, 인증을 중심에 두고 아키텍처를 설계하는 것이 유리한 전략이 될 수 있다. 1. 인증 중심으로 … 더 읽기

10개월 전
Codex로 AI와 함께 만드는 MSA 프로젝트

Codex와 함께 마이크로서비스 프로젝트 시작하기

Codex와 함께 마이크로서비스 프로젝트를 시작하지 않고 마이크로서비스 아키텍처(MSA)를 처음부터 직접 구축하는 건 꽤나 복잡한 작업이다. 각 서비스의 역할 분리, 통신 방식, 인증 처리, 테스트 환경 등 고려할 것이 많다. 하지만 AI 코딩 어시스턴트인 GitHub Copilot의 기반 모델 중 하나인 Codex를 활용하면, 이러한 과정을 좀 더 수월하게 진행할 수 있다. 이 글에서는 Codex를 이용해 마이크로서비스 프로젝트를 … 더 읽기

10개월 전
AI 코드 어시스턴트의 시대

AI 코드 어시스턴트 란 무엇인가?

AI 코드 어시스턴트 최근 몇 년 사이, 소프트웨어 개발 현장에서 ‘AI 코드 어시스턴트’라는 용어가 빠르게 확산되고 있다.GitHub Copilot, Google Jules, OpenAI Codex 등 다양한 도구들이 등장하면서, 이 기술은 단순한 유행을 넘어 개발자의 필수 도구로 자리잡고 있다. 그렇다면 AI 코드 어시스턴트는 정확히 무엇이며, 어떻게 등장하게 되었을까? AI 코드 어시스턴트의 개념 AI 코드 어시스턴트는 인공지능 모델을 활용해 … 더 읽기

10개월 전
Dify와 Continue로 만드는 사내 AI

온프레미스 AI 환경의 인증/권한/로그 전략 정리

사내에 AI 도구를 구축하고 운영할 때 기술적인 설치 못지않게 중요한 것이 보안과 관리 체계다. Dify나 Continue 같은 도구는 내부 코드, 문서, 사용자 데이터를 직접 다루기 때문에 인증·권한·로그 전략이 미비하면 데이터 유출이나 무단 접근 같은 심각한 보안 리스크가 현실이 된다. 특히 온프레미스 환경은 퍼블릭 클라우드처럼 플랫폼 레벨의 보안 장치가 자동으로 제공되지 않는다. 운영팀이 직접 설계하지 않으면 … 더 읽기

10개월 전
Dify와 Continue로 만드는 사내 AI

Continue로 코드 작성하고, Dify로 문서화하는 실전 예제

앞선 글에서 Dify와 Continue를 함께 쓰는 전체 워크플로를 살펴봤다면, 이번에는 한 발 더 들어간다. “작은 파이썬 함수 하나를 짜고, 그 함수를 사내 가이드라인에 맞는 문서로 자동 정리해서 위키에 올린다”라는 아주 구체적인 시나리오를 실제 흐름 그대로 따라가 본다. 코드 작성은 Continue가, 그 뒤의 문서 표준화와 배포는 Dify가 맡는 식이다. 두 도구의 역할 분담을 머리로만 이해하기보다 손을 … 더 읽기

10개월 전
Dify와 Continue로 만드는 사내 AI

Dify + Continue 통합 워크플로: 코드 작성부터 문서화까지 AI로 자동화하기

개발자의 하루를 떠올려 보자. 코드를 작성하고, PR을 올리고, 문서를 업데이트하고, 팀원의 질문에 답한다. 이 중 코드 작성 이외의 모든 것이 사실 가장 큰 시간을 잡아먹는다. Dify와 Continue를 연결하면 이 흐름 전체를 AI가 보조하는 파이프라인으로 바꿀 수 있다. 1. 왜 두 도구를 함께 쓰는가 Continue와 Dify는 각각 다른 영역을 커버한다. 핵심은 이 둘의 교차점에 있다. 구분 … 더 읽기

10개월 전
Dify와 Continue로 만드는 사내 AI

온프레미스 LLM 완전 가이드: Llama 3, Mistral을 사내에 배포하는 방법

GPT-4나 Claude 같은 상용 모델은 성능이 뛰어나지만, 기업 환경에서는 “코드와 데이터가 외부 서버로 전송된다”는 사실 자체가 도입 장벽이 된다. 비용도 문제다. 개발자 50명이 매일 사용하면 월 수백만 원이 나간다. 이 글에서는 Llama 3, Mistral 등 오픈소스 LLM을 사내 서버에 배포하고, Continue나 Dify 같은 도구와 연동하는 실전 방법을 정리한다. 1. 왜 온프레미스 LLM인가 온프레미스 LLM을 선택하는 … 더 읽기

10개월 전
Dify와 Continue로 만드는 사내 AI

Continue에 사내 LLM 또는 OpenRouter를 연동하는 실전 가이드

기업에서 AI 코드 어시스턴트를 도입할 때 가장 먼저 맞닥뜨리는 고민이 있다. “코드가 외부로 나가도 되는가?” 보안 정책상 외부 API를 쓸 수 없거나, 비용을 통제하면서도 여러 모델을 실험하고 싶은 경우가 많다. Continue는 이 두 가지 요구를 모두 충족할 수 있는 유연한 구조를 갖추고 있다. 이 글에서는 Continue에 사내 LLM(vLLM, Ollama 등)과 OpenRouter(멀티모델 게이트웨이)를 연동하는 방법을 실전 … 더 읽기

10개월 전
Dify와 Continue로 만드는 사내 AI

AI 코드 어시스턴트 구축 필요한 이유: Dify와 Continue 선택기

AI 코드 어시스턴트 구축 을 하려는 이유는 단순한 실험이 아닌, 실제 조직 운영의 필요에서 출발했다.개발 조직에서 AI 활용은 더 이상 선택이 아니다. 특히 코드 어시스턴트 영역은 GitHub Copilot을 필두로 실사용이 본격화되고 있다. 하지만 막상 조직 내에 적용하려 하면 여러 제약과 고민거리가 생긴다. 우리는 이런 현실적인 필요와 한계를 느끼며, 직접 우리만의 AI 코드 어시스턴트 환경을 구축하기로 … 더 읽기

10개월 전
IaC로 AWS EKS 구축하기

Terraform과 AWS EKS 인프라 구축 : 클라우드 운영의 자동화와 확장성

This entry is part 1 of 1 in the series IaC로 AWS EKS 구축하기

Terraform과 AWS EKS 인프라 구축 은 클라우드 환경에서 안정적인 애플리케이션 운영을 위해 매우 중요한 전략이다.이 조합은 일관된 인프라 관리와 자동화를 동시에 실현할 수 있게 해준다 클라우드 환경에서 애플리케이션을 안정적으로 운영하려면 효율적이고 일관된 인프라 관리가 필요하다. 특히 마이크로서비스 아키텍처가 대세가 되면서 Kubernetes 같은 컨테이너 오케스트레이션 도구가 중요해졌고, 그중에서도 관리형 서비스인 Amazon EKS(Amazon Elastic Kubernetes Service) 가 … 더 읽기

10개월 전