Tags¶
AI¶
- CLAUDE.md로 AI 코딩 어시스턴트 가이드라인 작성하기
- Dropout이란? PyTorch 신경망에 Dropout 적용하기
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- KoBERT: 한국어 BERT 모델 소개와 파인튜닝 예제
- LLM 멀티턴 vs 싱글턴 대화: 차이점과 구현 전략
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- Thompson Sampling: 탐색과 활용의 균형을 잡는 알고리즘
- Tokenization 기법 정리: BPE, WordPiece, SentencePiece 비교
- Transformer의 Query, Key, Value 행렬 생성 과정
- Vast.ai GPU 인스턴스 관리 API 사용법 정리
- vLLM vs LMDeploy vs SGLang: LLM 서빙 프레임워크 3종 벤치마크 비교
- 가상 피팅(Virtual Try-On) 기술 개요
- 셀프 어텐션(Self-Attention) 동작 과정 단계별 정리
- 이미지 검색 기술과 객체 추출 기반 검색
AI Agent¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- AI 회사 자율운영 플랫폼에 synaptic-memory + graph-tool-call 통합기
- Agent 실시간 상태 바: 메시지 큐와 즉각 피드백 UX
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- Claude Code 수준의 Agent 정확도 달성하기: 12대 개선사항
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- MCP(Model Context Protocol)로 Agent 속도 3-5x 개선
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- XGEN 인증 프로필 시스템 — AI Agent가 로그인 사이트를 자동으로 다루는 방법
- gwanjong-mcp — AI 소셜 에이전트 MCP 시스템 설계와 구현
- gwanjong-mcp 운영기 — 9개 플랫폼 확장, 캠페인 GTM, 스팸 방지 실전
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 시나리오 배치 실행 엔진: selector fallback과 excel loop
- 엑셀 루프 자동화: Agent + 스토리지 연동으로 반복 작업 처리
AI Search¶
AI개발¶
AI검색¶
AI에이전트¶
AMD¶
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- XGEN GPU 벤더 추상화 — Vulkan 의존 제거와 멀티 벤더 Dockerfile 전략
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
AMD GPU¶
API¶
API Design¶
API Gateway¶
- Gateway 서비스 매핑: LLM/Crawler/ML 통합 구성
- Rust로 API Gateway 만들기: JWT 검증 + CORS + 프록시
- 마이크로서비스 라우팅 통합: session-station에서 core로 병합
API 서버¶
API설계¶
APScheduler¶
AWS¶
AbortSignal¶
Abstraction Layer¶
Access Control¶
Accuracy¶
Agent¶
Aggregation¶
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch Star-tree Index — 사전 집계로 Aggregation 성능 극대화
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
App Mode¶
App of Apps¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
ApplicationSet¶
Architecture¶
ArgoCD¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Reusable GitHub Actions와 Helm으로 K3s 범용 배포 플랫폼 구축하기
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
Attention Mechanism¶
Authentication¶
Authorization¶
AutoARIMA¶
Axum¶
- 2GB 파일 업로드를 위한 프록시 body size 설정
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust로 API Gateway 만들기: JWT 검증 + CORS + 프록시
- Rust로 커머스 검색 엔진을 처음부터 만들기
BERT¶
BM25¶
- OpenSearch Hybrid Search — 키워드와 시맨틱 검색 결합 가이드
- Orama BM25로 MkDocs 블로그 검색을 완전히 교체한 과정
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
BPE¶
Batch Processing¶
Batching¶
Bore¶
Browser Automation¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 시나리오 배치 실행 엔진: selector fallback과 excel loop
Build Configuration¶
BuildKit¶
Bulk API¶
CI/CD¶
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- Reusable GitHub Actions와 Helm으로 K3s 범용 배포 플랫폼 구축하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Search API와 LLMOps Docker 구성기
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
CLAUDE.md¶
CLIP¶
CORS¶
CPU Throttling¶
CRUD¶
CSS¶
CSS Selector¶
CUDA¶
Caddy¶
Callback¶
Cancellation¶
Canvas¶
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
Chronos¶
Circuit Breaker¶
Claude API¶
Claude CLI¶
Claude Code¶
ClusterRole¶
Code Assistant¶
ColBERT¶
ColPali¶
Component Design¶
Computer Vision¶
ConfigMap¶
Configuration¶
Configuration Management¶
Context Manager¶
CosineSimilarity¶
Cross-encoder¶
CrossEncoder¶
D3.js¶
DB추상화¶
DNS¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- GitHub Pages 커스텀 도메인 마이그레이션 + GoatCounter 조회수 연동
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
DPO¶
Data Processing¶
DeepSeek¶
Dense Vector¶
Deploy¶
Deployment¶
Design Pattern¶
Desktop App¶
- Remote WebView 아키텍처: 로컬 앱과 원격 서버 연동
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri - 크로스 플랫폼 앱 개발 프레임워크
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- 앱 모드 전환: Standalone vs Connected 아키텍처
DevOps¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- GitLab CI/CD에서 EC2 배포 자동화: SCP + SSH 파이프라인 구축
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- K3s 리소스 튜닝 실전 가이드 — OOMKilled와 CPU Throttling 해결기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Kubernetes Downward API로 멀티 Pod 세션 라우팅 구현
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Reusable GitHub Actions와 Helm으로 K3s 범용 배포 플랫폼 구축하기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Search API와 LLMOps Docker 구성기
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 롯데홈쇼핑 폐쇄망 서버 SSH 터널링과 접속 구성
- 면접 후보자 A — 서버 백엔드 / DevOps
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
Device Code Flow¶
Discovery¶
Distributed Lock¶
Distributed Systems¶
Docker¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- Qdrant GPU 인덱싱 가속 — Docker 이미지와 설정 가이드
- Qdrant 개발 및 테스트 환경 설정 — Docker, 빌드, 포트 구성
- Search API와 LLMOps Docker 구성기
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
- XGEN GPU 벤더 추상화 — Vulkan 의존 제거와 멀티 벤더 Dockerfile 전략
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 목적에 맞는 OpenSearch Docker Compose 구성
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
Docker Compose¶
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- 단일 서버에서 OpenSearch 최적 배포 — 노드 역할 분리와 자원 격리
- 목적에 맞는 OpenSearch Docker Compose 구성
Dockerfile¶
Docsify¶
- workstream-kb — 업무 지식 베이스 자동화: MS365 수집부터 Claude 리포트 생성까지
- 업무 자동 수집 → 일일 리포트: 500+개 메시지를 Claude로 요약하는 3계층 아키텍처
Document Processing¶
Downward API¶
Drag and Drop¶
Dropout¶
EC2¶
EKS¶
EXAONE¶
Edge Snapping¶
Elasticsearch¶
Embedding¶
Environment Variables¶
Excel¶
Excel Automation¶
FAISS¶
Faiss¶
FastAPI¶
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- HuggingFace 모델 검색 및 다운로드 자동화
- OJT 리팩토링과 Kotaemon RAG 구현기
- OpenAI 호환 API 서버 직접 만들기
- Qdrant Async API — Python 비동기 벡터 검색 클라이언트 활용
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- XGEN MS 365 MCP 통합 — Device Code Flow 인증부터 워크플로우 노드까지
- XGEN 인증 프로필 시스템 — AI Agent가 로그인 사이트를 자동으로 다루는 방법
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- “Qdrant + FastAPI 문서 기반 RAG 파이프라인 구현”
- 로컬 LLM 모델 관리 시스템: 로드/언로드/활성화 라이프사이클
- 마이크로서비스 라우팅 통합: session-station에서 core로 병합
- 벡터 기반 시맨틱 검색 구현기
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
- 상품 리뷰 분석 API 개발기 - 형태소 분석기 성능 최적화
- 시맨틱 검색 API: 요약(Summary) 기능 온/오프 전략
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
- 파일 기반 설정에서 Redis + API 기반 분산 설정으로 전환하기
FastEmbed¶
File Upload¶
ForceAtlas2¶
Frontend¶
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- DocumentsGraph: 문서 관계 시각화 컴포넌트
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- React Hot Toast로 알림 시스템 개선하기
- React에서 Undo/Redo 구현: 워크플로우 에디터 히스토리 관리
- RxDB 란 무엇인가? (OpenSearch 연동)
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
- 데이터셋 컬럼 관리: 삭제/치환/연산 모달 컴포넌트 설계
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 워크플로우 공유 권한 시스템: 읽기 전용 vs 편집 모드
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
Fusion¶
Future¶
GEO¶
GGUF¶
GIL¶
GPT¶
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- 시맨틱 검색 API: 요약(Summary) 기능 온/오프 전략
GPU¶
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- OpenSearch & Dashboards 3.1.0 릴리즈 노트
- OpenSearch 3.0 GPU 기반 원격 벡터 인덱스 구축 가이드
- OpenSearch 성능 벤치마크와 TPS별 서버 구성 가이드
- Qdrant GPU 인덱싱 가속 — Docker 이미지와 설정 가이드
- Vast.ai GPU 인스턴스 관리 API 사용법 정리
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN GPU 벤더 추상화 — Vulkan 의존 제거와 멀티 벤더 Dockerfile 전략
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
GPU관리¶
GTM¶
Gateway¶
GitHub Actions¶
GitHub Pages¶
GitLab¶
GitLab CI/CD¶
GitOps¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- Reusable GitHub Actions와 Helm으로 K3s 범용 배포 플랫폼 구축하기
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
GliNER¶
GoatCounter¶
Google Analytics¶
Google Search Console¶
Graceful Shutdown¶
Grafana¶
Graph¶
Graphology¶
Groovy¶
HNSW¶
- OpenSearch 3.0 GPU 기반 원격 벡터 인덱스 구축 가이드
- OpenSearch Approximate k-NN — 근사 벡터 검색 알고리즘과 설정 가이드
- Qdrant Capacity Planning — RAM, 디스크, CPU 산정 가이드
- Qdrant Indexing — 벡터 인덱스와 페이로드 인덱스 구성 가이드
HPA¶
- K3s 리소스 튜닝 실전 가이드 — OOMKilled와 CPU Throttling 해결기
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
HTTPS¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
Handlebars¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- 검색 결과 랭킹 스코어링 시스템 설계
Health Probe¶
Helm¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Reusable GitHub Actions와 Helm으로 K3s 범용 배포 플랫폼 구축하기
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
History Management¶
Hive Corp¶
Hugging Face¶
HuggingFace¶
- GliNER과 DPO-LoRA를 활용한 모델 파인튜닝
- HuggingFace 모델 검색 및 다운로드 자동화
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
Human-in-the-Loop¶
I/O¶
IPC¶
Image Search¶
Intel NPU¶
Istio¶
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
Iterative RAG¶
JCasC¶
JSON-LD¶
JWT¶
JavaScript¶
Jenkins¶
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
K3s¶
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 리소스 튜닝 실전 가이드 — OOMKilled와 CPU Throttling 해결기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Reusable GitHub Actions와 Helm으로 K3s 범용 배포 플랫폼 구축하기
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN MS 365 MCP 통합 — Device Code Flow 인증부터 워크플로우 노드까지
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
- 롯데홈쇼핑 폐쇄망 서버 SSH 터널링과 접속 구성
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
KNN¶
KV Cache¶
Knowledge Graph¶
KoBERT¶
KoSimCSE¶
Kotaemon¶
Kubernetes¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 리소스 튜닝 실전 가이드 — OOMKilled와 CPU Throttling 해결기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Kubernetes Downward API로 멀티 Pod 세션 라우팅 구현
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Redis로 멀티 Pod 파일 업로드 진행률 동기화하기
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- 레포지토리 스케줄러의 분산 환경 전환
LLM¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- API 추상화 레이어: 로컬 LLM과 원격 서비스 통합
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- GliNER과 DPO-LoRA를 활용한 모델 파인튜닝
- Intel NPU 가속을 활용한 TinyLlama 챗봇 구현
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- LangChain PydanticOutputParser — LLM 출력을 구조화된 데이터로 변환
- OJT 리팩토링과 Kotaemon RAG 구현기
- OpenAI 호환 API 서버 직접 만들기
- RAG 고도화 개요 — Retrieval, Generation, 평가 전략 로드맵
- RAG 서비스의 토큰 관리와 컨텍스트 윈도우 최적화
- RAG 챗봇 대화 기록 유지 — 메모리 관리 전략과 구현
- XGEN GPU 벤더 추상화 — Vulkan 의존 제거와 멀티 벤더 Dockerfile 전략
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 로컬 LLM 모델 관리 시스템: 로드/언로드/활성화 라이프사이클
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 문서 처리 서비스에 DeepSeek 지시문 적용하기
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
LLM Agent¶
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
LLM Serving¶
- LLM 멀티턴 vs 싱글턴 대화: 차이점과 구현 전략
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- Vast.ai GPU 인스턴스 관리 API 사용법 정리
- vLLM vs LMDeploy vs SGLang: LLM 서빙 프레임워크 3종 벤치마크 비교
LLMOps¶
LMDeploy¶
LTR¶
LangChain¶
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- LangChain PydanticOutputParser — LLM 출력을 구조화된 데이터로 변환
- LangChain SemanticChunker — 의미 기반 텍스트 분할 가이드
- LangChain과 Qdrant 통합 — Dense, Sparse, Hybrid 검색 구현
- LangGraph 활용 시나리오 — RAG 고도화, 웹 검색, 대화 라우팅
- Qdrant + LangChain 연동 — 벡터 스토어와 Retriever 설정 가이드
- RAG Document Loader — .doc/.docx 문서 변환과 파싱
- RAG 챗봇 대화 기록 유지 — 메모리 관리 전략과 구현
- RAG 청킹 전략 — 문서 분할 방식 비교와 최적화
LangGraph¶
Late Chunking¶
Let's Encrypt¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
LibreOffice¶
LightGBM¶
Linux¶
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- Tauri 앱 빌드: Linux deb/rpm 패키지 설정과 Remote WebView 아키텍처
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
Liveness¶
LoRA¶
Loki¶
MCP¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- MCP(Model Context Protocol)로 Agent 속도 3-5x 개선
- XGEN MS 365 MCP 통합 — Device Code Flow 인증부터 워크플로우 노드까지
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
- gwanjong-mcp — AI 소셜 에이전트 MCP 시스템 설계와 구현
- gwanjong-mcp 운영기 — 9개 플랫폼 확장, 캠페인 GTM, 스팸 방지 실전
ML Commons¶
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch ML 모델 배포 시 메모리 99% 점유 원인과 해결법
- OpenSearch에서 OpenAI API 임베딩 모델 등록 및 사용 가이드
ML노드¶
MS Graph API¶
- workstream-kb — 업무 지식 베이스 자동화: MS365 수집부터 Claude 리포트 생성까지
- 업무 자동 수집 → 일일 리포트: 500+개 메시지를 Claude로 요약하는 3계층 아키텍처
MS365¶
MVC¶
MeCab¶
Memmap¶
Microservices¶
Microsoft 365¶
MinIO¶
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- 엑셀 루프 자동화: Agent + 스토리지 연동으로 반복 작업 처리
MkDocs¶
MkDocs Material¶
Modal¶
Modal Design¶
Model Management¶
Model Serving¶
Morphik¶
Multi-Agent¶
Multi-Armed Bandit¶
Multi-Pod¶
Multi-Stage Build¶
MutationObserver¶
MySQL¶
NER¶
NLP¶
- GliNER과 DPO-LoRA를 활용한 모델 파인튜닝
- Tokenization 기법 정리: BPE, WordPiece, SentencePiece 비교
- 벡터 기반 시맨틱 검색 구현기
- 상품 리뷰 분석 API 개발기 - 형태소 분석기 성능 최적화
NVIDIA¶
Naver Search Advisor¶
Navigation¶
NestJS¶
- Cosine Similarity 직접 구현으로 검색 재순위화
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- 검색 결과 랭킹 스코어링 시스템 설계
- 검색 품질 개선: 성별/색상/카테고리 필터링 최적화
- 벡터 검색 유사도 임계값 동적 조정 (토큰 수 기반)
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 이미지 기반 상품 검색: NestJS 통합 구현기
Nested Field¶
Networking¶
Neural Search¶
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch Hybrid Search — 키워드와 시맨틱 검색 결합 가이드
- OpenSearch Vector Search 가이드 — Raw Vector와 Neural 검색 비교
Next.js¶
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- XGEN MS 365 MCP 통합 — Device Code Flow 인증부터 워크플로우 노드까지
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
Nexus¶
NoSQL¶
Node Editor¶
Node.js¶
- workstream-kb — 업무 지식 베이스 자동화: MS365 수집부터 Claude 리포트 생성까지
- 업무 자동 수집 → 일일 리포트: 500+개 메시지를 Claude로 요약하는 3계층 아키텍처
Nori¶
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- OpenSearch 사용자 사전 등록 방식에 따른 시스템 부하 테스트 결과
OAuth¶
OCR¶
ONNX¶
OOMKilled¶
Observability¶
OpenAI¶
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch에서 OpenAI API 임베딩 모델 등록 및 사용 가이드
OpenAI API¶
OpenAPI¶
OpenSearch¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Cosine Similarity 직접 구현으로 검색 재순위화
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- OpenSearch & Dashboards 3.1.0 릴리즈 노트
- OpenSearch 3.0 GPU 기반 원격 벡터 인덱스 구축 가이드
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch Approximate k-NN — 근사 벡터 검색 알고리즘과 설정 가이드
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch Exact k-NN Search — Scoring Script 기반 정확 벡터 검색
- OpenSearch Hybrid Search — 키워드와 시맨틱 검색 결합 가이드
- OpenSearch ML 모델 배포 시 메모리 99% 점유 원인과 해결법
- OpenSearch Nested Field로 다중 벡터 검색 구현하기
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- OpenSearch Painless 스크립트로 벡터 유사도 계산하기
- OpenSearch Radial Search — 유사도 임계값 기반 반경 벡터 검색
- OpenSearch Star-tree Index — 사전 집계로 Aggregation 성능 극대화
- OpenSearch UBI Schema — 사용자 행동 데이터 구조화와 검색 활용
- OpenSearch Vector Search 가이드 — Raw Vector와 Neural 검색 비교
- OpenSearch 기반 시맨틱 검색 로직 구현
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 벡터 검색 성능 최적화 가이드
- OpenSearch 벡터 인덱스 생성 가이드 — k-NN 인덱스 설정과 매핑
- OpenSearch 벡터 인덱싱 성능 최적화 가이드
- OpenSearch 사용자 사전 등록 방식에 따른 시스템 부하 테스트 결과
- OpenSearch 샤드 구성 — number_of_shards 설정 가이드
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- OpenSearch 성능 벤치마크와 TPS별 서버 구성 가이드
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- OpenSearch 클러스터 구성 전략 — node.roles와 샤드 분산 설계
- OpenSearch에서 OpenAI API 임베딩 모델 등록 및 사용 가이드
- Rate Limiting이 적용된 검색 API 설계
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- RxDB 란 무엇인가? (OpenSearch 연동)
- “OpenSearch Learning to Rank(LTR) — 머신러닝 기반 검색 랭킹 핵심 개념”
- 검색 결과 랭킹 스코어링 시스템 설계
- 검색 품질 개선: 성별/색상/카테고리 필터링 최적화
- 단일 서버에서 OpenSearch 최적 배포 — 노드 역할 분리와 자원 격리
- 목적에 맞는 OpenSearch Docker Compose 구성
- 벡터 검색 유사도 임계값 동적 조정 (토큰 수 기반)
- 벡터 기반 시맨틱 검색 구현기
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 아이스크림몰 AI Search 구축 사례
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 이미지 기반 상품 검색: NestJS 통합 구현기
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
Optimization¶
Optimizer¶
Orama¶
PDF¶
PEFT¶
PVC¶
Painless¶
Payload¶
- Qdrant Filtering — Payload 기반 필터링 조건과 구문 가이드
- Qdrant Payload — 벡터에 메타데이터 저장하고 필터링하기
- Qdrant Points — 벡터 데이터 CRUD와 Payload 필터링 가이드
Payload인덱스¶
Performance¶
Playwright¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- Claude Code 수준의 Agent 정확도 달성하기: 12대 개선사항
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- MCP(Model Context Protocol)로 Agent 속도 3-5x 개선
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 시나리오 배치 실행 엔진: selector fallback과 excel loop
PoC¶
Pod¶
Poetry¶
Points¶
PostgreSQL¶
Process Management¶
Prometheus¶
Prompt Engineering¶
Proxy¶
PyTorch¶
- Dropout이란? PyTorch 신경망에 Dropout 적용하기
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
Pydantic¶
Python¶
- AI 회사 자율운영 플랫폼에 synaptic-memory + graph-tool-call 통합기
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- Intel NPU 가속을 활용한 TinyLlama 챗봇 구현
- LangChain PydanticOutputParser — LLM 출력을 구조화된 데이터로 변환
- LangChain과 Qdrant 통합 — Dense, Sparse, Hybrid 검색 구현
- MkDocs 블로그에 온톨로지 기반 Knowledge Graph 구현하기
- OJT 리팩토링과 Kotaemon RAG 구현기
- Python 싱글턴 풀 패턴으로 배치 실행 메모리 누수 해결하기
- Qdrant + LangChain 연동 — 벡터 스토어와 Retriever 설정 가이드
- Qdrant Async API — Python 비동기 벡터 검색 클라이언트 활용
- RAG Document Loader — .doc/.docx 문서 변환과 파싱
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- Redis로 멀티 Pod 파일 업로드 진행률 동기화하기
- Reranker 모델 도입으로 검색 정확도 향상하기
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- Tauri Sidecar로 Python 워크플로우 엔진 자동 시작
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
- gwanjong-mcp — AI 소셜 에이전트 MCP 시스템 설계와 구현
- gwanjong-mcp 운영기 — 9개 플랫폼 확장, 캠페인 GTM, 스팸 방지 실전
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- “Qdrant + FastAPI 문서 기반 RAG 파이프라인 구현”
- 레포지토리 스케줄러의 분산 환경 전환
- 마이크로서비스 라우팅 통합: session-station에서 core로 병합
- 문서 처리 서비스에 DeepSeek 지시문 적용하기
- 벡터 기반 시맨틱 검색 구현기
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
- 상품 리뷰 분석 API 개발기 - 형태소 분석기 성능 최적화
- 순차처리 vs 일괄처리 vs 비동기 처리 비교
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
- 파이썬 multiprocessing - 병렬 처리로 성능 향상하기
- 파이썬 비동기 작업의 과부하 제어
- 파이썬 비동기 프로그래밍 소개
- 파이썬 비동기 프로그래밍: 콜백과 퓨처
- 파이썬 클래스의 `__enter__`와 `__exit__` 메서드
- 파이썬의 MVC 패턴 구현
- 파일 기반 설정에서 Redis + API 기반 분산 설정으로 전환하기
- 한글 PDF 텍스트 + OCR 하이브리드 파서 구축기
Qdrant¶
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- FastEmbed — ONNX 기반 경량 고성능 임베딩 라이브러리
- Hugging Face 데이터셋을 Qdrant에 로드하고 검색하기
- LangChain과 Qdrant 통합 — Dense, Sparse, Hybrid 검색 구현
- Qdrant + LangChain 연동 — 벡터 스토어와 Retriever 설정 가이드
- Qdrant Async API — Python 비동기 벡터 검색 클라이언트 활용
- Qdrant Capacity Planning — RAM, 디스크, CPU 산정 가이드
- Qdrant Collection — 컬렉션 생성, 설정, 고급 기능 가이드
- Qdrant Filtering — Payload 기반 필터링 조건과 구문 가이드
- Qdrant GPU 인덱싱 가속 — Docker 이미지와 설정 가이드
- Qdrant Hybrid Queries — 다중 벡터 검색과 Fusion 전략
- Qdrant Indexing — 벡터 인덱스와 페이로드 인덱스 구성 가이드
- Qdrant Multivector Reranking — ColBERT 멀티벡터 저비용 운용 전략
- Qdrant Optimizer — 세그먼트 병합과 인덱스 자동 최적화
- Qdrant Payload — 벡터에 메타데이터 저장하고 필터링하기
- Qdrant Points — 벡터 데이터 CRUD와 Payload 필터링 가이드
- Qdrant Similarity Search — 벡터 유사도 검색 API 완벽 가이드
- Qdrant Storage — 벡터 저장 구조와 메모리/디스크 전략
- Qdrant Vectors — Dense, Sparse, Multivector 벡터 유형 가이드
- Qdrant 개발 및 테스트 환경 설정 — Docker, 빌드, 포트 구성
- Qdrant 데이터 탐색 — 추천, Discovery, 그룹 검색 API
- Qdrant 분산 배포 — 클러스터 노드 수 결정과 복제 전략
- Qdrant 시맨틱 검색 튜토리얼 — 5분 만에 검색 엔진 만들기
- Qdrant 하이브리드 검색 + ColBERT 재랭킹 구현 가이드
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Qdrant로 대규모 PDF 검색 확장하기 — ColPali 멀티벡터 최적화
- Qdrant로 코드베이스 시맨틱 검색 구현하기
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- Static Embedding 다시 주목해야 할까
- “Qdrant + FastAPI 문서 기반 RAG 파이프라인 구현”
- “Qdrant를 위한 Semantic Chunking — 임베딩 기반 문서 분할”
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
Query API¶
Query-Key-Value¶
RAG¶
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- LangChain PydanticOutputParser — LLM 출력을 구조화된 데이터로 변환
- LangChain SemanticChunker — 의미 기반 텍스트 분할 가이드
- LangGraph 활용 시나리오 — RAG 고도화, 웹 검색, 대화 라우팅
- Late Chunking과 Sparse Embedding: 차세대 검색 파이프라인
- Morphik — 페이지 이미지 기반 문서 검색과 RAG 파이프라인
- OJT 리팩토링과 Kotaemon RAG 구현기
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Qdrant로 대규모 PDF 검색 확장하기 — ColPali 멀티벡터 최적화
- RAG Document Loader — .doc/.docx 문서 변환과 파싱
- RAG 고도화 개요 — Retrieval, Generation, 평가 전략 로드맵
- RAG 서비스의 토큰 관리와 컨텍스트 윈도우 최적화
- RAG 챗봇 대화 기록 유지 — 메모리 관리 전략과 구현
- RAG 청킹 전략 — 문서 분할 방식 비교와 최적화
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- “Qdrant + FastAPI 문서 기반 RAG 파이프라인 구현”
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
- 한글 PDF 텍스트 + OCR 하이브리드 파서 구축기
RBAC¶
ROCm¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- XGEN GPU 벤더 추상화 — Vulkan 의존 제거와 멀티 벤더 Dockerfile 전략
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
Radial Search¶
RankLib¶
Rate Limiting¶
ReAct¶
React¶
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- DocumentsGraph: 문서 관계 시각화 컴포넌트
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- React Hot Toast로 알림 시스템 개선하기
- React에서 Undo/Redo 구현: 워크플로우 에디터 히스토리 관리
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
- 데이터셋 컬럼 관리: 삭제/치환/연산 모달 컴포넌트 설계
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 워크플로우 공유 권한 시스템: 읽기 전용 vs 편집 모드
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
Readiness¶
Real-time¶
Redis¶
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Redis로 멀티 Pod 파일 업로드 진행률 동기화하기
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust 검색 엔진에 Redis 캐싱 적용기
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- XGEN 인증 프로필 시스템 — AI Agent가 로그인 사이트를 자동으로 다루는 방법
- 레포지토리 스케줄러의 분산 환경 전환
- 파일 기반 설정에서 Redis + API 기반 분산 설정으로 전환하기
Remote WebView¶
Reranker¶
- Qdrant Multivector Reranking — ColBERT 멀티벡터 저비용 운용 전략
- Qdrant 하이브리드 검색 + ColBERT 재랭킹 구현 가이드
- Reranker 모델 도입으로 검색 정확도 향상하기
- 검색 결과 랭킹 스코어링 시스템 설계
Resilience¶
Retriever¶
Reusable Workflow¶
Reverse Proxy¶
Rolling CV¶
Routing¶
Rust¶
- 2GB 파일 업로드를 위한 프록시 body size 설정
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Bore 프로토콜로 터널 통신 구현하기
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Gateway 서비스 매핑: LLM/Crawler/ML 통합 구성
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- PostgreSQL과 MySQL 동시 지원하는 Rust DB 추상화 레이어 구현
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Rust로 API Gateway 만들기: JWT 검증 + CORS + 프록시
- Rust로 커머스 검색 엔진을 처음부터 만들기
- Tauri - 크로스 플랫폼 앱 개발 프레임워크
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- YAML + 환경변수 이중 설정 파싱 시스템
- camelCase 직렬화로 Rust와 Frontend 데이터 통신
- 검색 결과 랭킹 스코어링 시스템 설계
- 데스크톱 앱에서 터널 URL 표시 UX 개선
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
RxDB¶
S3¶
SCP¶
SEO¶
SFTP¶
SGLang¶
SPA¶
SSE¶
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
SSH¶
- GitLab CI/CD에서 EC2 배포 자동화: SCP + SSH 파이프라인 구축
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- 롯데홈쇼핑 폐쇄망 서버 SSH 터널링과 접속 구성
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
SSL¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
SVG¶
Scenario Engine¶
Scenario Recorder¶
Scenario Validation¶
Scheduling¶
Scoring Script¶
Search¶
Search Pipeline¶
Self-Attention¶
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Transformer의 Query, Key, Value 행렬 생성 과정
- 셀프 어텐션(Self-Attention) 동작 과정 단계별 정리
Semaphore¶
Sentence Transformer¶
Serialization¶
Service¶
Service Consolidation¶
Service Discovery¶
Session Management¶
Sidecar¶
Sigma.js¶
Snapshot¶
Sparse Embedding¶
Sparse Vector¶
- Qdrant Vectors — Dense, Sparse, Multivector 벡터 유형 가이드
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
Star-tree Index¶
Static Embedding¶
StatsForecast¶
Status Bar¶
Streaming¶
- 2GB 파일 업로드를 위한 프록시 body size 설정
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
Summary¶
TCP¶
TLS¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
TPS¶
Tab Management¶
Tauri¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- API 추상화 레이어: 로컬 LLM과 원격 서비스 통합
- Agent 실시간 상태 바: 메시지 큐와 즉각 피드백 UX
- Bore 프로토콜로 터널 통신 구현하기
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- HuggingFace 모델 검색 및 다운로드 자동화
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- Remote WebView 아키텍처: 로컬 앱과 원격 서버 연동
- TAURI_DEV_URL 환경변수로 개발/운영 환경 분리
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri - 크로스 플랫폼 앱 개발 프레임워크
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- Tauri Sidecar로 Python 워크플로우 엔진 자동 시작
- Tauri 앱 빌드: Linux deb/rpm 패키지 설정과 Remote WebView 아키텍처
- camelCase 직렬화로 Rust와 Frontend 데이터 통신
- 데스크톱 앱에서 터널 URL 표시 UX 개선
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 앱 모드 전환: Standalone vs Connected 아키텍처
- 엑셀 루프 자동화: Agent + 스토리지 연동으로 반복 작업 처리
Teams¶
Technitium¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
Tempo¶
Thompson Sampling¶
Time Series¶
TinyLlama¶
Toast¶
Token¶
Tokenization¶
Tokio¶
Tool Retrieval¶
- AI 회사 자율운영 플랫폼에 synaptic-memory + graph-tool-call 통합기
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
Transformer¶
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Transformer의 Query, Key, Value 행렬 생성 과정
- 셀프 어텐션(Self-Attention) 동작 과정 단계별 정리
Tree UI¶
Tunnel¶
TypeScript¶
- Cosine Similarity 직접 구현으로 검색 재순위화
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- React에서 Undo/Redo 구현: 워크플로우 에디터 히스토리 관리
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- camelCase 직렬화로 Rust와 Frontend 데이터 통신
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 워크플로우 공유 권한 시스템: 읽기 전용 vs 편집 모드
- 이미지 기반 상품 검색: NestJS 통합 구현기
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
UBI¶
UI개발¶
USB¶
UX¶
- Agent 실시간 상태 바: 메시지 큐와 즉각 피드백 UX
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- React Hot Toast로 알림 시스템 개선하기
- 데스크톱 앱에서 터널 URL 표시 UX 개선
UX Design¶
UX Optimization¶
Ubuntu¶
Undo Redo¶
Upload Progress¶
VSCode¶
Validation¶
Vast.ai¶
Virtual Try-On¶
Visualization¶
Vite¶
Vulkan¶
WebGL¶
WebSocket¶
WebView¶
Workflow¶
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
Workflow Editor¶
XGEN¶
- API 추상화 레이어: 로컬 LLM과 원격 서비스 통합
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- DocumentsGraph: 문서 관계 시각화 컴포넌트
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- K3s 리소스 튜닝 실전 가이드 — OOMKilled와 CPU Throttling 해결기
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- React Hot Toast로 알림 시스템 개선하기
- Remote WebView 아키텍처: 로컬 앱과 원격 서버 연동
- TAURI_DEV_URL 환경변수로 개발/운영 환경 분리
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- Tauri Sidecar로 Python 워크플로우 엔진 자동 시작
- Tauri 앱 빌드: Linux deb/rpm 패키지 설정과 Remote WebView 아키텍처
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- XGEN GPU 벤더 추상화 — Vulkan 의존 제거와 멀티 벤더 Dockerfile 전략
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
- XGEN MS 365 MCP 통합 — Device Code Flow 인증부터 워크플로우 노드까지
- XGEN 멀티사이트 배포 자동화 — 하나의 코드베이스로 N개 고객사 운영하기
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- XGEN 인증 프로필 시스템 — AI Agent가 로그인 사이트를 자동으로 다루는 방법
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- 데이터셋 컬럼 관리: 삭제/치환/연산 모달 컴포넌트 설계
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 앱 모드 전환: Standalone vs Connected 아키텍처
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
YAML¶
aiohttp¶
asyncio¶
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- 순차처리 vs 일괄처리 vs 비동기 처리 비교
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 파이썬 비동기 작업의 과부하 제어
- 파이썬 비동기 프로그래밍 소개
batch size¶
cert-manager¶
certbot¶
deb¶
devhub-social¶
diskutil¶
docker-compose¶
fail2ban¶
gRPC¶
graph-tool-call¶
- AI 회사 자율운영 플랫폼에 synaptic-memory + graph-tool-call 통합기
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
gwanjong¶
k-NN¶
- OpenSearch Approximate k-NN — 근사 벡터 검색 알고리즘과 설정 가이드
- OpenSearch Exact k-NN Search — Scoring Script 기반 정확 벡터 검색
- OpenSearch Nested Field로 다중 벡터 검색 구현하기
- OpenSearch Radial Search — 유사도 임계값 기반 반경 벡터 검색
- OpenSearch Vector Search 가이드 — Raw Vector와 Neural 검색 비교
- OpenSearch 벡터 인덱스 생성 가이드 — k-NN 인덱스 설정과 매핑
- Qdrant Similarity Search — 벡터 유사도 검색 API 완벽 가이드
kNN¶
llama.cpp¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- OpenAI 호환 API 서버 직접 만들기
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
llms.txt¶
macOS¶
mcp-pipeline¶
mistral.rs¶
multi-stage build¶
multiprocessing¶
nginx¶
node.roles¶
nori¶
once_cell¶
pyproject.toml¶
rpm¶
serde¶
sqlx¶
synaptic-memory¶
uvicorn¶
vLLM¶
- OpenAI 호환 API 서버 직접 만들기
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM vs LMDeploy vs SGLang: LLM 서빙 프레임워크 3종 벤치마크 비교
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 문서 처리 서비스에 DeepSeek 지시문 적용하기
values¶
wRRF¶
workstream-kb¶
xgen¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- HuggingFace 모델 검색 및 다운로드 자동화
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- Late Chunking과 Sparse Embedding: 차세대 검색 파이프라인
- OpenAI 호환 API 서버 직접 만들기
- Python 싱글턴 풀 패턴으로 배치 실행 메모리 누수 해결하기
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- RAG 서비스의 토큰 관리와 컨텍스트 윈도우 최적화
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- 로컬 LLM 모델 관리 시스템: 로드/언로드/활성화 라이프사이클
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
감사추적¶
강화학습¶
개발 생산성¶
개발도구¶
개발환경¶
객체 추출¶
거리측정¶
검색¶
검색 API¶
검색 엔진¶
검색 품질¶
검색API¶
검색엔진¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Cosine Similarity 직접 구현으로 검색 재순위화
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- FastEmbed — ONNX 기반 경량 고성능 임베딩 라이브러리
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- Hugging Face 데이터셋을 Qdrant에 로드하고 검색하기
- LangChain PydanticOutputParser — LLM 출력을 구조화된 데이터로 변환
- LangChain SemanticChunker — 의미 기반 텍스트 분할 가이드
- LangChain과 Qdrant 통합 — Dense, Sparse, Hybrid 검색 구현
- LangGraph 활용 시나리오 — RAG 고도화, 웹 검색, 대화 라우팅
- Morphik — 페이지 이미지 기반 문서 검색과 RAG 파이프라인
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- OpenSearch & Dashboards 3.1.0 릴리즈 노트
- OpenSearch 3.0 GPU 기반 원격 벡터 인덱스 구축 가이드
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch Approximate k-NN — 근사 벡터 검색 알고리즘과 설정 가이드
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch Exact k-NN Search — Scoring Script 기반 정확 벡터 검색
- OpenSearch Hybrid Search — 키워드와 시맨틱 검색 결합 가이드
- OpenSearch ML 모델 배포 시 메모리 99% 점유 원인과 해결법
- OpenSearch Nested Field로 다중 벡터 검색 구현하기
- OpenSearch Painless 스크립트로 벡터 유사도 계산하기
- OpenSearch Radial Search — 유사도 임계값 기반 반경 벡터 검색
- OpenSearch Star-tree Index — 사전 집계로 Aggregation 성능 극대화
- OpenSearch UBI Schema — 사용자 행동 데이터 구조화와 검색 활용
- OpenSearch Vector Search 가이드 — Raw Vector와 Neural 검색 비교
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 벡터 검색 성능 최적화 가이드
- OpenSearch 벡터 인덱스 생성 가이드 — k-NN 인덱스 설정과 매핑
- OpenSearch 벡터 인덱싱 성능 최적화 가이드
- OpenSearch 사용자 사전 등록 방식에 따른 시스템 부하 테스트 결과
- OpenSearch 샤드 구성 — number_of_shards 설정 가이드
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- OpenSearch 성능 벤치마크와 TPS별 서버 구성 가이드
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- OpenSearch 클러스터 구성 전략 — node.roles와 샤드 분산 설계
- OpenSearch에서 OpenAI API 임베딩 모델 등록 및 사용 가이드
- PostgreSQL과 MySQL 동시 지원하는 Rust DB 추상화 레이어 구현
- Qdrant + LangChain 연동 — 벡터 스토어와 Retriever 설정 가이드
- Qdrant Async API — Python 비동기 벡터 검색 클라이언트 활용
- Qdrant Capacity Planning — RAM, 디스크, CPU 산정 가이드
- Qdrant Collection — 컬렉션 생성, 설정, 고급 기능 가이드
- Qdrant Filtering — Payload 기반 필터링 조건과 구문 가이드
- Qdrant GPU 인덱싱 가속 — Docker 이미지와 설정 가이드
- Qdrant Hybrid Queries — 다중 벡터 검색과 Fusion 전략
- Qdrant Indexing — 벡터 인덱스와 페이로드 인덱스 구성 가이드
- Qdrant Multivector Reranking — ColBERT 멀티벡터 저비용 운용 전략
- Qdrant Optimizer — 세그먼트 병합과 인덱스 자동 최적화
- Qdrant Payload — 벡터에 메타데이터 저장하고 필터링하기
- Qdrant Points — 벡터 데이터 CRUD와 Payload 필터링 가이드
- Qdrant Similarity Search — 벡터 유사도 검색 API 완벽 가이드
- Qdrant Storage — 벡터 저장 구조와 메모리/디스크 전략
- Qdrant Vectors — Dense, Sparse, Multivector 벡터 유형 가이드
- Qdrant 개발 및 테스트 환경 설정 — Docker, 빌드, 포트 구성
- Qdrant 데이터 탐색 — 추천, Discovery, 그룹 검색 API
- Qdrant 분산 배포 — 클러스터 노드 수 결정과 복제 전략
- Qdrant 시맨틱 검색 튜토리얼 — 5분 만에 검색 엔진 만들기
- Qdrant 하이브리드 검색 + ColBERT 재랭킹 구현 가이드
- Qdrant로 대규모 PDF 검색 확장하기 — ColPali 멀티벡터 최적화
- Qdrant로 코드베이스 시맨틱 검색 구현하기
- RAG Document Loader — .doc/.docx 문서 변환과 파싱
- RAG 고도화 개요 — Retrieval, Generation, 평가 전략 로드맵
- RAG 챗봇 대화 기록 유지 — 메모리 관리 전략과 구현
- RAG 청킹 전략 — 문서 분할 방식 비교와 최적화
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Rust로 커머스 검색 엔진을 처음부터 만들기
- Static Embedding 다시 주목해야 할까
- “OpenSearch Learning to Rank(LTR) — 머신러닝 기반 검색 랭킹 핵심 개념”
- “Qdrant + FastAPI 문서 기반 RAG 파이프라인 구현”
- “Qdrant를 위한 Semantic Chunking — 임베딩 기반 문서 분할”
- 검색 결과 랭킹 스코어링 시스템 설계
- 단일 서버에서 OpenSearch 최적 배포 — 노드 역할 분리와 자원 격리
- 목적에 맞는 OpenSearch Docker Compose 구성
- 벡터 기반 시맨틱 검색 구현기
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 아이스크림몰 AI Search 구축 사례
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
- 한글 PDF 텍스트 + OCR 하이브리드 파서 구축기
검색품질¶
과부하방어¶
과적합¶
권한¶
권한관리¶
그래프 검색¶
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
- graph-tool-call: LLM Agent를 위한 그래프 기반 도구 검색 엔진
네임서버¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
대시보드¶
대화메모리¶
데스크톱앱¶
데이터 분석¶
데이터 파이프라인¶
데이터셋¶
데이터파이프라인¶
도메인¶
도커¶
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
동시 빌드¶
동시성¶
동시성제어¶
동의어¶
동의어사전¶
동적디스패치¶
동적배칭¶
동적쿼리¶
디자인 패턴¶
딥러닝¶
- Dropout이란? PyTorch 신경망에 Dropout 적용하기
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- KoBERT: 한국어 BERT 모델 소개와 파인튜닝 예제
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Thompson Sampling: 탐색과 활용의 균형을 잡는 알고리즘
- Tokenization 기법 정리: BPE, WordPiece, SentencePiece 비교
- Transformer의 Query, Key, Value 행렬 생성 과정
- 셀프 어텐션(Self-Attention) 동작 과정 단계별 정리
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
라우터¶
라이프사이클¶
랭킹¶
- Reranker 모델 도입으로 검색 정확도 향상하기
- “OpenSearch Learning to Rank(LTR) — 머신러닝 기반 검색 랭킹 핵심 개념”
- 검색 결과 랭킹 스코어링 시스템 설계
레이어 오프로딩¶
레이어 캐시¶
로깅¶
롯데홈쇼핑¶
리랭킹¶
리버스 프록시¶
리뷰분석¶
리소스 관리¶
리소스 튜닝¶
리팩토링¶
- OJT 리팩토링과 Kotaemon RAG 구현기
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
릴리즈노트¶
마이그레이션¶
마이크로서비스¶
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Search API와 LLMOps Docker 구성기
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN 인증 프로필 시스템 — AI Agent가 로그인 사이트를 자동으로 다루는 방법
매핑¶
머신러닝¶
멀티 Pod¶
멀티GPU¶
멀티벡터¶
멀티턴¶
멀티테넌시¶
멀티테넌트¶
멀티파드¶
메모리 최적화¶
메모리최적화¶
메타데이터¶
면접¶
모니터링¶
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
모델 관리¶
모델 다운로드¶
모델 서빙¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
모델관리¶
모델서빙¶
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
모델학습¶
무중단배포¶
문서 처리¶
문서검색¶
문서전처리¶
문서파싱¶
미들웨어¶
방화벽¶
배경제거¶
배치 처리¶
배치처리¶
배포¶
백엔드¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- PostgreSQL과 MySQL 동시 지원하는 Rust DB 추상화 레이어 구현
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust로 커머스 검색 엔진을 처음부터 만들기
백엔드 스위칭¶
백엔드스위칭¶
벡터 검색¶
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- OpenSearch 기반 시맨틱 검색 로직 구현
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
벡터 임베딩¶
벡터DB¶
벡터검색¶
- Cosine Similarity 직접 구현으로 검색 재순위화
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- FastEmbed — ONNX 기반 경량 고성능 임베딩 라이브러리
- Hugging Face 데이터셋을 Qdrant에 로드하고 검색하기
- LangChain과 Qdrant 통합 — Dense, Sparse, Hybrid 검색 구현
- OpenSearch 3.0 GPU 기반 원격 벡터 인덱스 구축 가이드
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- OpenSearch Approximate k-NN — 근사 벡터 검색 알고리즘과 설정 가이드
- OpenSearch Exact k-NN Search — Scoring Script 기반 정확 벡터 검색
- OpenSearch Nested Field로 다중 벡터 검색 구현하기
- OpenSearch Painless 스크립트로 벡터 유사도 계산하기
- OpenSearch Radial Search — 유사도 임계값 기반 반경 벡터 검색
- OpenSearch Vector Search 가이드 — Raw Vector와 Neural 검색 비교
- OpenSearch 벡터 검색 성능 최적화 가이드
- OpenSearch 벡터 인덱스 생성 가이드 — k-NN 인덱스 설정과 매핑
- OpenSearch 벡터 인덱싱 성능 최적화 가이드
- Qdrant + LangChain 연동 — 벡터 스토어와 Retriever 설정 가이드
- Qdrant Async API — Python 비동기 벡터 검색 클라이언트 활용
- Qdrant Capacity Planning — RAM, 디스크, CPU 산정 가이드
- Qdrant Collection — 컬렉션 생성, 설정, 고급 기능 가이드
- Qdrant Filtering — Payload 기반 필터링 조건과 구문 가이드
- Qdrant GPU 인덱싱 가속 — Docker 이미지와 설정 가이드
- Qdrant Hybrid Queries — 다중 벡터 검색과 Fusion 전략
- Qdrant Indexing — 벡터 인덱스와 페이로드 인덱스 구성 가이드
- Qdrant Multivector Reranking — ColBERT 멀티벡터 저비용 운용 전략
- Qdrant Optimizer — 세그먼트 병합과 인덱스 자동 최적화
- Qdrant Payload — 벡터에 메타데이터 저장하고 필터링하기
- Qdrant Points — 벡터 데이터 CRUD와 Payload 필터링 가이드
- Qdrant Similarity Search — 벡터 유사도 검색 API 완벽 가이드
- Qdrant Storage — 벡터 저장 구조와 메모리/디스크 전략
- Qdrant Vectors — Dense, Sparse, Multivector 벡터 유형 가이드
- Qdrant 개발 및 테스트 환경 설정 — Docker, 빌드, 포트 구성
- Qdrant 데이터 탐색 — 추천, Discovery, 그룹 검색 API
- Qdrant 분산 배포 — 클러스터 노드 수 결정과 복제 전략
- Qdrant 시맨틱 검색 튜토리얼 — 5분 만에 검색 엔진 만들기
- Qdrant 하이브리드 검색 + ColBERT 재랭킹 구현 가이드
- Qdrant로 대규모 PDF 검색 확장하기 — ColPali 멀티벡터 최적화
- Qdrant로 코드베이스 시맨틱 검색 구현하기
- Static Embedding 다시 주목해야 할까
- “Qdrant + FastAPI 문서 기반 RAG 파이프라인 구현”
- “Qdrant를 위한 Semantic Chunking — 임베딩 기반 문서 분할”
- 검색 품질 개선: 성별/색상/카테고리 필터링 최적화
- 벡터 검색 유사도 임계값 동적 조정 (토큰 수 기반)
- 벡터 기반 시맨틱 검색 구현기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 이미지 기반 상품 검색: NestJS 통합 구현기
벤치마크¶
- OpenSearch 사용자 사전 등록 방식에 따른 시스템 부하 테스트 결과
- OpenSearch 성능 벤치마크와 TPS별 서버 구성 가이드
- graph-tool-call v0.15: 1068 Tool 스트레스 테스트와 워크플로우 체인 엔진
병렬처리¶
보안¶
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
복제¶
분산 락¶
분산배포¶
분산시스템¶
분석기¶
비동기¶
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Qdrant Async API — Python 비동기 벡터 검색 클라이언트 활용
- Rust 검색 엔진에 Redis 캐싱 적용기
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- 순차처리 vs 일괄처리 vs 비동기 처리 비교
- 파이썬 비동기 작업의 과부하 제어
- 파이썬 비동기 프로그래밍 소개
- 파이썬 비동기 프로그래밍: 콜백과 퓨처
비전LLM¶
빌드 최적화¶
사용자사전¶
사용자행동¶
상품검색¶
샤드¶
샤딩¶
서버자원¶
서비스메시¶
성능 비교¶
성능 최적화¶
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- 아이스크림몰 AI Search 구축 사례
- 파이썬 multiprocessing - 병렬 처리로 성능 향상하기
- 파이썬 비동기 작업의 과부하 제어
성능 튜닝¶
성능비교¶
성능최적화¶
- OpenSearch Star-tree Index — 사전 집계로 Aggregation 성능 극대화
- OpenSearch 벡터 검색 성능 최적화 가이드
- OpenSearch 벡터 인덱싱 성능 최적화 가이드
- OpenSearch 샤드 구성 — number_of_shards 설정 가이드
- OpenSearch 성능 벤치마크와 TPS별 서버 구성 가이드
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Qdrant Optimizer — 세그먼트 병합과 인덱스 자동 최적화
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
성능테스트¶
성능튜닝¶
성별필터¶
세그먼트¶
- OpenSearch 벡터 검색 성능 최적화 가이드
- Qdrant Optimizer — 세그먼트 병합과 인덱스 자동 최적화
- Qdrant Storage — 벡터 저장 구조와 메모리/디스크 전략
세마포어¶
세션¶
소셜 미디어¶
스케일링¶
스코어링¶
스키마¶
스토리지¶
스트리밍¶
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
스팸 방지¶
시계열 예측¶
시맨틱 검색¶
시맨틱검색¶
- LangChain SemanticChunker — 의미 기반 텍스트 분할 가이드
- Qdrant 시맨틱 검색 튜토리얼 — 5분 만에 검색 엔진 만들기
- Qdrant로 코드베이스 시맨틱 검색 구현하기
- RAG 청킹 전략 — 문서 분할 방식 비교와 최적화
- “Qdrant를 위한 Semantic Chunking — 임베딩 기반 문서 분할”
- 벡터 기반 시맨틱 검색 구현기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
시크릿 관리¶
실시간¶
실시간모니터링¶
싱글턴¶
싱글톤¶
아키텍처¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Rust로 커머스 검색 엔진을 처음부터 만들기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- xgen-model v2 아키텍처 — MinIO 모델 허브, vLLM 0.17.0, Inference Proxy
- 파이썬의 MVC 패턴 구현
앙상블¶
양자화¶
에러핸들링¶
에이전트¶
용량계획¶
운영 자동화¶
워크플로우¶
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- Python 싱글턴 풀 패턴으로 배치 실행 메모리 누수 해결하기
웹 스크래핑¶
유사도¶
유사도검색¶
이미지 검색¶
이미지 최적화¶
이미지검색¶
이벤트 루프¶
이커머스¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- OpenSearch 기반 시맨틱 검색 로직 구현
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- 가상 피팅(Virtual Try-On) 기술 개요
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 시맨틱 검색이란 - 이미지 의미 기반 검색 기술
- 아이스크림몰 AI Search 구축 사례
- 이미지 검색 기술과 객체 추출 기반 검색
인덱스설계¶
- OpenSearch Nested Field로 다중 벡터 검색 구현하기
- OpenSearch 벡터 인덱스 생성 가이드 — k-NN 인덱스 설정과 매핑
- OpenSearch 샤드 구성 — number_of_shards 설정 가이드
인덱싱¶
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 벡터 인덱싱 성능 최적화 가이드
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Qdrant Indexing — 벡터 인덱스와 페이로드 인덱스 구성 가이드
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
인제스트파이프라인¶
인증¶
인증서¶
인프라¶
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- OpenSearch 성능 벤치마크와 TPS별 서버 구성 가이드
- OpenSearch 클러스터 구성 전략 — node.roles와 샤드 분산 설계
- Qdrant Capacity Planning — RAM, 디스크, CPU 산정 가이드
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Search API와 LLMOps Docker 구성기
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- 단일 서버에서 OpenSearch 최적 배포 — 노드 역할 분리와 자원 격리
- 면접 후보자 A — 서버 백엔드 / DevOps
- 목적에 맞는 OpenSearch Docker Compose 구성
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
임계값¶
임베딩¶
- FastEmbed — ONNX 기반 경량 고성능 임베딩 라이브러리
- Hugging Face 데이터셋을 Qdrant에 로드하고 검색하기
- LangChain SemanticChunker — 의미 기반 텍스트 분할 가이드
- Late Chunking과 Sparse Embedding: 차세대 검색 파이프라인
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch ML 모델 배포 시 메모리 99% 점유 원인과 해결법
- OpenSearch Vector Search 가이드 — Raw Vector와 Neural 검색 비교
- OpenSearch에서 OpenAI API 임베딩 모델 등록 및 사용 가이드
- Qdrant로 코드베이스 시맨틱 검색 구현하기
- Static Embedding 다시 주목해야 할까
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- “Qdrant를 위한 Semantic Chunking — 임베딩 기반 문서 분할”
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
- 벡터 기반 시맨틱 검색 구현기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
자동배포¶
자동완성¶
자동화¶
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- GitLab CI/CD에서 EC2 배포 자동화: SCP + SSH 파이프라인 구축
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- workstream-kb — 업무 지식 베이스 자동화: MS365 수집부터 Claude 리포트 생성까지
- 업무 자동 수집 → 일일 리포트: 500+개 메시지를 Claude로 요약하는 3계층 아키텍처
자연어처리¶
자원격리¶
자체호스팅¶
접근제어¶
직렬화¶
집계¶
집계검색¶
챗봇¶
- LLM 멀티턴 vs 싱글턴 대화: 차이점과 구현 전략
- LangGraph 활용 시나리오 — RAG 고도화, 웹 검색, 대화 라우팅
- RAG 챗봇 대화 기록 유지 — 메모리 관리 전략과 구현
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
청킹¶
- LangChain SemanticChunker — 의미 기반 텍스트 분할 가이드
- RAG 고도화 개요 — Retrieval, Generation, 평가 전략 로드맵
- RAG 청킹 전략 — 문서 분할 방식 비교와 최적화
- “Qdrant를 위한 Semantic Chunking — 임베딩 기반 문서 분할”
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
최적화¶
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
추론 최적화¶
추천검색¶
추천시스템¶
카테고리분류¶
캐시¶
캐싱¶
커넥션풀¶
커머스¶
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- Rust로 커머스 검색 엔진을 처음부터 만들기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
커서¶
커스텀 도메인¶
컨테이너¶
컨텍스트 윈도우¶
컬렉션¶
코드검색¶
코딩 어시스턴트¶
코사인유사도¶
쿠버네티스¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Kubernetes Downward API로 멀티 Pod 세션 라우팅 구현
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
쿼리¶
쿼리생성¶
클라우드¶
클러스터¶
- OpenSearch 샤드 구성 — number_of_shards 설정 가이드
- OpenSearch 클러스터 구성 전략 — node.roles와 샤드 분산 설계
- Qdrant 분산 배포 — 클러스터 노드 수 결정과 복제 전략
- 목적에 맞는 OpenSearch Docker Compose 구성
키워드확장¶
타임아웃¶
터널링¶
텍스트분석¶
템플릿¶
토큰 관리¶
튜토리얼¶
트랜스포머¶
트러블슈팅¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- XGEN GPU 모델 서빙 인프라 실전기 — 폐쇄망 배포부터 멀티 GPU 오버라이드까지
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- macOS에서 USB 포맷 실패 시 해결 방법
트레잇¶
파이프라인¶
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- gwanjong-mcp — AI 소셜 에이전트 MCP 시스템 설계와 구현
파인튜닝¶
페이지네이션¶
폐쇄망¶
포맷¶
포트 포워딩¶
프레임워크¶
프로덕션¶
프록시¶
프론트엔드¶
프롬프트¶
필터링¶
하이브리드 검색¶
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
하이브리드검색¶
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- LangChain과 Qdrant 통합 — Dense, Sparse, Hybrid 검색 구현
- OpenSearch Hybrid Search — 키워드와 시맨틱 검색 결합 가이드
- Qdrant Hybrid Queries — 다중 벡터 검색과 Fusion 전략
- Qdrant 하이브리드 검색 + ColBERT 재랭킹 구현 가이드
- 벡터 기반 시맨틱 검색 구현기
한국어¶
한국어 NLP¶
한국어NLP¶
한국어검색¶
헬스체크¶
현금흐름¶
형태소분석¶
홈서버¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지