Tags¶
AI¶
- CLAUDE.md로 AI 코딩 어시스턴트 가이드라인 작성하기
- Dropout이란? PyTorch 신경망에 Dropout 적용하기
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- KoBERT: 한국어 BERT 모델 소개와 파인튜닝 예제
- LLM 멀티턴 vs 싱글턴 대화: 차이점과 구현 전략
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- Thompson Sampling: 탐색과 활용의 균형을 잡는 알고리즘
- Tokenization 기법 정리: BPE, WordPiece, SentencePiece 비교
- Transformer의 Query, Key, Value 행렬 생성 과정
- Vast.ai GPU 인스턴스 관리 API 사용법 정리
- vLLM vs LMDeploy vs SGLang: LLM 서빙 프레임워크 3종 벤치마크 비교
- 가상 피팅이란
- 셀프 어텐션(Self-Attention) 동작 과정 단계별 정리
- 이미지 검색이란?
AI Agent¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Agent 실시간 상태 바: 메시지 큐와 즉각 피드백 UX
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- Claude Code 수준의 Agent 정확도 달성하기: 12대 개선사항
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- MCP(Model Context Protocol)로 Agent 속도 3-5x 개선
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 시나리오 배치 실행 엔진: selector fallback과 excel loop
- 엑셀 루프 자동화: Agent + 스토리지 연동으로 반복 작업 처리
AI개발¶
AI검색¶
AMD¶
AMD GPU¶
API¶
API Design¶
API Gateway¶
- Gateway 서비스 매핑: LLM/Crawler/ML 통합 구성
- Rust로 API Gateway 만들기: JWT 검증 + CORS + 프록시
- 마이크로서비스 라우팅 통합: session-station에서 core로 병합
API 서버¶
API설계¶
APScheduler¶
AWS¶
AbortSignal¶
Abstraction Layer¶
Access Control¶
Accuracy¶
Agent¶
Aggregation¶
App Mode¶
App of Apps¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
ApplicationSet¶
Architecture¶
ArgoCD¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
Authentication¶
Authorization¶
Axum¶
- 2GB 파일 업로드를 위한 프록시 body size 설정
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust로 API Gateway 만들기: JWT 검증 + CORS + 프록시
- Rust로 커머스 검색 엔진을 처음부터 만들기
BERT¶
BM25¶
- Orama BM25로 MkDocs 블로그 검색을 완전히 교체한 과정
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
BPE¶
Batch Processing¶
Bore¶
Browser Automation¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 시나리오 배치 실행 엔진: selector fallback과 excel loop
Build Configuration¶
BuildKit¶
CI/CD¶
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Search API와 LLMOps Docker 구성기
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
CLAUDE.md¶
CLIP¶
CORS¶
CSS¶
CSS Selector¶
CUDA¶
Caddy¶
Cancellation¶
Canvas¶
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
Circuit Breaker¶
Claude Code¶
ClusterRole¶
Code Assistant¶
Component Design¶
ConfigMap¶
Configuration¶
Configuration Management¶
CosineSimilarity¶
CrossEncoder¶
D3.js¶
DB추상화¶
DNS¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- GitHub Pages 커스텀 도메인 마이그레이션 + GoatCounter 조회수 연동
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
DPO¶
Data Processing¶
DeepSeek¶
Deploy¶
Deployment¶
Design Pattern¶
Desktop App¶
- Remote WebView 아키텍처: 로컬 앱과 원격 서버 연동
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- 앱 모드 전환: Standalone vs Connected 아키텍처
DevOps¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- GitLab CI/CD에서 EC2 배포 자동화: SCP + SSH 파이프라인 구축
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Kubernetes Downward API로 멀티 Pod 세션 라우팅 구현
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Search API와 LLMOps Docker 구성기
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
- macOS에서 USB 포맷 실패 시 해결 방법
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 롯데홈쇼핑 폐쇄망 서버 SSH 터널링과 접속 구성
- 면접 후보자 A — 서버 백엔드 / DevOps
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
Distributed Lock¶
Distributed Systems¶
Docker¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- Search API와 LLMOps Docker 구성기
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 목적에 맞는 OpenSearch Docker Compose 구성
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
Docker Compose¶
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
Dockerfile¶
Document Processing¶
Downward API¶
Drag and Drop¶
Dropout¶
EC2¶
EKS¶
EXAONE¶
Edge Snapping¶
Elasticsearch¶
Embedding¶
Environment Variables¶
Excel¶
Excel Automation¶
FAISS¶
FastAPI¶
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- HuggingFace 모델 검색 및 다운로드 자동화
- OJT 리팩토링과 Kotaemon RAG 구현기
- OpenAI 호환 API 서버 직접 만들기
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 로컬 LLM 모델 관리 시스템: 로드/언로드/활성화 라이프사이클
- 마이크로서비스 라우팅 통합: session-station에서 core로 병합
- 벡터 기반 시맨틱 검색 구현기
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
- 상품 리뷰 분석 API 개발기 - 형태소 분석기 성능 최적화
- 시맨틱 검색 API: 요약(Summary) 기능 온/오프 전략
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
- 파일 기반 설정에서 Redis + API 기반 분산 설정으로 전환하기
FastEmbed¶
File Upload¶
ForceAtlas2¶
Frontend¶
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- DocumentsGraph: 문서 관계 시각화 컴포넌트
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- React Hot Toast로 알림 시스템 개선하기
- React에서 Undo/Redo 구현: 워크플로우 에디터 히스토리 관리
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
- 데이터셋 컬럼 관리: 삭제/치환/연산 모달 컴포넌트 설계
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 워크플로우 공유 권한 시스템: 읽기 전용 vs 편집 모드
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
Full Stack¶
- Intel NPU 가속을 활용한 TinyLlama 챗봇 구현
- RxDB 란 무엇인가? (opensearch 연동)
- Tauri - 크로스 플랫폼 앱 개발 프레임워크
- 비동기 작업의 과부하
- 비동기 프로그래밍 소개
- 순차처리, 일괄처리, 진정한 비동기
- 콜백과 퓨처
- 파이썬 multiprocessing - 병렬 처리로 성능 향상하기
- 파이썬 클래스의 `__enter__`와 `__exit__` 메서드
- 파이썬의 MVC 패턴
GEO¶
GGUF¶
GPT¶
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- 시맨틱 검색 API: 요약(Summary) 기능 온/오프 전략
GPU¶
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- GPU 기반 원격 벡터 인덱스 구축 가이드
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- Running with GPU
- Vast.ai GPU 인스턴스 관리 API 사용법 정리
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
GPU관리¶
Gateway¶
GitHub Pages¶
GitLab¶
GitLab CI/CD¶
GitOps¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
GliNER¶
GoatCounter¶
Google Analytics¶
Google Search Console¶
Graceful Shutdown¶
Grafana¶
Graph¶
Graphology¶
Groovy¶
HPA¶
HTTPS¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
Handlebars¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- 검색 결과 랭킹 스코어링 시스템 설계
Health Probe¶
Helm¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
History Management¶
HuggingFace¶
- GliNER과 DPO-LoRA를 활용한 모델 파인튜닝
- HuggingFace 모델 검색 및 다운로드 자동화
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
Human-in-the-Loop¶
IPC¶
Istio¶
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
Iterative RAG¶
JCasC¶
JSON-LD¶
JWT¶
JavaScript¶
Jenkins¶
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
K3s¶
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- 롯데홈쇼핑 폐쇄망 서버 SSH 터널링과 접속 구성
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
KNN¶
KV Cache¶
Knowledge Graph¶
KoBERT¶
KoSimCSE¶
Kotaemon¶
Kubernetes¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Kubernetes Downward API로 멀티 Pod 세션 라우팅 구현
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Redis로 멀티 Pod 파일 업로드 진행률 동기화하기
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- 레포지토리 스케줄러의 분산 환경 전환
LLM¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- API 추상화 레이어: 로컬 LLM과 원격 서비스 통합
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- GliNER과 DPO-LoRA를 활용한 모델 파인튜닝
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- OJT 리팩토링과 Kotaemon RAG 구현기
- OpenAI 호환 API 서버 직접 만들기
- RAG 서비스의 토큰 관리와 컨텍스트 윈도우 최적화
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 로컬 LLM 모델 관리 시스템: 로드/언로드/활성화 라이프사이클
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 문서 처리 서비스에 DeepSeek 지시문 적용하기
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
LLM Serving¶
- LLM 멀티턴 vs 싱글턴 대화: 차이점과 구현 전략
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- Vast.ai GPU 인스턴스 관리 API 사용법 정리
- vLLM vs LMDeploy vs SGLang: LLM 서빙 프레임워크 3종 벤치마크 비교
LLMOps¶
LMDeploy¶
LangChain¶
LangGraph¶
Late Chunking¶
Let's Encrypt¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
Linux¶
Liveness¶
LoRA¶
Loki¶
MCP¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- MCP(Model Context Protocol)로 Agent 속도 3-5x 개선
MeCab¶
Microservices¶
MinIO¶
MkDocs¶
MkDocs Material¶
Modal¶
Modal Design¶
Model Management¶
Model Serving¶
Multi-Armed Bandit¶
Multi-Pod¶
Multi-Stage Build¶
MutationObserver¶
MySQL¶
NER¶
NLP¶
- GliNER과 DPO-LoRA를 활용한 모델 파인튜닝
- Tokenization 기법 정리: BPE, WordPiece, SentencePiece 비교
- 벡터 기반 시맨틱 검색 구현기
- 상품 리뷰 분석 API 개발기 - 형태소 분석기 성능 최적화
NPU¶
NVIDIA¶
Naver Search Advisor¶
Navigation¶
NestJS¶
- Cosine Similarity 직접 구현으로 검색 재순위화
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- 검색 결과 랭킹 스코어링 시스템 설계
- 검색 품질 개선: 성별/색상/카테고리 필터링 최적화
- 벡터 검색 유사도 임계값 동적 조정 (토큰 수 기반)
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 이미지 기반 상품 검색: NestJS 통합 구현기
Networking¶
Next.js¶
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
Nexus¶
Node Editor¶
Nori¶
OCR¶
Observability¶
OpenAI¶
OpenAI API¶
OpenSearch¶
- Approximate k-NN
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Cosine Similarity 직접 구현으로 검색 재순위화
- Exact k-NN Seach
- GPU 기반 원격 벡터 인덱스 구축 가이드
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- Hybrid Search
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Nested Field로 다중 벡터 다루기
- OpenAI API 임베딩 모델 등록 및 사용 가이드
- OpenSearch & Dashboards 3.1.0 릴리즈 노트
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- OpenSearch UBI Schema 정리
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Radial Search
- Rate Limiting이 적용된 검색 API 설계
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- Star-tree Index
- Vector Sech 가이드
- What is LTR
- ml 모델 deploy 시 메모리 99% 차지 원인
- vector indexing
- 검색 결과 랭킹 스코어링 시스템 설계
- 검색 성능 최적화 가이드
- 검색 품질 개선: 성별/색상/카테고리 필터링 최적화
- 목적에 맞는 OpenSearch Docker Compose 구성
- 벡터 검색 유사도 임계값 동적 조정 (토큰 수 기반)
- 벡터 기반 시맨틱 검색 구현기
- 벡터 유사도 계산을 스크립트로(Painless Scripting Extension)
- 벡터 인덱싱 성능 최적화 가이드
- 사용자 사전 등록 방식에 따른 시스템 부하 테스트 결과
- 샤드 구성
- 성능 체크
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 이미지 기반 상품 검색: NestJS 통합 구현기
- 최적의 단일 서버 오픈서치 배포
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
- 클러스터 구성 전략 - 샤드 분산 설계
Optimization¶
Orama¶
PDF¶
PEFT¶
Performance¶
Playwright¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- Claude Code 수준의 Agent 정확도 달성하기: 12대 개선사항
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- MCP(Model Context Protocol)로 Agent 속도 3-5x 개선
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 시나리오 배치 실행 엔진: selector fallback과 excel loop
PoC¶
Pod¶
Poetry¶
Portfolio¶
PostgreSQL¶
Process Management¶
Prometheus¶
Prompt Engineering¶
Proxy¶
PyTorch¶
- Dropout이란? PyTorch 신경망에 Dropout 적용하기
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
Python¶
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- MkDocs 블로그에 온톨로지 기반 Knowledge Graph 구현하기
- OJT 리팩토링과 Kotaemon RAG 구현기
- Python 싱글턴 풀 패턴으로 배치 실행 메모리 누수 해결하기
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- Redis로 멀티 Pod 파일 업로드 진행률 동기화하기
- Reranker 모델 도입으로 검색 정확도 향상하기
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- Tauri Sidecar로 Python 워크플로우 엔진 자동 시작
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 레포지토리 스케줄러의 분산 환경 전환
- 마이크로서비스 라우팅 통합: session-station에서 core로 병합
- 문서 처리 서비스에 DeepSeek 지시문 적용하기
- 벡터 기반 시맨틱 검색 구현기
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
- 비동기 작업의 과부하
- 비동기 프로그래밍 소개
- 상품 리뷰 분석 API 개발기 - 형태소 분석기 성능 최적화
- 순차처리, 일괄처리, 진정한 비동기
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 콜백과 퓨처
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
- 파이썬 multiprocessing - 병렬 처리로 성능 향상하기
- 파이썬 클래스의 `__enter__`와 `__exit__` 메서드
- 파이썬의 MVC 패턴
- 파일 기반 설정에서 Redis + API 기반 분산 설정으로 전환하기
Qdrant¶
- Capacity Planning
- Codebase with Semantic Search
- Collection
- Distributed deployment
- Explore the Data
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- FastEmbed
- Filtering
- Hybrid Queries
- Indexing
- LangChain과 Qdrant
- Load and Search Hugging Face Datasets
- Multivector Reranking
- Payload
- Points
- Qdrant Async API
- Qdrant LangChain
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Qdrant의 Semantic Chunk
- Qptimizer
- Reranking Hybrid Search
- Running with GPU
- Scaling PDF Retrieval
- Semantic Search Tutorials
- Similarity Search
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- Static Embedding 다시 주목해야 할까
- Storage
- Vectors
- 개발 및 테스트 환경 설정
- 문서 기반 RAG 구성
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
RAG¶
- Chunker
- Code Assistant 개발기 - AI 기반 개발 도우미 시스템 구축
- Document Loader - Docx
- Document Loader - Morphik
- Document Loader - PDF
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- LangGraph 활용처
- Late Chunking과 Sparse Embedding: 차세대 검색 파이프라인
- OJT 리팩토링과 Kotaemon RAG 구현기
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- RAG 고도화 - Intro
- RAG 고도화 - 청킹 전략
- RAG 서비스의 토큰 관리와 컨텍스트 윈도우 최적화
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- Storage
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- 대화 기록 유지
- 문서 기반 RAG 구성
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
- 벡터DB 컬렉션 문서 요약 및 페이지네이션 API 설계
- 일관된 output (PydanticOutputParser)
RBAC¶
ROCm¶
Rate Limiting¶
ReAct¶
React¶
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- Agent 채팅 UI: 도구 메시지 정리와 액션 배지 디자인
- DocumentsGraph: 문서 관계 시각화 컴포넌트
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- React Hot Toast로 알림 시스템 개선하기
- React에서 Undo/Redo 구현: 워크플로우 에디터 히스토리 관리
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
- 데이터셋 컬럼 관리: 삭제/치환/연산 모달 컴포넌트 설계
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 워크플로우 공유 권한 시스템: 읽기 전용 vs 편집 모드
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
Readiness¶
Real-time¶
Redis¶
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- Redis로 멀티 Pod 파일 업로드 진행률 동기화하기
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust 검색 엔진에 Redis 캐싱 적용기
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- 레포지토리 스케줄러의 분산 환경 전환
- 파일 기반 설정에서 Redis + API 기반 분산 설정으로 전환하기
Remote WebView¶
Reranker¶
Resilience¶
Reverse Proxy¶
Routing¶
Rust¶
- 2GB 파일 업로드를 위한 프록시 body size 설정
- AI Agent 기반 브라우저 자동화 시스템 구축기
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Bore 프로토콜로 터널 통신 구현하기
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Gateway 서비스 매핑: LLM/Crawler/ML 통합 구성
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- PostgreSQL과 MySQL 동시 지원하는 Rust DB 추상화 레이어 구현
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Rust로 API Gateway 만들기: JWT 검증 + CORS + 프록시
- Rust로 커머스 검색 엔진을 처음부터 만들기
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- YAML + 환경변수 이중 설정 파싱 시스템
- camelCase 직렬화로 Rust와 Frontend 데이터 통신
- 검색 결과 랭킹 스코어링 시스템 설계
- 데스크톱 앱에서 터널 URL 표시 UX 개선
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
RxDB¶
S3¶
SCP¶
SEO¶
SFTP¶
SGLang¶
SPA¶
SSE¶
- Redis 기반 SSE 세션 상태 공유: 멀티 POD 환경
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
SSH¶
- GitLab CI/CD에서 EC2 배포 자동화: SCP + SSH 파이프라인 구축
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- 롯데홈쇼핑 폐쇄망 서버 SSH 터널링과 접속 구성
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
SSL¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
SVG¶
Scenario Engine¶
Scenario Recorder¶
Scenario Validation¶
Scheduling¶
Search¶
Self-Attention¶
Semaphore¶
Serialization¶
Service¶
Service Consolidation¶
Service Discovery¶
Session Management¶
Sidecar¶
Sigma.js¶
Snapshot¶
Sparse Embedding¶
Sparse Vector¶
Status Bar¶
Streaming¶
- 2GB 파일 업로드를 위한 프록시 body size 설정
- LLM 텍스트 우선 표시: Agent UX에서의 응답 순서 최적화
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
Summary¶
TCP¶
TLS¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Docker + nginx HTTPS 적용기 — snap Docker 교체부터 Let's Encrypt 자동 갱신까지
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
Tab Management¶
Tauri¶
- AI Agent 기반 브라우저 자동화 시스템 구축기
- API 추상화 레이어: 로컬 LLM과 원격 서비스 통합
- Agent 실시간 상태 바: 메시지 큐와 즉각 피드백 UX
- Bore 프로토콜로 터널 통신 구현하기
- CSS 셀렉터 대체 전략: selector_alternatives로 안정성 확보
- HuggingFace 모델 검색 및 다운로드 자동화
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- Playwright 스크롤바 강제 표시: headless 환경의 UI 트릭
- Remote WebView 아키텍처: 로컬 앱과 원격 서버 연동
- TAURI_DEV_URL 환경변수로 개발/운영 환경 분리
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri - 크로스 플랫폼 앱 개발 프레임워크
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- Tauri Sidecar로 Python 워크플로우 엔진 자동 시작
- Tauri 앱 빌드: Linux deb/rpm 패키지 설정과 Remote WebView 아키텍처
- camelCase 직렬화로 Rust와 Frontend 데이터 통신
- 데스크톱 앱에서 터널 URL 표시 UX 개선
- 브라우저 자동화 시 페이지 네비게이션 생존 전략
- 새 탭 감지 및 자동 전환: 브라우저 자동화의 까다로운 문제
- 시나리오 검증(Validation) 자동화: 녹화 -> 실행 -> 검증 파이프라인
- 시나리오 레코더: 사용자 행동 녹화 및 재생 엔진
- 앱 모드 전환: Standalone vs Connected 아키텍처
- 엑셀 루프 자동화: Agent + 스토리지 연동으로 반복 작업 처리
Technitium¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
Tempo¶
Thompson Sampling¶
Toast¶
Token¶
Tokenization¶
Tokio¶
Transformer¶
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Transformer의 Query, Key, Value 행렬 생성 과정
Tree UI¶
Tunnel¶
TypeScript¶
- Cosine Similarity 직접 구현으로 검색 재순위화
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Next.js 기반 AI 워크플로우 에디터 만들기 (from scratch)
- OpenSearch Nori 분석기 커스터마이징 및 형태소 분석
- React에서 Undo/Redo 구현: 워크플로우 에디터 히스토리 관리
- SSE 기반 파일 업로드 진행률 표시 + 취소 기능
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- camelCase 직렬화로 Rust와 Frontend 데이터 통신
- 데이터 프로세서 UI: 파일 업로드/내보내기/통계 대시보드
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 워크플로우 공유 권한 시스템: 읽기 전용 vs 편집 모드
- 이미지 기반 상품 검색: NestJS 통합 구현기
- 커스텀 노드 에디터: 드래그 앤 드롭 + 엣지 스냅핑 구현
UI개발¶
UX¶
- Agent 실시간 상태 바: 메시지 큐와 즉각 피드백 UX
- Human-in-the-Loop: AI Agent에 사람 개입 지점 설계하기
- React Hot Toast로 알림 시스템 개선하기
- 데스크톱 앱에서 터널 URL 표시 UX 개선
UX Design¶
UX Optimization¶
Ubuntu¶
Undo Redo¶
Upload Progress¶
VSCode¶
Validation¶
Vast.ai¶
Visualization¶
Vite¶
Vulkan¶
WebGL¶
WebSocket¶
Workflow¶
- Agent Xgen Node: AI 에이전트를 워크플로우 노드로
- SSE 기반 워크플로우 테스터: 실시간 실행 결과 스트리밍
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- 비주얼 워크플로우 에디터: 노드 기반 AI 파이프라인 설계
- 워크플로우 실행 취소(Cancellation) 메커니즘 구현
- 클라이언트 연결 끊김에도 워크플로우 실행 유지하기
Workflow Editor¶
XGEN¶
- API 추상화 레이어: 로컬 LLM과 원격 서비스 통합
- Admin 모델 서빙 매니저: GPU 현황과 모델 배포 UI
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- DocumentsGraph: 문서 관계 시각화 컴포넌트
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- HuggingFace 업로드 모달: 파라미터 검증과 에러 핸들링
- MinIO 기반 모델 선택 UI: 로딩 상태와 에러 처리
- React Hot Toast로 알림 시스템 개선하기
- Remote WebView 아키텍처: 로컬 앱과 원격 서버 연동
- TAURI_DEV_URL 환경변수로 개발/운영 환경 분리
- Tauri + Docker: 데스크톱 앱의 컨테이너화 전략
- Tauri 2.0으로 AI 데스크톱 앱 만들기
- Tauri Sidecar로 Python 워크플로우 엔진 자동 시작
- Tauri 앱 빌드: Linux deb/rpm 패키지 설정과 Remote WebView 아키텍처
- Workflow Execution Panel: 검증과 에러 핸들링 UI 패턴
- XGEN 1.0 프론트엔드 모델 관리 UI 구현
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- XGEN K3s 인프라 완전 해부 (2) — Kubernetes 핵심 오브젝트와 스케일링 전략
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
- XGEN K3s 인프라 완전 해부 (4) — CI/CD 파이프라인: Jenkins 빌드에서 ArgoCD 배포까지
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 데이터셋 컬럼 관리: 삭제/치환/연산 모달 컴포넌트 설계
- 문서 디렉토리 트리 UI: 파일 카운트와 컴팩트 레이아웃
- 앱 모드 전환: Standalone vs Connected 아키텍처
- 인증 플로우 개선: 토큰 검증과 리프레시 처리
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
YAML¶
aiohttp¶
asyncio¶
batch size¶
cert-manager¶
certbot¶
deb¶
docker-compose¶
fail2ban¶
k-NN¶
kNN¶
llama.cpp¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- OpenAI 호환 API 서버 직접 만들기
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
llms.txt¶
mistral.rs¶
multi-stage build¶
nginx¶
nori¶
once_cell¶
pyproject.toml¶
rpm¶
serde¶
sqlx¶
uvicorn¶
vLLM¶
- OpenAI 호환 API 서버 직접 만들기
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM vs LMDeploy vs SGLang: LLM 서빙 프레임워크 3종 벤치마크 비교
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 문서 처리 서비스에 DeepSeek 지시문 적용하기
values¶
xgen¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- HuggingFace 모델 검색 및 다운로드 자동화
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- Late Chunking과 Sparse Embedding: 차세대 검색 파이프라인
- OpenAI 호환 API 서버 직접 만들기
- Python 싱글턴 풀 패턴으로 배치 실행 메모리 누수 해결하기
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- RAG 서비스의 토큰 관리와 컨텍스트 윈도우 최적화
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- 로컬 LLM 모델 관리 시스템: 로드/언로드/활성화 라이프사이클
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
감사추적¶
강화학습¶
개발 생산성¶
개발도구¶
검색¶
검색 API¶
검색 엔진¶
검색 품질¶
검색API¶
검색엔진¶
- Approximate k-NN
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Capacity Planning
- Chunker
- Codebase with Semantic Search
- Collection
- Cosine Similarity 직접 구현으로 검색 재순위화
- Distributed deployment
- Document Loader - Docx
- Document Loader - Morphik
- Document Loader - PDF
- Exact k-NN Seach
- Explore the Data
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- FastEmbed
- Filtering
- GPT를 활용한 검색 쿼리 의도 분석 및 키워드 추출
- GPU 기반 원격 벡터 인덱스 구축 가이드
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- Hybrid Queries
- Hybrid Search
- Indexing
- LangChain과 Qdrant
- LangGraph 활용처
- Load and Search Hugging Face Datasets
- Multivector Reranking
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Nested Field로 다중 벡터 다루기
- OpenAI API 임베딩 모델 등록 및 사용 가이드
- OpenSearch & Dashboards 3.1.0 릴리즈 노트
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- OpenSearch Embedding 모델 등록 및 활용
- OpenSearch UBI Schema 정리
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 설치 및 빌드를 위한 서버 자원 확인 절차
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Payload
- Points
- PostgreSQL과 MySQL 동시 지원하는 Rust DB 추상화 레이어 구현
- Qdrant Async API
- Qdrant LangChain
- Qdrant의 Semantic Chunk
- Qptimizer
- RAG 고도화 - Intro
- RAG 고도화 - 청킹 전략
- Radial Search
- Rate Limiting이 적용된 검색 API 설계
- Reranking Hybrid Search
- Running with GPU
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Rust로 커머스 검색 엔진을 처음부터 만들기
- Scaling PDF Retrieval
- Semantic Search Tutorials
- Similarity Search
- Star-tree Index
- Static Embedding 다시 주목해야 할까
- Storage
- Vector Sech 가이드
- Vectors
- What is LTR
- ml 모델 deploy 시 메모리 99% 차지 원인
- vector indexing
- 개발 및 테스트 환경 설정
- 검색 결과 랭킹 스코어링 시스템 설계
- 검색 로직(opensearch)
- 검색 성능 최적화 가이드
- 대화 기록 유지
- 목적에 맞는 OpenSearch Docker Compose 구성
- 문서 기반 RAG 구성
- 벡터 기반 시맨틱 검색 구현기
- 벡터 유사도 계산을 스크립트로(Painless Scripting Extension)
- 벡터 인덱싱 성능 최적화 가이드
- 사용자 사전 등록 방식에 따른 시스템 부하 테스트 결과
- 샤드 구성
- 성능 체크
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
- 시맨틱 검색이란
- 아이스크림몰 AI Search 구축 사례
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 일관된 output (PydanticOutputParser)
- 최적의 단일 서버 오픈서치 배포
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
- 클러스터 구성 전략 - 샤드 분산 설계
검색품질¶
과부하방어¶
과적합¶
권한¶
권한관리¶
네임서버¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
대시보드¶
데스크톱앱¶
데이터파이프라인¶
도메인¶
도커¶
- Docker BuildKit 캐시 전략과 NO_CACHE 옵션
- Docker Compose로 개발 환경 구성: .env 기반 설정 관리와 서비스 설정 파일 분리 전략
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- pyproject.toml dependencies 추출로 Docker 빌드 레이어 캐시 최적화
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
동시 빌드¶
동시성¶
동시성제어¶
동의어¶
동의어사전¶
동적디스패치¶
동적배칭¶
동적쿼리¶
디자인 패턴¶
딥러닝¶
- Dropout이란? PyTorch 신경망에 Dropout 적용하기
- GPT 모델 처음부터 만들기 (1) - 데이터 전처리와 기본 구조
- GPT 모델 처음부터 만들기 (2) - 셀프 어텐션 구현
- KoBERT: 한국어 BERT 모델 소개와 파인튜닝 예제
- Scaled Dot-Product Attention 동작 원리와 수식 정리
- Thompson Sampling: 탐색과 활용의 균형을 잡는 알고리즘
- Tokenization 기법 정리: BPE, WordPiece, SentencePiece 비교
- Transformer의 Query, Key, Value 행렬 생성 과정
- 셀프 어텐션(Self-Attention) 동작 과정 단계별 정리
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
라우터¶
라이프사이클¶
랭킹¶
레이어 오프로딩¶
레이어 캐시¶
로깅¶
롯데홈쇼핑¶
리버스 프록시¶
리뷰분석¶
리팩토링¶
- OJT 리팩토링과 Kotaemon RAG 구현기
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
마이그레이션¶
마이크로서비스¶
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Search API와 LLMOps Docker 구성기
- XGEN K3s 인프라 완전 해부 (3) — Helm 차트 설계: 하나의 Chart로 6개 서비스 배포
멀티 Pod¶
멀티GPU¶
멀티턴¶
멀티테넌시¶
멀티파드¶
멀티프로세싱¶
메모리 최적화¶
면접¶
모니터링¶
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- XGEN K3s 인프라 완전 해부 (5) — Istio 서비스 메시와 Observability 스택
모델 관리¶
모델 다운로드¶
모델 서빙¶
- AMD GPU에서 LLM 돌리기: Vulkan vs ROCm 비교
- Embedding 모델 서빙: batch size 최적화로 긴 문서 처리
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM 모델 배포: 샘플링 파라미터 튜닝 가이드
- 멀티 GPU LLM 배포: GPU 선택 및 레이어 오프로딩 전략
모델관리¶
모델서빙¶
- SGLang vs vLLM 비교: LLM 추론 프레임워크 선택 가이드
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
모델학습¶
무중단배포¶
문서 처리¶
문서검색¶
미들웨어¶
방화벽¶
배경제거¶
배치 처리¶
배치처리¶
배포¶
백엔드¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Handlebars 템플릿으로 동적 검색 쿼리 생성하기
- PostgreSQL과 MySQL 동시 지원하는 Rust DB 추상화 레이어 구현
- Rate Limiting이 적용된 검색 API 설계
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust로 커머스 검색 엔진을 처음부터 만들기
백엔드 스위칭¶
백엔드스위칭¶
벡터 검색¶
- Capacity Planning
- Codebase with Semantic Search
- Collection
- Distributed deployment
- Explore the Data
- FastEmbed
- Filtering
- GPU 기반 원격 벡터 인덱스 구축 가이드
- Hybrid Queries
- Indexing
- Iterative RAG: 반복 검색으로 복잡한 질문 답변하기
- LangChain과 Qdrant
- Load and Search Hugging Face Datasets
- Multivector Reranking
- Nested Field로 다중 벡터 다루기
- OpenSearch 3.0.0 릴리즈 하이라이트 – 성능, 벡터 검색, 보안, AI 기능 대폭 강화
- Payload
- Points
- Qdrant Async API
- Qdrant LangChain
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Qdrant의 Semantic Chunk
- Qptimizer
- Reranking Hybrid Search
- Running with GPU
- Scaling PDF Retrieval
- Semantic Search Tutorials
- Similarity Search
- Static Embedding 다시 주목해야 할까
- Storage
- Vector Sech 가이드
- Vectors
- vector indexing
- 개발 및 테스트 환경 설정
- 문서 기반 RAG 구성
- 벡터 유사도 계산을 스크립트로(Painless Scripting Extension)
- 벡터 인덱싱 성능 최적화 가이드
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
벡터DB¶
벡터검색¶
- Cosine Similarity 직접 구현으로 검색 재순위화
- FAISS 벡터 인덱스 적용과 GPU 디바이스 최적화
- 검색 품질 개선: 성별/색상/카테고리 필터링 최적화
- 벡터 검색 유사도 임계값 동적 조정 (토큰 수 기반)
- 벡터 기반 시맨틱 검색 구현기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 이미지 기반 상품 검색: NestJS 통합 구현기
보안¶
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지
분산 락¶
분산시스템¶
분석기¶
비동기¶
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Qdrant Async API
- Rust 검색 엔진에 Redis 캐싱 적용기
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- 비동기 작업의 과부하
- 비동기 프로그래밍 소개
- 순차처리, 일괄처리, 진정한 비동기
- 콜백과 퓨처
빌드 최적화¶
상품검색¶
서비스메시¶
성능 최적화¶
성능 튜닝¶
성능비교¶
성능최적화¶
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- vLLM + llama.cpp GPU 모델 서빙 최적화 실전기
성능튜닝¶
성별필터¶
세마포어¶
세션¶
스케일링¶
스트리밍¶
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- SSE 스트리밍으로 대규모 배치 워크플로우 결과 전달하기
- 챗봇 UI 개발기 - WebSocket 기반 실시간 스트리밍
시맨틱 검색¶
시맨틱검색¶
시크릿 관리¶
실시간¶
실시간모니터링¶
싱글턴¶
싱글톤¶
아키텍처¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- Rust로 커머스 검색 엔진을 처음부터 만들기
- vLLM vs llama.cpp: 백엔드 스위칭 아키텍처 설계
- vLLM에서 llama.cpp로: LLM 서빙 아키텍처 통합 마이그레이션
에러핸들링¶
워크플로우¶
- FastAPI 워크플로우 엔진: 접근 제어와 감사 로깅 구현
- FastAPI 워크플로우 엔진에 Qdrant 하이브리드 검색 붙이기
- Python 싱글턴 풀 패턴으로 배치 실행 메모리 누수 해결하기
이미지 최적화¶
이미지검색¶
이커머스¶
- Axum + OpenSearch: Rust 검색 API 아키텍처 설계
- NestJS 기반 이커머스 검색 엔진 개발기 (x2bee-nest-search)
- Reranker 모델 도입으로 검색 정확도 향상하기
- Rust로 커머스 검색 엔진을 처음부터 만들기
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
인덱싱¶
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
인증서¶
인프라¶
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Rust 검색 엔진에 Redis 캐싱 적용기
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
- Search API와 LLMOps Docker 구성기
- XGEN K3s 인프라 완전 해부 (1) — 전체 구조와 컨테이너 빌드 전략
- 면접 후보자 A — 서버 백엔드 / DevOps
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
임계값¶
임베딩¶
- Late Chunking과 Sparse Embedding: 차세대 검색 파이프라인
- Static Embedding 다시 주목해야 할까
- aiohttp로 임베딩 API 클라이언트 만들기: 타임아웃과 배치 분할 최적화
- 문서 임베딩 파이프라인: 청킹 옵션과 전처리 전략
- 벡터 기반 시맨틱 검색 구현기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
자동배포¶
자동완성¶
자동화¶
- GPU 상태 모니터링 및 자동 모델 배포 시스템
- GitLab CI/CD에서 EC2 배포 자동화: SCP + SSH 파이프라인 구축
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- OpenSearch 동의어(Synonym) 사전 관리 자동화
- Rust 검색 엔진에서 SSH 터널링으로 원격 DB 접근하기
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
자연어처리¶
자체호스팅¶
접근제어¶
직렬화¶
집계검색¶
챗봇¶
청킹¶
최적화¶
- Dockerfile 최적화: COPY --chown vs chown -R 레이어 중복 제거
- 임베딩 전용 서버 분리와 대용량 배치 처리 최적화
- 커서 기반 인덱싱 vs 전체 인덱싱: 성능 비교
추론 최적화¶
추천검색¶
카테고리분류¶
캐시¶
캐싱¶
커넥션풀¶
커머스¶
- OpenSearch Aggregation 검색 구현 및 에러 핸들링 전략
- Rust로 커머스 검색 엔진을 처음부터 만들기
- 이미지 검색 기능 구현기 - 시맨틱 검색과 AI 분류의 만남
- 커머스 상품 추천 검색 API 설계 (goods + marketing)
커서¶
커스텀 도메인¶
컨테이너¶
컨텍스트 윈도우¶
코드검색¶
코딩 어시스턴트¶
코사인유사도¶
쿠버네티스¶
- ArgoCD 멀티 고객사 배포 아키텍처 — ApplicationSet 시행착오와 단일 진입점 설계
- Istio + ArgoCD 도메인 변경: Helm values 수정 포인트 정리
- Istio Gateway HTTPS 설정과 TLS 인증서 관리
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- K3s + ArgoCD로 AI 플랫폼 GitOps 배포 구축하기
- K3s 위에 AI 플랫폼 올리기: 인프라 설계부터 배포까지
- Kubernetes Downward API로 멀티 Pod 세션 라우팅 구현
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- Let's Encrypt + cert-manager로 K3s HTTPS 자동화
- Redis 인증 설정과 K3s 분산 환경 시크릿 관리
- XGEN AWS EKS 신규 고객사 배포기 — 온프레미스에서 클라우드로
- XGEN 멀티파드 분산 환경 마이그레이션 — Redis 분산 락과 직렬화 삽질기
- 인프라 모노레포 디렉토리 구조 설계: dockerfiles/compose/k3s 분리 전략
쿼리생성¶
클라우드¶
키워드확장¶
타임아웃¶
터널링¶
텍스트분석¶
템플릿¶
토큰 관리¶
트러블슈팅¶
- DNS, 도메인, SSL 인증서 — 네임서버 충돌로 Let's Encrypt 발급이 실패한 이야기
- Jenkins RBAC: Kubernetes watch 권한 누락으로 인한 배포 실패 삽질기
- Kubernetes Health Probe 타임아웃 설정으로 Pod 재시작 방지
- llama.cpp 서버 운영기: ROCm GPU에서의 삽질과 해결
트레잇¶
파이프라인¶
- Jenkins JCasC로 6개 서비스 빌드 Job 자동 생성하기
- Jenkins executor 수 최적화: 6개 서비스 동시 빌드를 위한 성능 튜닝
- OpenSearch 인덱싱 서비스: 스트리밍 vs 배치 처리 비교
- Rust 검색 엔진의 CI/CD 파이프라인 구축 (GitLab + EC2)
파인튜닝¶
페이지네이션¶
폐쇄망¶
포트 포워딩¶
프레임워크¶
프로덕션¶
프록시¶
프론트엔드¶
하이브리드 검색¶
- Hybrid Queries
- Hybrid Search
- Qdrant 하이브리드 검색: Sparse + Dense 벡터 통합
- Reranking Hybrid Search
- Sparse Vector와 Full-Text Index 하이브리드 검색 구현
- 시맨틱 검색과 키워드 검색의 하이브리드 전략
하이브리드검색¶
한국어 NLP¶
한국어NLP¶
한국어검색¶
헬스체크¶
형태소분석¶
홈서버¶
- Caddy 리버스 프록시로 홈서버 HTTPS 자동화 — Nginx 수동 설정과의 비교
- Technitium DNS로 홈서버 자체 DNS 구축: Docker 배포부터 Zone 설계, 운영까지
- 홈서버 SSH 보안 강화: 키 인증, fail2ban, 포트 우회까지