← 탐색

태그된 포스트: 프로덕션

AI 실무 적용기 · ·3분 읽기

컨텍스트 100만 토큰 시대, RAG를 걷어내도 될까

"컨텍스트 윈도우가 100만 토큰인데 RAG 파이프라인을 왜 유지해야 하지?" 3월 초, 팀 내 백엔드 개발자가 던진 질문이었다.

rag롱컨텍스트프로덕션
AI 실무 적용기 · ·2분 읽기

LLM 서비스에 트레이싱 달고 나서야 보인 것들

LLM 앱이 "잘 돌아가고 있다"고 생각했던 시간이 3개월이었다. 사용자 불만이 없으니까 괜찮은 줄 알았다.

옵저버빌리티트레이싱llm
AI 실무 적용기 · ·3분 읽기

Tool Use 프로덕션에 넣고 일주일, 세 번 장애 났다

지난 달, 고객 문의 챗봇에 function calling을 붙였다. 주문 조회, 환불 처리, 배송 추적 — 세 개 함수면 충분하다고 생각했다.

function-callingtool-use프로덕션
AI 실무 적용기 · ·3분 읽기

파인튜닝 3번 중 2번은 프롬프트로 해결됐다

지난 6개월간 세 번의 파인튜닝 프로젝트를 진행했고, 그중 두 번은 결국 프롬프트 엔지니어링으로 되돌아왔다. 남은 한 번은 프로덕션에 잘 돌아가고 있지만, 그마저도 "파인튜닝이 정답이었나"를 매달 자문한다.

파인튜닝qlora프롬프트엔지니어링
AI 실무 적용기 · ·3분 읽기

전체 LLM 호출의 80%는 비싼 모델이 필요 없었다

프로덕션 LLM 서비스를 운영하면서 가장 먼저 깨달은 건, 비용 문제는 모델 성능이 아니라 호출 패턴에서 터진다는 점이었다. 모델을 바꾸거나 프롬프트를 쥐어짜기 전에, 요청 자체를 들여다봐야 한다.

llm비용최적화라우팅
AI 실무 적용기 · ·3분 읽기

JSON이 2% 깨질 뿐인데 왜 장애가 3번이나 났을까

우리 팀이 LLM 기반 데이터 추출 파이프라인을 프로덕션에 올린 건 작년 말이었다. GPT-4o에 프롬프트로 "JSON으로 응답해줘"라고 쓰고, 응답을 json.

structured-outputjson프로덕션
AI 실무 적용기 · ·3분 읽기

eval 없이 LLM 배포하고 3주 만에 롤백한 이야기

프로덕션에 LLM 붙이고 3주 뒤에 전체 파이프라인을 뒤집어엎었다. 원인은 허무할 정도로 단순했다.

evalllm프로덕션
AI 실무 적용기 · ·2분 읽기

RAG 답변 품질이 안 나온다면, 모델 탓하지 말고 청킹부터 봐라

"모델을 GPT-4o로 바꿨는데도 답변이 이상해요." RAG 시스템 운영하다 보면 이 말을 정말 자주 듣는다.

rag청킹프로덕션
AI 실무 적용기 · ·2분 읽기

AI 에이전트, 아직 프로덕션에 넣지 마라

"AI 에이전트 프로덕션 배포" 검색하면 튜토리얼이 수백 개 나온다. OpenAI AgentKit, Amazon Bedrock AgentCore, Claude Code Agent Teams까지.

ai에이전트프로덕션가드레일