📖 RAG Pipeline Arhitektura
RAG Pipeline omogućava modelu da koristi vaše interne dokumente bez fine-tuning-a.
🔄 Koraci RAG Pipeline-a
🛠️ RAG Proces
1. Dokument Ingestion:
- Učitaj PDF-ove, Wiki stranice, dokumentaciju
- Podijeli u manje chunk-ove (npr. 500 tokena)
2. Embedding Generation:
- Generiši embedding za svaki chunk
- Spremi u vektorsku bazu
3. Query Processing:
- Korisnik pita: "Kako konfigurisati IIS?"
- Generiši embedding za query
- Pretraži vektorsku bazu za slične chunk-ove
4. Context Augmentation:
- Uzmi top 3-5 relevantnih chunk-ova
- Dodaj ih u prompt kao kontekst
5. Generation:
- Model generiše odgovor koristeći:
* Svoje generalno znanje
* Specifične informacije iz vaših dokumenata
🛠️ Implementacija
🛠️ Python RAG Primjer
from langchain.document_loaders import PyPDFLoader
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import Chroma
from langchain.chains import RetrievalQA
# 1. Učitaj dokumente
loader = PyPDFLoader("company_docs.pdf")
documents = loader.load()
# 2. Generiši embeddings i spremi u bazu
embeddings = OpenAIEmbeddings()
vectorstore = Chroma.from_documents(documents, embeddings)
# 3. Kreiraj RAG chain
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever()
)
# 4. Postavi pitanje
answer = qa_chain.run("Kako konfigurisati naš custom server?")
✅ Zaključak
RAG omogućava AI modelima da koriste vaše specifične informacije bez potrebe za treniranjem.