Grupa Insight
software house

AI integrations w praktyce: RAG, chatboty i pipeline’y LLM — jak to naprawdę działa?

HomeArticlesAI integrations w praktyce: RAG, chatboty i pipeline’y LLM — jak to naprawdę działa?
AI integrations w praktyce: RAG, chatboty i pipeline’y LLM — jak to naprawdę działa?

Integracje AI w produkcji

Case study: BLUP-FLOCK ERP — system AI dla fermy zarodowej kur z algorytmem BLUP i analizą 5 pokoleń genealogii

Integracje AI dzielą się na dwa światy. Pierwszy: proste wywołanie API modelu językowego opakowane w interfejs. Drugi: system produkcyjny, który realnie zmienia decyzje operacyjne i jest odpowiedzialny za miliony złotych w zarządzaniu stadem.

Projekt BLUP-FLOCK ERP należy do tej drugiej kategorii. System analizuje rzeczywiste dane genetyczne, cofa się do 5 pokoleń w genealogii i rekomenduje krzyżowania z precyzją matematyczną — wraz z pełnym uzasadnieniem każdej decyzji.

Czym różni się wdrożenie AI od wywołania API

Najprostsza integracja AI:

  • użytkownik wysyła zapytanie
  • system przekazuje je do modelu
  • model zwraca odpowiedź

W BLUP-FLOCK każde zapytanie to orkiestracja wielu kroków:

  • pobranie danych ze stada
  • rekonstrukcja drzewa genealogicznego do 5. pokolenia
  • obliczenie EBV (Estimated Breeding Values) metodą BLUP
  • ranking ptaków z uwzględnieniem współczynnika inbredu
  • rekomendacja z pełnym uzasadnieniem

Czym jest metoda BLUP

BLUP (Best Linear Unbiased Prediction) to statystyczna metoda szacowania wartości hodowlanej zwierząt, stosowana globalnie w hodowli drobiu, bydła i trzody chlewnej.

Uwzględnia jednocześnie:

  • genealogię (do wielu pokoleń wstecz)
  • dane środowiskowe i żywieniowe
  • mierzone cechy produkcyjne (plenność, przyrost, konwersja paszy)

Każdy osobnik oceniany jest w kontekście całej rodziny, nie tylko własnych wyników — dlatego metoda daje znacznie dokładniejszy obraz wartości genetycznej niż klasyczne metody indeksowe.

Architektura pipeline'u — jak działa system

Zanim przejdziemy do szczegółów — dwa pojęcia, które będą się tu przewijać.

RAG (Retrieval-Augmented Generation) to podejście, w którym model AI zamiast polegać wyłącznie na własnej wiedzy, najpierw wyszukuje potrzebny kontekst w zewnętrznych danych — a dopiero potem generuje odpowiedź. Pipeline LLM to zestaw kroków prowadzących od surowych danych do tej odpowiedzi: wyszukiwanie kontekstu, budowa promptu, wywołanie modelu.

W klasycznym RAG te kroki wyglądają tak:

  • wyszukiwanie wektorowe w bazie dokumentów
  • budowa promptu z kontekstem
  • generowanie odpowiedzi

W BLUP-FLOCK standardowy RAG nie wystarczył. Dane genetyczne to nie dokumenty tekstowe — to graf relacji między osobnikami rozciągnięty na 5 pokoleń. Zamiast similarity search na embeddingach zbudowaliśmy własny mechanizm retrieval, który rekonstruuje drzewo genealogiczne do zadanej głębokości i oblicza współczynnik inbredu potencjalnego potomstwa zanim cokolwiek trafi do modelu. Stąd 8 warstw zamiast standardowych 3.

8 warstw systemu AI w BLUP-FLOCK

  1. Ingestion danych Pobieranie near-real-time z dwóch istniejących aplikacji (.NET/Blazor) przez REST API i kolejki wiadomości

  2. Chunking i normalizacja Podział danych na konteksty: fenotypowe, genealogiczne, środowiskowe

  3. Temporal Tables Pełna historia zmian każdego rekordu w MS SQL Server — niezbędna do odtwarzalności obliczeń BLUP i audytów certyfikacyjnych

  4. Obliczenia BLUP / EBV Deterministyczny silnik obliczeń genetycznych — identyczny wynik przy tych samych danych wejściowych (wymóg certyfikacyjny)

  5. Ranking i selekcja Optymalizacja wielokryterialna: jednocześnie plenność, przyrost dzienny, konwersja paszy, koincydencja inbredu

  6. Explainable AI (XAI) Każda rekomendacja opatrzona uzasadnieniem: które cechy wpłynęły na decyzję, jakie były wagi predyktorów, ryzyko błędu modelu

  7. Walidacja i anomalie Automatyczna detekcja błędnych przypisań (np. jajko do złego gniazda) — krytyczne przy certyfikacjach Ross/Hubbard/Hy-Line

  8. Pętla sprzężenia zwrotnego Model adaptuje estymacje EBV do rzeczywistych wyników — ciągłe uczenie się na danych konkretnego stada

Wyzwanie #1: dane genetyczne to nie dokumenty

Większość opisów RAG dotyczy systemów opartych o dokumenty — FAQ, podręczniki, bazy wiedzy. W BLUP-FLOCK dane „kontekstowe" to relacyjna sieć 5 pokoleń genetycznych, gdzie każdy osobnik ma przypisane cechy fenotypowe, wyniki reprodukcyjne i pozycję w drzewie genealogicznym.

Standardowy RAG zakładający pracę na dokumentach nie wystarczył. Musieliśmy zbudować własny mechanizm retrieval, który:

  • rekonstruuje drzewo genealogiczne do zadanej głębokości pokoleniowej
  • oblicza współczynnik inbredu potencjalnego potomstwa przed rekomendacją krzyżowania
  • odcina gałęzie genealogiczne przekraczające dopuszczalny próg inbredu
  • zwraca ranking z uwzględnieniem wag cech zgodnych z programem hodowlanym klienta

Dlatego custom retrieval zamiast klasycznego vector search.

Wyzwanie #2: Explainable AI jako wymóg, nie feature

W większości projektów AI wyjaśnialność jest „nice to have". W BLUP-FLOCK to wymóg certyfikacyjny. Systemy hodowli zarodowej (Ross 308, Hubbard, Hy-Line, Lohmann) wymagają pełnej odtwarzalności decyzji — audytor musi móc sprawdzić, dlaczego kogut X został wybrany jako reproduktor, a kogut Y wyeliminowany.

Każda decyzja systemu zawiera:

  • które cechy miały największy wpływ na rekomendację i w jakim stopniu
  • porównanie z wynikami tradycyjnych metod indeksowych
  • ryzyko błędu modelu przy danym zestawie danych wejściowych
  • pełna historia obliczeń zapisana w Temporal Tables

Bez tego system byłby „czarną skrzynką", której hodowca nie może zaufać, a certyfikator zaakceptować.

Wyzwanie #3: migracja bez przestojów

Ferma zarodowa nie może „wyłączyć systemu na tydzień" żeby przejść na nowe oprogramowanie. Rszew posiadała już dwie działające aplikacje obsługujące bieżące procesy.

Zaprojektowaliśmy hybrydową architekturę integracji:

  • stare aplikacje działają bez zmian jako source of truth dla danych operacyjnych
  • nowy system ERP pobiera dane w trybie near-real-time przez REST API i kolejki wiadomości
  • moduł AI operuje na zsynchronizowanej, centralnej bazie danych
  • migracja danych historycznych odbywa się równolegle, bez przerywania produkcji

Ten wzorzec — API Gateway + kolejki wiadomości + centralna baza z Temporal Tables — jest naszą rekomendacją dla każdej organizacji, która chce wdrożyć AI na istniejących danych bez ryzyka operacyjnego.

Stack technologiczny

MS SQL Server 2022 – Temporal Tables (pełna historia danych, odtwarzalność obliczeń) – Columnstore Indexes (wydajność zapytań analitycznych na dziesiątkach tysięcy rekordów)

Laravel 11 / PHP 8.3 – backend pipeline AI – kolejki (Redis/Horizon) i autoryzacja JWT/Sanctum

Vue.js 3 + Inertia.js – frontend i wizualizacje (D3.js / Apache ECharts)

Redis 7 + RedisJSON – cache pośrednich wyników obliczeń BLUP — wielokrotne przyspieszenie powtarzanych operacji

Kubernetes + Docker – skalowalność pozioma, izolacja mikroserwisów AI

MLOps pipeline – wersjonowanie modeli, monitoring driftu danych, automatyczny retrain

Mierzalne efekty wdrożenia

  • skrócenie czasu analizy rodów i przygotowania rankingów: z tygodni do minut
  • wzrost postępu genetycznego o 3–8% rocznie vs. klasyczne metody indeksowe
  • redukcja liczby utrzymywanych reproduktorów o 10–25% dzięki precyzyjniejszej selekcji
  • eliminacja błędów danych dzięki automatycznej walidacji anomalii w czasie rzeczywistym
  • pełna audytowalność dla systemów certyfikacyjnych (IFS Food, BRCGS, GlobalG.A.P.)

5 wniosków z wdrożenia AI

1. Dane są ważniejsze niż model

W BLUP-FLOCK największym wyzwaniem nie był wybór algorytmu, ale architektura danych — Temporal Tables, Columnstore Indexes, schema pod relacje genetyczne. Zły model na dobrych danych da się naprawić. Dobry model na złych danych nie działa.

2. LangChain nie zawsze jest potrzebny

Używamy go do szybkiego prototypowania i testowania architektury. W produkcji — własny pipeline z pełną kontrolą nad logiką. Przy złożonych domenach jak genetyka zwierząt, gotowe frameworki narzucają abstrakcje, które nie pasują do domeny.

3. Explainable AI jest konieczne

Coraz więcej sektorów (finanse, medycyna, certyfikowana hodowla) wymaga auditability. Buduj wyjaśnialność od pierwszego dnia, nie jako nakładkę na gotowy model.

4. Migracja bez przestojów jest możliwa

Wzorzec API Gateway + kolejki wiadomości + centralna baza pozwala wdrażać AI stopniowo na istniejących systemach, bez ryzyka operacyjnego. Żaden klient nie może sobie pozwolić na „big bang migration".

5. KPI muszą być zdefiniowane przed startem

W Rszew wiemy dokładnie: o ile skrócić czas analizy, jaki próg redukcji reproduktorów jest docelowy, jakie certyfikaty ma system umożliwiać. Bez tych KPI nie da się ocenić sukcesu wdrożenia.

Podsumowanie

Integracje AI w produkcji to systemy oparte na danych, architekturze i kontroli jakości. Największą wartość daje nie model, ale sposób jego użycia w kontekście biznesowym — i precyzja danych, na których pracuje.

Planujesz wdrożenie AI?

Realizujemy produkcyjne systemy AI — od chatbotów opartych o RAG, przez pipeline'y LLM, po specjalizowane moduły analityczne jak BLUP-FLOCK. Każde wdrożenie zaczynamy od analizy danych i architektury, nie od wyboru modelu.

Opisz nam swój use case

Źródła