
Ten webinar nie jest o tym, jak zbudować asystenta AI. Jest o tym, co dzieje się później – gdy trzeba ocenić, czy jego odpowiedzi są wystarczająco dobre. Na przykładach pokażemy, gdzie pojawiają się problemy i jak są analizowane w praktyce.

Brak twardych podstaw
do decyzji o wdrożeniu
Bez jasnych kryteriów trudno ocenić,
czy rozwiązanie nadaje się do udostępnienia.

Brak perspektywy realnego użytkownika
W testach brakuje pytań z błędami,
podchwytliwych i prób manipulacji.

Brak kontroli nad skutkiem poprawek
Po zmianach nie ma pewności, czy poprawiła
się całość, a nie tylko pojedynczy przypadek.

Obawa przed błędami
i utratą zaufania
Błędne odpowiedzi obniżają satysfakcję
użytkowników i podważają wiarygodność
rozwiązania.

Brak pewności, ile i jakie pytania zadać podczas testów
Zbyt wąski zakres pytań nie pokazuje rzeczywistej jakości i ryzyk.

Manualne testy zaczynają blokować wdrożenie
Rosnąca liczba pytań i poprawek spowalnia weryfikację i obciąża zespół.
Badania BBC z 2025 roku wykazały, że AI asystenci, np. ChatGPT czy Gemini, przekazywali błędne informacje
o faktach politycznych i medycznych, co może wprowadzać ludzi w błąd i naruszać zaufanie do mediów
oraz technologii AI. Przykładowo, AI podało nieaktualne dane o osobach piastujących funkcje publiczne
czy błędne informacje o zaleceniach NHS wobec palenia e-papierosów.
Źródło: BBC

Planujesz, wdrażasz albo już posiadasz asystenta AI?
Dowiesz się, jak wychwycić błędy, zanim zrobią to Twoi użytkownicy. Pokażemy, jak testować odpowiedzi AI w praktyce i na co zwrócić uwagę przed wdrożeniem lub skalowaniem rozwiązania.

Odpowiadasz za jakość
lub produkt?
Jeśli jesteś Product Ownerem, Designerem, PM-em, QA lub pracujesz jako UX czy Analityk – ten webinar pokaże Ci, jak realnie oceniać jakość odpowiedzi AI i szybko wyłapywać ryzyka wpływające na produkt.

Chcesz świadomie oceniać jakość asystenta AI?
Zrozumiesz, kiedy odpowiedź AI jest faktycznie poprawna, a kiedy tylko brzmi wiarygodnie. Dostaniesz wskazówki i przykłady, które pozwolą Ci podejmować lepsze decyzje.

Dlaczego ocena jakości asystenta AI jest trudniejsza, niż się wydaje
Co właściwie oznacza dobra odpowiedź asystenta AI
Jakie błędy naprawdę wychodzą w testach
Co testujemy w praktyce, żeby ocenić gotowość asystenta do wdrożenia
Dlaczego firmy często widzą problem za późno
Co daje uporządkowane podejście do testów
Kiedy manualne testy przestają wystarczać
Prowadząca
Test Manager i Account Manager w Soflab z kilkunastoletnim doświadczeniem w testowaniu oprogramowania i zarządzaniu usługami QA.
W ostatnich latach koncentruje się na obszarze testowania rozwiązań opartych na AI. Jest Product Ownerem rozwiązania do automatyzacji testów asystentów AI oraz odpowiada za jego wdrożenia u klientów. W pracy łączy doświadczenie w zarządzaniu testami z praktycznym podejściem do oceny jakości odpowiedzi modeli językowych
i automatyzacji testów.
Prowadzący
Co-Founder & Board Member w Soflab, współtwórca jednej z wiodących firm QA w Polsce, ekspert w budowie strategii jakości i wdrożeń AI
w testowaniu
Od kilkunastu lat związany z obszarem jakości oprogramowania, testowania oraz zarządzania operacyjnego w projektach IT. Specjalizuje się w budowaniu strategii Quality Engineering oraz wdrażaniu nowoczesnych podejść do testowania, w tym rozwiązań opartych na AI. Aktywnie dzieli się wiedzą na temat jakości w erze GenAI, automatyzacji testów oraz wyzwań związanych z weryfikacją systemów opartych
o modele językowe.
Soflab Technology
Jesteśmy firmą IT specjalizująca się w zarządzaniu jakością
oprogramowania, testach (w tym bezpieczeństwa) oraz anonimizacji danych.
Od lat wspieramy duże, rozpoznawalne marki z sektora finansowego, energetycznego, ochrony zdrowia, retailu
i IT, zapewniając im stabilność i bezpieczeństwo systemów krytycznych.
Jesteśmy spółką z polskim kapitałem, zarządzaną w całości w Polsce. Zatrudniamy blisko 200 specjalistów w biurach w Katowicach i Warszawie.