Największe błędy w używaniu AI przez testerów – czego unikać w pracy z ChatGPT i sztuczną inteligencją

Kiedy pierwszy raz zobaczyłem, jak ChatGPT generuje przypadki testowe z opisów wymagań, pomyślałem: „To jest game changer!”. I rzeczywiście — narzędzia oparte o sztuczną inteligencję mogą niesamowicie przyspieszyć pracę testera. Ale… tylko wtedy, gdy wiemy jak z nich korzystać.

Niestety, w ostatnich miesiącach widzę coraz więcej przykładów, jak AI zamiast pomagać — po prostu ogłupia testerów. Brzmi ostro? Może trochę, ale prawda jest taka, że wielu z nas przestało myśleć krytycznie, bo AI „i tak wszystko zrobi za nas”.

Dlatego zebrałem największe błędy, które obserwuję, i które sam popełniłem na początku.

błędy ai w testowaniu oprogramowania

1. Bezrefleksyjne kopiowanie odpowiedzi z ChatGPT

To absolutny klasyk.
Tester wpisuje prompt typu:

„Write test cases for login functionality.”

AI wyrzuca 10 ładnie sformatowanych przypadków testowych i… koniec. Tester wkleja je do Jiry, raportu czy dokumentacji. Bez analizy, bez sprawdzenia, czy faktycznie mają sens w kontekście systemu, który testuje.

A potem okazuje się, że AI zaproponowało test przypadków, które w tej aplikacji w ogóle nie istnieją, albo użyło terminów, których nie ma w projekcie.

Pamiętaj: AI nie zna Twojej aplikacji, nie widzi ekranu, nie zna ograniczeń biznesowych.
Jeśli ślepo wklejasz wyniki, to nie jesteś testerem — jesteś „kopiuj-wklej-operatorem”.

2. Brak weryfikacji danych generowanych przez AI

Drugi problem to dane testowe.
Wielu testerów myśli, że skoro ChatGPT potrafi wygenerować przykładowe JSON-y, to są one poprawne. Tymczasem w 70% przypadków nie są zgodne z formatem, typami danych czy zależnościami biznesowymi.

Przykład?
Prośba o wygenerowanie danych klientów, a AI wstawia nazwisko do pola companyName, datę w formacie, którego backend nie przyjmuje, albo generuje NIP w niewłaściwej długości.

Rozwiązanie jest proste: traktuj to jako szkic, a nie gotowy materiał.
AI nie zna Twojego schematu bazy danych, walidacji, ani wymagań. Ty — tak.

3. Zastępowanie procesu analizy wymagania promptem

Zamiast przeczytać dokumentację, tester wrzuca ją do AI z prośbą:

„Summarize requirements and generate test cases.”

Efekt?
AI tworzy streszczenie, które brzmi ładnie, ale często pomija niuanse, skróty myślowe czy niejasności, które człowiek natychmiast by wychwycił.

Prawdziwa wartość testera polega właśnie na tym, że zadaje pytania.
AI nie zapyta: „A co jeśli użytkownik ma uprawnienia tylko do części modułów?”.
Ty musisz to zrobić.

4. Zaufanie do AI przy analizie błędów bez kontekstu

Ten błąd stał się bardzo powszechny — ktoś wrzuca stack trace albo loga i pyta:

„What’s the reason of this error?”

AI odpisuje: „NullPointerException occurs when you try to access an object that is null.”

I tester mówi: „aha”, zamyka temat.
Ale AI nie ma Twojego kodu, środowiska, danych testowych.
Odpowiedź jest poprawna… ale całkowicie bezużyteczna.

AI nie zastąpi debugowania, nie wejdzie w Twój kod, nie zobaczy, jak dane przepływają przez system.
Może Ci pomóc zrozumieć mechanizm błędu, ale to Ty musisz postawić diagnozę.

5. Używanie AI do generowania testów automatycznych „na ślepo”

To dopiero niebezpieczne.
Część testerów prosi ChatGPT o napisanie testów w Cypressie czy Postmanie i nawet ich nie uruchamia. Wklejają kod, który wygląda dobrze, ale w praktyce nigdy by nie przeszedł — błędne selektory, złe endpointy, brak autoryzacji, zła struktura testu.

AI jest świetne do pomocy w nauce — może pokazać składnię, wytłumaczyć koncepcję.
Ale generowanie testów, które mają działać w realnym projekcie, wymaga doświadczenia i znajomości aplikacji.

Zawsze sprawdź, uruchom, popraw.

6. Brak świadomości ryzyka związanego z danymi

Wielu testerów wrzuca do ChatGPT prawdziwe dane produkcyjne — logi, requesty, imiona klientów, tokeny, numery kont.
I to jest kardynalny błąd.

Nawet jeśli AI twierdzi, że nie przechowuje danych, to w praktyce każde narzędzie online może być ryzykowne, jeśli nie działa w środowisku firmowym (np. ChatGPT Enterprise).

Dlatego:

  • Nigdy nie wrzucaj danych produkcyjnych,

  • Anonimizuj logi,

  • Używaj sztucznych danych,

  • Sprawdzaj regulaminy i polityki prywatności.

7. Brak refleksji nad tym, po co używam AI

To może najważniejszy punkt.
Wielu testerów używa AI, bo „wszyscy tak robią”.
Ale nikt nie zadaje sobie pytania: co chcę dzięki temu osiągnąć?

AI nie jest magiczną różdżką.
Jeśli Twoje procesy testowe są chaotyczne, dokumentacja nie istnieje, a komunikacja w zespole leży — AI nie rozwiąże tego.
To tylko narzędzie.
I jak każde narzędzie, może albo pomóc Ci wejść na wyższy poziom, albo sprawić, że staniesz się leniwy.

Podsumowanie

Nie jestem przeciwnikiem AI. Wręcz przeciwnie — używam go codziennie:
do analizy logów, do generowania danych, do tworzenia raportów i streszczeń.

Ale robię to z głową.
Bo AI nie zastąpi myślenia.
I jeśli tester zapomina o tym, co jest jego prawdziwą rolą — analizować, zadawać pytania, myśleć krytycznie — to nawet najlepszy model językowy nic tu nie pomoże.

To nie AI robi błędy.
To my przestaliśmy myśleć.

Dostępne szkolenia

pakiet premium