Testowanie

Jailbraining: Test Granic LLM i Bezpieczeństwo AI

Bardzo wiele modeli językowych (LLM) ma narzucone ograniczenia. Mechanizmy te mają na celu zapewnienie bezpieczeństwa, zgodności z przepisami oraz ochronę przed generowaniem nieodpowiednich treści. Natomiast wielu entuzjastów technologii znalazło sposoby na łamanie takich zabezpieczeń, tym samym testując skuteczność ochrony. To zjawisko popularnie nazywane jest jako jailbreaking. Czym jest jailbreaking? Jailbreaking to proces, który w pewnym […]

Jailbraining: Test Granic LLM i Bezpieczeństwo AI Czytaj dalej »

AI, Bezpieczeństwo, LLM, Testowanie

Jak ulepszyć jakość kodu? Czyli trochę o testach mutacyjnych

Czym są testy mutacyjne? Testy mutacyjne polegają na wprowadzaniu sztucznych zmian (mutantów) do kodu źródłowego w celu sprawdzenia, czy istniejące testy jednostkowe są wystarczająco dokładne i potrafią wykryć błędy. Mutacje te symulują potencjalne błędy, które programiści mogą popełnić podczas pisania kodu. Po co używać testy mutacyjne? Testy mutacyjne pozwalają weryfikować testy jednostkowe np. sprawdzając czy

Jak ulepszyć jakość kodu? Czyli trochę o testach mutacyjnych Czytaj dalej »

Testowanie
Scroll to Top