AI

Halucynacje AI – dlaczego sztuczna inteligencja czasami kłamie?

Sztuczna inteligencja potrafi być niezwykle pomocna, ale czasami generuje nieprawdziwe lub niespójne informacje. Zjawisko to nazywamy halucynacjami AI. W tym artykule dowiesz się, czym są halucynacje AI, jakie są ich rodzaje oraz jak sobie z nimi radzić. Wyobraź sobie sytuację: pytasz chatbota o historię Polski, a ten z pełnym przekonaniem informuje cię, że Mikołaj Kopernik […]

Halucynacje AI – dlaczego sztuczna inteligencja czasami kłamie? Czytaj dalej »

Agenci AI, AI, LLM, Poradniki

Unikanie limitu Context Window w budowie Agentów AI – Jak to zrobić?

Podczas wykorzystywania modelu LLM koniecznym elementem, który trzeba brać pod uwagę jest jego context window czyli ilość tokenów które jest w stanie przetworzyć w jednej sesji. Jeśli korzystasz z LLM do małych zadań być może nawet nie wziąłeś pod uwagę tego aspektu, natomiast jest to bardzo ważne z punktu widzenia bardziej złożonych zadań. Przekroczenie limitu

Unikanie limitu Context Window w budowie Agentów AI – Jak to zrobić? Czytaj dalej »

Agenci AI, AI, LLM, Poradniki

Jak stworzyć agenta AI – kluczowe cechy

Podczas tworzenia agenta AI, chcemy aby nasz agent nie tylko działał, ale także był wydajny i możliwie niezawodny. Wyróżniłem kilka zasad, które według mnie pozwolą na osiągnięcie tego celu. Określ jasno zadania Agent AI, a w zasadzie LLM pod nim najlepiej sobie radzi jak jest skupiony na jednym konkretnym zadaniu. Trzeba zadbać o to, aby

Jak stworzyć agenta AI – kluczowe cechy Czytaj dalej »

Agenci AI, AI, Dobre praktyki, LLM

SmolAgents: Jak Tworzyć i Wykorzystywać Agentów AI?

Biblioteka SmolAgents od Hugging Face to proste i potężne narzędzie umożliwiające budowanie customowych agentów wspomaganych modelami językowymi (LLM). Ale czym dokładnie są „agenci” i dlaczego warto ich używać? W tym wpisie dowiesz się więcej na ten temat. Czym są agenci AI? Agenci AI to systemy, które wykorzystują modele językowe jako silnik, ale ich działanie wykracza

SmolAgents: Jak Tworzyć i Wykorzystywać Agentów AI? Czytaj dalej »

Agenci AI, AI, LLM, Poradniki

LLM: Jak Zapobiegać Ujawnianiu Wrażliwych Informacji?

Ujawnienie wrażliwych informacji w aplikacjach wykorzystujących modele językowe (LLM), może być poważnym zagrożeniem dla prywatności, bezpieczeństwa danych i ochrony własności intelektualnej. Jednak istnieją metody pozwalające temu zapobiec. Czym jest ujawnianie wrażliwych informacji? Wrażliwe informacje czyli takie dane, które mogą mieć wpływ na prywatność użytkowników lub bezpieczeństwo aplikacji. Obejmuje to: Modele LLM mogą nieświadomie ujawniać te

LLM: Jak Zapobiegać Ujawnianiu Wrażliwych Informacji? Czytaj dalej »

AI, Bezpieczeństwo, LLM, Poradniki

Prompt Injection: Najczęstsze niebezpieczeństwo przy pracy z LLM

Prompt injection znajduje się na szczycie listy OWASP Top 10 największych zagrożeń w modelach językowych. OWASP czyli Open Web Application Security Project, to społeczność internetowa, która tworzy materiały dotyczące bezpieczeństwa aplikacji webowych. Czym jest Prompt Injection? Zacznijmy od początku. Czym tak w ogóle jest prompt injection? Jest to atak polegający na wstrzyknięciu niepożądanych treści do

Prompt Injection: Najczęstsze niebezpieczeństwo przy pracy z LLM Czytaj dalej »

AI, Bezpieczeństwo, LLM

Bazy wektorowe: Vector Embedding i Zastosowanie

Czym jest baza wektorowa? Baza wektorowa w matematyce odnosi się do zbioru wektorów, które są liniowo niezależne i rozpinają całą przestrzeń wektorową. Mówiąc prościej, bazy wektorowe to sposób na opisanie przestrzeni w najprostszy możliwy sposób przy pomocy minimalnej liczby elementów. Baza wektorowa w kontekście AI Podczas tworzenia rozwiązań opartych o modele LLM, zwłaszcza w kontekście

Bazy wektorowe: Vector Embedding i Zastosowanie Czytaj dalej »

AI, LLM

Thread Summarization w LLM: Jak nauczyć AI pamiętać kontekst rozmowy?

Podczas tworzenia aplikacji wykorzystujących modele językowe (LLM) naturalnym jest, że przy zadaniu pytaniu pytania, chcemy mieć możliwość odnoszenia się do uzyskanej odpowiedzi lub informacji zawartej w pytaniu. Chcemy, żeby model “zapamiętał” to co zostało powiedziane wcześniej. Natomiast natura modeli LLM jest odwrotna. Ich bezstanowość powoduje, że każde wywołanie API to rozpoczęcie rozmowy od początku –

Thread Summarization w LLM: Jak nauczyć AI pamiętać kontekst rozmowy? Czytaj dalej »

AI, Dobre praktyki, LLM, Poradniki

Fine-Tuning w OpenAI: Jak Dostosować Model do Twoich Potrzeb i Poprawić Wyniki

Po co stosować Fine-Tuning? Gdy odpowiedzi modelu nie spełniają naszych oczekiwań, fine-tuning umożliwia lepsze dostosowanie modelu do pożądanych rezultatów. Dzięki temu można osiągnąć: Kiedy stosować Fine-Tuning? Fine-tuning ma sens, gdy łatwiej jest nam pokazać modelowi, co ma robić, niż to opisywać. Warto także pamiętać, że będzie on najbardziej efektywny, gdy potrzeby użytkowników są dobrze zdefiniowane

Fine-Tuning w OpenAI: Jak Dostosować Model do Twoich Potrzeb i Poprawić Wyniki Czytaj dalej »

AI, LLM, Poradniki

Jak tworzyć skuteczne prompt dla LLM i optymalizować ich działanie

Model LLM, jak wspominałem w LLM na co dzień: Co każdy programista powinien wiedzieć, służy do przetwarzania naturalnego języka, co za tym idzie komunikacja może odbywać się w takim sam sposób co z drugim człowiekiem. Aczkolwiek należy pamiętać, że taki typ komunikacji nie zawsze będzie efektywny. Czym jest prompt engineering? Właśnie tutaj wkracza prompt engineering,

Jak tworzyć skuteczne prompt dla LLM i optymalizować ich działanie Czytaj dalej »

AI, Dobre praktyki, LLM, Poradniki
Scroll to Top