Programowanie

Halucynacje AI – dlaczego sztuczna inteligencja czasami kłamie?

Sztuczna inteligencja potrafi być niezwykle pomocna, ale czasami generuje nieprawdziwe lub niespójne informacje. Zjawisko to nazywamy halucynacjami AI. W tym artykule dowiesz się, czym są halucynacje AI, jakie są ich rodzaje oraz jak sobie z nimi radzić. Wyobraź sobie sytuację: pytasz chatbota o historię Polski, a ten z pełnym przekonaniem informuje cię, że Mikołaj Kopernik […]

Halucynacje AI – dlaczego sztuczna inteligencja czasami kłamie? Czytaj dalej »

Agenci AI, AI, LLM, Poradniki

Unikanie limitu Context Window w budowie Agentów AI – Jak to zrobić?

Podczas wykorzystywania modelu LLM koniecznym elementem, który trzeba brać pod uwagę jest jego context window czyli ilość tokenów które jest w stanie przetworzyć w jednej sesji. Jeśli korzystasz z LLM do małych zadań być może nawet nie wziąłeś pod uwagę tego aspektu, natomiast jest to bardzo ważne z punktu widzenia bardziej złożonych zadań. Przekroczenie limitu

Unikanie limitu Context Window w budowie Agentów AI – Jak to zrobić? Czytaj dalej »

Agenci AI, AI, LLM, Poradniki

Jak stworzyć agenta AI – kluczowe cechy

Podczas tworzenia agenta AI, chcemy aby nasz agent nie tylko działał, ale także był wydajny i możliwie niezawodny. Wyróżniłem kilka zasad, które według mnie pozwolą na osiągnięcie tego celu. Określ jasno zadania Agent AI, a w zasadzie LLM pod nim najlepiej sobie radzi jak jest skupiony na jednym konkretnym zadaniu. Trzeba zadbać o to, aby

Jak stworzyć agenta AI – kluczowe cechy Czytaj dalej »

Agenci AI, AI, Dobre praktyki, LLM

SmolAgents: Jak Tworzyć i Wykorzystywać Agentów AI?

Biblioteka SmolAgents od Hugging Face to proste i potężne narzędzie umożliwiające budowanie customowych agentów wspomaganych modelami językowymi (LLM). Ale czym dokładnie są „agenci” i dlaczego warto ich używać? W tym wpisie dowiesz się więcej na ten temat. Czym są agenci AI? Agenci AI to systemy, które wykorzystują modele językowe jako silnik, ale ich działanie wykracza

SmolAgents: Jak Tworzyć i Wykorzystywać Agentów AI? Czytaj dalej »

Agenci AI, AI, LLM, Poradniki

LLM: Jak Zapobiegać Ujawnianiu Wrażliwych Informacji?

Ujawnienie wrażliwych informacji w aplikacjach wykorzystujących modele językowe (LLM), może być poważnym zagrożeniem dla prywatności, bezpieczeństwa danych i ochrony własności intelektualnej. Jednak istnieją metody pozwalające temu zapobiec. Czym jest ujawnianie wrażliwych informacji? Wrażliwe informacje czyli takie dane, które mogą mieć wpływ na prywatność użytkowników lub bezpieczeństwo aplikacji. Obejmuje to: Modele LLM mogą nieświadomie ujawniać te

LLM: Jak Zapobiegać Ujawnianiu Wrażliwych Informacji? Czytaj dalej »

AI, Bezpieczeństwo, LLM, Poradniki

Thread Summarization w LLM: Jak nauczyć AI pamiętać kontekst rozmowy?

Podczas tworzenia aplikacji wykorzystujących modele językowe (LLM) naturalnym jest, że przy zadaniu pytaniu pytania, chcemy mieć możliwość odnoszenia się do uzyskanej odpowiedzi lub informacji zawartej w pytaniu. Chcemy, żeby model “zapamiętał” to co zostało powiedziane wcześniej. Natomiast natura modeli LLM jest odwrotna. Ich bezstanowość powoduje, że każde wywołanie API to rozpoczęcie rozmowy od początku –

Thread Summarization w LLM: Jak nauczyć AI pamiętać kontekst rozmowy? Czytaj dalej »

AI, Dobre praktyki, LLM, Poradniki

Fine-Tuning w OpenAI: Jak Dostosować Model do Twoich Potrzeb i Poprawić Wyniki

Po co stosować Fine-Tuning? Gdy odpowiedzi modelu nie spełniają naszych oczekiwań, fine-tuning umożliwia lepsze dostosowanie modelu do pożądanych rezultatów. Dzięki temu można osiągnąć: Kiedy stosować Fine-Tuning? Fine-tuning ma sens, gdy łatwiej jest nam pokazać modelowi, co ma robić, niż to opisywać. Warto także pamiętać, że będzie on najbardziej efektywny, gdy potrzeby użytkowników są dobrze zdefiniowane

Fine-Tuning w OpenAI: Jak Dostosować Model do Twoich Potrzeb i Poprawić Wyniki Czytaj dalej »

AI, LLM, Poradniki

Jak tworzyć skuteczne prompt dla LLM i optymalizować ich działanie

Model LLM, jak wspominałem w LLM na co dzień: Co każdy programista powinien wiedzieć, służy do przetwarzania naturalnego języka, co za tym idzie komunikacja może odbywać się w takim sam sposób co z drugim człowiekiem. Aczkolwiek należy pamiętać, że taki typ komunikacji nie zawsze będzie efektywny. Czym jest prompt engineering? Właśnie tutaj wkracza prompt engineering,

Jak tworzyć skuteczne prompt dla LLM i optymalizować ich działanie Czytaj dalej »

AI, Dobre praktyki, LLM, Poradniki

LLM na co dzień: Co każdy programista powinien wiedzieć

Zacznijmy od tego, czym jest LLM (Large Language Model)? Są to algorytmy sztucznej inteligencji wyszkolone na olbrzymich ilościach danych, co pozwala im na analizę i generowanie języka naturalnego. Poprzez takie szkolenie umieją wyłapywać wzorce i zależności między słowami. Co za tym idzie jeśli dany model uczony był na starszych materiałach, może nie być w stanie

LLM na co dzień: Co każdy programista powinien wiedzieć Czytaj dalej »

AI, LLM, Poradniki

O co chodzi w Dependency Injection?

Dependency Injection (Wstrzykiwanie Zależności) jest istotnym elementem w programowaniu obiektowym. Jest to technika, która która polega na tym aby zależność wprowadzić do obiektu z zewnątrz na przykład poprzez konstruktor danej klasy. A po co taki zabieg? Ponieważ pomaga nam w tworzeniu bardziej elastycznych, testowalnych i zrozumiałych aplikacji. Po co używać Dependency Injection? Sposoby implementacji w

O co chodzi w Dependency Injection? Czytaj dalej »

Dobre praktyki, Programowanie
Scroll to Top