Książki
Papiernia
Zabawki
Gry
Puzzle
Multimedia
Różności
Skarpetki
LEGO
Promocje
NOWOŚĆ

Bezpieczeństwo aplikacji LLM. Niezbędnik dla programistów, projektantów i red teamów

Okładka książki Bezpieczeństwo aplikacji LLM. Niezbędnik dla programistów, projektantów i red teamów

Szczegóły:

Autor: Steve Wilson

Wydawca: Helion
ISBN: 9788328923089
EAN: 9788328923089
oprawa: Miękka
Tłumaczenie: Górczyński Robert
tytuloryg: The Developer's Playbook for Large Language Model Security: Building Secure AI Applications
wydanie: 1
format: 16.5x23.5cm
język: polski
liczba stron: 208
rok wydania: 2025
(0) Sprawdź recenzje
Cena:
46,97 zł
Cena detaliczna: 
79,00 zł
41% rabatu
WYSYŁKA: 48h
Dodaj do koszyka
Dodaj do schowka
Najniższa cena z ostatnich 30 dni: 51,87

Bezpieczeństwo aplikacji LLM. Niezbędnik dla programistów, projektantów i red teamów Czy nie masz wrażenia, że niemal każdy do swojego stosu oprogramowania pośpiesznie dołącza aplikacje oparte na dużych modelach językowych? Możliwości tej fascynującej technologii wydają się nieograniczone. Ale nie popadaj jeszcze w euforię. Jest haczyk. Bezpieczeństwo. Konsekwencje skutecznego ataku na aplikację LLM mogą się okazać katastrofalne. Ta książka sprawi, że łatwiej sprostasz wyzwaniom i zdobędziesz specjalistyczną wiedzę, aby zabezpieczyć swoje aplikacje LLM! MArten Mickos, CEO, HackerOne Dzięki tej praktycznej książce dogłębnie poznasz zagrożenia specyficzne dla aplikacji opartych na dużych modelach językowych, przeanalizujesz ich charakterystyczne cechy i dowiesz się, jak wyglądają luki w zabezpieczeniach. W ten sposób zdobędziesz praktyczną wiedzę, która podczas tworzenia oprogramowania korzystającego z LLM okazuje się bezcenna. Zapoznasz się również z licznymi wskazówkami i strategiami, które pomogą w zabezpieczaniu aplikacji opartych na sztucznej inteligencji. Niezależnie od tego, czy tworzysz zupełnie nową aplikację, czy zajmujesz się dodawaniem funkcjonalności LLM, znajdziesz tu szeroką gamę przydatnych zagadnień, takich jak architektura dużych modeli językowych, granice zaufania, technika RAG, wstrzykiwanie promptów i wiele innych. Ciekawsze zagadnienia: specyfika zabezpieczania dużych modeli językowych eliminowanie zagrożeń związanych z technologią dużych modeli językowych krytyczne granice zaufania wdrażanie mechanizmów chroniących aplikację LLM usprawnianie budowy bezpiecznego oprogramowania opartego na sztucznej inteligencji Lektura obowiązkowa dla innowatorów! Sherri Douville, CEO, Medigram

Uwaga!!!
Ten produkt jest zapowiedzią. Realizacja Twojego zamówienia ulegnie przez to wydłużeniu do czasu premiery tej pozycji. Czy chcesz dodać ten produkt do koszyka?
Tak
Nie
Oczekiwanie na odpowiedź
Dodano produkt do koszyka
Kontynuuj zakupy
Przejdź do koszyka
Oczekiwanie na odpowiedź
Oczekiwanie na odpowiedź
Wybierz wariant produktu
Dodaj do koszyka
Anuluj
Oczekiwanie na odpowiedź