Książki
Papiernia
Zabawki
Gry
Puzzle
Multimedia
Dom i ogród
Promocje
Na prezent
Skarpetki
LEGO

Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging Face

Okładka książki Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging Face

Szczegóły:

Wydawca: Helion
ISBN: 978-83-289-0711-9
EAN: 9788328907119
oprawa: Miękka
podtytuł: Budowanie aplikacji językowych za pomocą bibliotek Hugging Face
Tłumaczenie: Grzegorz Werner
tytuloryg: Natural Language Processing with Transformers, Revised Edition
wydanie: 1
format: 236x170 mm
język: polski
liczba stron: 360
rok wydania: 2024
(0) Sprawdź recenzje
Cena:
58,17 zł
Cena detaliczna: 
99,00 zł
41% rabatu
WYSYŁKA: 48h
Dodaj do koszyka
Dodaj do schowka
Najniższa cena z ostatnich 30 dni: 55,59

Opis

Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging Face Modele transformacyjne zmieniły sposób przetwarzania języka naturalnego. Rewolucja rozpoczęła się w 2017 roku, kiedy zaprezentowano światu tę architekturę sieci neuronowej. Kolejnym przełomem okazały się repozytoria modeli, takie jak biblioteka Transformers zespołu Hugging Face, która umożliwia łatwe pobranie wstępnie wytrenowanego modelu, jego konfigurację i użytkowanie. Poznaj niesamowite możliwości: wszędzie tam, gdzie jest mowa lub tekst, istnieją zastosowania NLP. Niezwykle przejrzysty i wnikliwy przewodnik po najważniejszej bibliotece współczesnego NLP. Polecam! Christopher Manning, profesor Uniwersytetu Stanforda Tę książkę docenią praktycy: inżynierowie uczenia maszynowego i analitycy danych, poszukujący sposobu praktycznego zaadaptowania modeli transformacyjnych do swoich potrzeb. Autorzy skupili się na praktycznej stronie tworzenia aplikacji językowych, a w poszczególnych rozdziałach ujęto wszystkie najważniejsze zastosowania transformerów w NLP. Zaczniesz od łatwych w użyciu potoków, następnie przystąpisz do pracy z tokenizatorami, klasami modeli i interfejsu Trainer API, pozwalającymi na trenowanie modeli do konkretnych zastosowań. Dowiesz się również, jak zastąpić interfejs Trainer biblioteką Accelerate, która zapewnia pełną kontrolę nad pętlą treningową i umożliwia trenowanie dużych transformerów od zera! W książce: tworzenie modeli transformacyjnych przeznaczonych do typowych zadań NLP stosowanie transformerów do międzyjęzykowego uczenia transferowego używanie transformerów w rzeczywistych scenariuszach optymalizacja modeli technikami: destylacji, przycinania i kwantyzacji trenowanie modeli transformacyjnych z wykorzystaniem wielu procesorów graficznych w środowisku rozproszonym Autorzy książki są współtwórcami platformy Hugging Face. Wybitna książka poświęcona wybitnej bibliotece - wzór przejrzystości! Jeremy Howard, profesor Uniwersytetu Queensland

Uwaga!!!
Ten produkt jest zapowiedzią. Realizacja Twojego zamówienia ulegnie przez to wydłużeniu do czasu premiery tej pozycji. Czy chcesz dodać ten produkt do koszyka?
Tak
Nie
Oczekiwanie na odpowiedź
Dodano produkt do koszyka
Kontynuuj zakupy
Przejdź do koszyka
Oczekiwanie na odpowiedź
Oczekiwanie na odpowiedź
Wybierz wariant produktu
Dodaj do koszyka
Anuluj
Oczekiwanie na odpowiedź