Cyfroteka.pl

klikaj i czytaj online

Cyfro
Czytomierz
00348 007496 20954012 na godz. na dobę w sumie
Python w uczeniu maszynowym - ebook/pdf
Python w uczeniu maszynowym - ebook/pdf
Autor: Liczba stron: 224
Wydawca: Promise Język publikacji: polski
ISBN: 978-83-754-1366-3 Data wydania:
Lektor:
Kategoria: ebooki >> komputery i informatyka >> programowanie >> python - programowanie
Porównaj ceny (książka, ebook, audiobook).

Ten praktyczny przewodnik pozwoli osiągnąć biegłość w stosowaniu uczenia maszynowego w codziennej pracy. Autor, Matthew Kirk, bez akademickich rozważań pokazuje, jak integrować i testować algorytmy uczenia maszynowego w swoim kodzie. Książka przedstawia wykorzystanie testów z użyciem bibliotek naukowych NumPy, Pandas, Scikit-Learn oraz SciPy dla języka Python, ilustrując je licznymi wykresami oraz przykładami kodu. Książka ta pomoże programistom i analitykom biznesowym zainteresowanym badaniem danych w: Zapoznaniu się z rzeczywistymi przykładami testowania poszczególnych algorytmów poprzez zajmujące ćwiczenia praktyczne. Stosowaniu programowania sterowanego testami do pisania i uruchamiania testów przed rozpoczęciem kodowania. Badaniu technik poprawiających nasze modele uczenia maszynowego poprzez wydobywanie danych i opracowywanie funkcjonalności. Zwracaniu uwagi na ryzyka związane z uczeniem maszynowym takie jak niedopasowanie danych. Pracy z algorytmem K najbliższych sąsiadów, sieciami neuronowymi, klastrami i innymi technikami. Matthew Kirk jest konsultantem, autorem i międzynarodowym prelegentem, specjalizującym się w uczeniu maszynowym i analizie danych z wykorzystaniem języków Ruby i Python. Mieszka w Seattle i lubi pomagać innym programistom w integrowaniu analizy danych ze stosowanymi przez nich technologiami. Więcej zasobów dotyczących uczenia maszynowego można znaleźć pod adresem www.matthewkirk.com.

Znajdź podobne książki Ostatnio czytane w tej kategorii

Darmowy fragment publikacji:

Python w uczeniu maszynowym Podejście sterowane testami Matthew Kirk przekład: Jakub Niedźwiedź APN Promise Warszawa 2018 Spis treści Wstęp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix Podziękowania. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi 1. W przybliżeniu prawdopodobnie poprawne oprogramowanie . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Prawidłowe pisanie oprogramowania. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 SOLID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Testowanie albo TDD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 Refaktoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 Pisanie prawidłowego oprogramowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 Pisanie odpowiedniego oprogramowania przy zastosowaniu uczenia maszynowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 Czym dokładnie jest uczenie maszynowe? . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 Wysoko oprocentowany dług uczenia maszynowego . . . . . . . . . . . . . . . . . . . .8 Zastosowanie zasad SOLID w uczeniu maszynowym. . . . . . . . . . . . . . . . . . . .9 Kod uczenia maszynowego jest skomplikowany . . . . . . . . . . . . . . . . . . . . . . .13 TDD: metoda naukowa 2.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13 Refaktoring wiedzy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13 Plan tej książki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14 2. Szybkie wprowadzenie do uczenia maszynowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15 Czym jest uczenie maszynowe?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15 Uczenie nadzorowane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16 Uczenie nienadzorowane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17 Uczenie wzmacniane. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17 Co może osiągnąć uczenie maszynowe? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17 Notacja matematyczna używana w tej książce. . . . . . . . . . . . . . . . . . . . . . . . . . . .19 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20 3. K najbliższych sąsiadów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .21 Jak ustalić, czy chcemy kupić dom? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .21 Ile wart jest dany dom? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 Regresja hedonistyczna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 Czym jest sąsiedztwo?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23 K najbliższych sąsiadów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .24 Najbliższe sąsiedztwo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .24 iii Odległości. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 Nierówność trójkąta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 Odległość geometryczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26 Odległości obliczeniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .27 Odległości statystyczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30 Przekleństwo wymiarowości . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .31 Jak wybrać K?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .32 Zgadywanie K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 Heurystyka wyboru K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 Wycenianie domów w Seattle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 Informacje o danych. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 Ogólna strategia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37 Projekt kodowania i testowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37 Konstrukcja regresora dla algorytmu K najbliższych sąsiadów . . . . . . . . . . .38 Testowanie algorytmu K najbliższych sąsiadów. . . . . . . . . . . . . . . . . . . . . . . .40 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 4. Naiwna klasyfikacja bayesowska . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 Wykorzystanie twierdzenia Bayesa do znajdywania oszukańczych zamówień 45 Prawdopodobieństwa warunkowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .46 Symbole prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .46 Odwrócone prawdopodobieństwo warunkowe (czyli twierdzenie Bayesa) . . .48 Naiwny klasyfikator bayesowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 Reguła łańcuchowa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 Naiwność w rozumowaniu bayesowskim. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 Pseudozliczanie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .51 Filtr spamu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .52 Uwagi przygotowawcze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .52 Projekt kodowania i testowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .52 Źródło danych. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .53 EmailObject. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .53 Analiza leksykalna i kontekst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58 SpamTrainer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .60 Minimalizacja błędów przez sprawdzanie krzyżowe. . . . . . . . . . . . . . . . . . . .67 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .70 5. Drzewa decyzyjne i losowe lasy decyzyjne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .71 Niuanse dotyczące grzybów. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .72 Klasyfikowanie grzybów przy wykorzystaniu wiedzy ludowej . . . . . . . . . . . . . .73 Znajdowanie optymalnego punktu zwrotnego . . . . . . . . . . . . . . . . . . . . . . . . . . .74 Zysk informacyjny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .75 Niejednorodność Giniego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .76 iv | Spis treści Redukcja wariancji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .77 Przycinanie drzew . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .77 Uczenie zespołowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .77 Pisanie klasyfikatora grzybów. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .79 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .87 6. Ukryte modele Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .89 Śledzenie zachowania użytkownika przy użyciu automatów skończonych. . . .89 Emisje/obserwacje stanów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .91 Uproszczenie poprzez założenie Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .93 Wykorzystanie łańcuchów Markowa zamiast automatu skończonego . . . . .93 Ukryty model Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .94 Ocena: algorytm Naprzód-Wstecz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .94 Matematyczne przedstawienie algorytmu Naprzód-Wstecz . . . . . . . . . . . . .94 Wykorzystanie zachowania użytkownika . . . . . . . . . . . . . . . . . . . . . . . . . . . . .96 Problem dekodowania poprzez algorytm Viterbiego. . . . . . . . . . . . . . . . . . . . . .98 Problem uczenia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .99 Oznaczanie części mowy z wykorzystaniem korpusu Browna . . . . . . . . . . . . .100 Uwagi przygotowawcze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .100 Projekt kodowania i testowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .100 Podstawa naszego narzędzia do oznaczania części mowy: CorpusParser .101 Pisanie narzędzia do oznaczania części mowy . . . . . . . . . . . . . . . . . . . . . . . .103 Sprawdzanie krzyżowe w celu potwierdzenia poprawności modelu. . . . . .110 Jak ulepszyć ten model. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .111 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .112 7. Maszyny wektorów nośnych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .113 Zadowolenie klientów jako funkcja tego, co mówią. . . . . . . . . . . . . . . . . . . . . .113 Klasyfikacja nastrojów przy użyciu maszyn wektorów nośnych . . . . . . . . .114 Teoria stojąca za maszynami wektorów nośnych . . . . . . . . . . . . . . . . . . . . . . . .115 Granica decyzyjna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .117 Maksymalizowanie granic. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .117 Sztuczka jądrowa: transformacja cech. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118 Optymalizacja przez poluzowanie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120 Analizator nastrojów. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .121 Uwagi przygotowawcze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .121 Projekt kodowania i testowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .121 Strategie testowania maszyny wektorów nośnych . . . . . . . . . . . . . . . . . . . . .122 Klasa Corpus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .122 Klasa CorpusSet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .125 Sprawdzanie poprawności modelu i klasyfikator nastrojów . . . . . . . . . . . .128 Agregowanie nastrojów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .132 Spis treści | v Wykładnicza ważona średnia ruchoma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .133 Mapowanie nastroju do wyniku finansowego. . . . . . . . . . . . . . . . . . . . . . . . . . .134 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .134 8. Sieci neuronowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .135 Czym jest sieć neuronowa? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .135 Historia sieci neuronowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .136 Logika boolowska . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .136 Perceptrony. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .137 Jak konstruować sieci neuronowe ze sprzężeniem w przód . . . . . . . . . . . . . . .137 Warstwa wejściowa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138 Warstwy ukryte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .140 Neurony . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141 Funkcje aktywacyjne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .142 Warstwa wyjściowa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .147 Algorytmy uczące. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .147 Zasada delty. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .148 Propagacja wsteczna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .149 QuickProp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .149 RProp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .150 Budowanie sieci neuronowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .151 Ile ukrytych warstw? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .151 Ile neuronów dla każdej warstwy? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .152 Tolerancja błędów i maksymalna liczba epok . . . . . . . . . . . . . . . . . . . . . . . .152 Wykorzystanie sieci neuronowej do klasyfikowania języków. . . . . . . . . . . . . .153 Uwagi przygotowawcze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .153 Projekt kodowania i testowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .154 Dane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .154 Pisanie testu podstawowego dla języka . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .154 Przejście do klasy Network . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .157 Dostrajanie sieci neuronowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .161 Precyzja i czułość w sieciach neuronowych . . . . . . . . . . . . . . . . . . . . . . . . . .161 Podsumowanie przykładu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .161 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .161 9. Grupowanie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .163 Badanie danych bez żadnego błędu systematycznego . . . . . . . . . . . . . . . . . . . .163 Kohorty użytkowników . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .164 Testowanie mapowań do grup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .166 Zdatność grupy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .166 Współczynnik zarysu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .166 Porównywanie wyników z prawdą bazową. . . . . . . . . . . . . . . . . . . . . . . . . . .167 vi | Spis treści Grupowanie K-średnich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .167 Algorytm K-średnich. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .168 Słabe strony grupowania K-średnich. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .169 Grupowanie przez maksymalizację wartości oczekiwanej . . . . . . . . . . . . . . . .169 Algorytm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .170 Twierdzenie o niemożności . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .171 Przykład: kategoryzowanie muzyki. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172 Uwagi przygotowawcze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172 Zbieranie danych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .173 Projekt kodowania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .173 Analizowanie danych przez algorytm K-średnich. . . . . . . . . . . . . . . . . . . . .174 Grupowanie naszych danych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .175 Wyniki z grupowania danych dotyczących muzyki jazzowej z użyciem maksymalizowania wartości oczekiwanej. . . . . . . . . . . . . . . . . . . . . . . . . . . .180 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .182 10. Poprawianie modeli i wydobywania danych. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183 Klub dyskusyjny. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183 Wybieranie lepszych danych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .184 Wybieranie cech . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .184 Wyczerpujące wyszukiwanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .187 Losowe wybieranie cech . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .188 Lepszy algorytm wybierania cech . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .189 Wybieranie cech przez minimalizowanie redundancji i maksymalizowanie istotności. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .190 Transformacja cech i rozkład macierzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .191 Analiza głównych składowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .191 Analiza niezależnych składowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .193 Uczenie zespołowe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .195 Grupowanie typu bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .195 Boosting. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .195 Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .197 11. Łączenie wszystkiego razem: Podsumowanie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .199 Przypomnienie algorytmów uczenia maszynowego. . . . . . . . . . . . . . . . . . . . . .199 Jak wykorzystywać te informacje do rozwiązywania problemów. . . . . . . . . . .201 Co dalej? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .202 O autorze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .203 Kolofon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .203 Spis treści | vii
Pobierz darmowy fragment (pdf)

Gdzie kupić całą publikację:

Python w uczeniu maszynowym
Autor:

Opinie na temat publikacji:


Inne popularne pozycje z tej kategorii:


Czytaj również:


Prowadzisz stronę lub blog? Wstaw link do fragmentu tej książki i współpracuj z Cyfroteką: