Tytuł: | Obliczenia inteligentne, szybkie przekształcenia i klasyfikatory | | Autor: | Piotr S. Szczepaniak | | ISBN: | 83-87674-77-X | | Ilość stron: | 306 | | Data wydania: | 12/2004 | | Oprawa: | Twarda | | Format: | 17.5x24.5cm | | Wydawnictwo: | Exit | |
| Cena: | 47.25zł | |
Tytuł książki jest kompromisem między chęcią dokładnego oddania zamysłu autora odzwierciedlonego w treści, a potrzebą zwięzłości.
Książka "Obliczenia inteligentne, szybkie przekształcenia i klasyfikatory" jest więc kolejno o sieciach neuronowych, logicznych i (niemal wyłącznie) liniowych. Jest o szybkich przekształceniach dyskretnych, które można zgrabnie realizować właśnie w architekturach liniowych sieci neuronowych. Jest wreszcie o wybranych sposobach klasyfikacji i grupowania - tutaj niejako naturalnie również pojawiają się sieci neuronowe.
Ważny fragment stanowią rzadko spotykane w polskiej literaturze metody klasyfikacji typu SVM (support vector machines). Rezultaty uzyskiwane przez te "uczące się maszyny" dobrze jest odnosić do wyników uzyskiwanych za pomocą metod neuronowych. W wielu miejscach materiału zaznaczają swój udział również algorytmy genetyczne, programowanie genetyczne i teoria zbiorów rozmytych.
Tym samym książka jest o obliczeniach inteligentnych (soft computing). Ten zakreślony tu szkielet sprawia, że dzieło mimo pewnej różnorodności zawiera dobrze się uzupełniający i, w nadziei autora, inspirujący materiał.
Książka może być przydatna szerokiemu gronu odbiorców: naukowcom, nauczycielom akademickim, doktorantom i studentom kierunków technicznych, zwłaszcza informatyki oraz tych kierunków nietechnicznych, w których odważnie korzysta się z najnowszych metod obliczeniowych.
Rozdziały:
1. Wstęp
1.1. Reprezentacja i podobieństwo 1.2. Interfejs 1.3. Rozmyte podobieństwo oparte na regułach 1.4. Neuron i sieć Literatura
2. Adaptacyjne sieci logiczne
2.1. Sieć boolowska 2.2. Sieć oparta na logice rozmytej 2.3. Przykłady zastosowań 2.4. Ewolucyjna adaptacja struktury Literatura
3. Liniowe sieci neuronowe
3.1. Neuron i adaptacja 3.2. Warstaw elementów liniowych - MADALINE 3.3. Uczenie sieci liniowej Literatura
4. Przekształcenia dyskretne i ich efektywne realizacje neuronowe
4.1. Wprowadzenie 4.2. Przekształcenie Karhunena-Loeve'go (KLT) 4.3. Neuronowa interpretacja KLT 4.4. Przekształcenia kosinusowe (DCT) i sinusowe (DT) 4.5. Szybkie implementacje DCT i DST 4.6. Przekształcenie Hartley'a (DHT) i jego szybkie realizacje 4.7. Przekształcenie Fouriera (DFT) 4.8. Realizacja przekształcenia Fouriera 4.9. Neuronowa realizacja wybranych przekształceń 4.10. Kompresja obrazów - przykład zastosowania 4.11. Uogólnione szybkie przekształcenie Jacymirskiego (JCT) 4.12. Dwuwymiarowe przekształcenie FJT Literatura
5. Wybrane klasyfikatory
5.1. Pojedynczy neuron 5.2. Warstwa perceptronów 5.3. Sieć Kohonena 5.4. Cechowana propagacja (CP) 5.5. Klasyfikatory maksymalnoodległościowe (SVM) Literatura
|