DZIEKAN i RADA WYDZIAŁU INFORMATYKI, ELEKTRONIKI I TELEKOMUNIKACJI AKADEMII GÓRNICZO-HUTNICZEJ im. ST. STASZICA W KRAKOWIE |
---|
zapraszają na publiczą dyskusję nad rozprawą doktorską mgr inż. Marcina Orchela |
Incorporating Prior Knowledge into SVM Algorithms in Analysis of Multidimensional Data |
Dyskusja odbędzie się 3 kwietnia 2013 roku o godz. 12:00 w sali 1.36 pawilon D-17, ul. Kawiory 21, 30-059 Kraków |
PROMOTOR: Prof. dr hab. inż. Witold Dzwinel, Akademia Górniczo-Hutnicza |
RECENZENCI: Prof. Vojislav Kecman - Virginia Commonwealth University |
dr hab. Maciej Paszyński, prof. n. AGH - Akademia Górniczo-Hutnicza |
Z rozprawą doktorską i opiniami recenzentów można się zapoznać w Czytelni Biblioteki Głównej AGH, al. Mickiewicza 30 |
mgr inż. Marcin Orchel
Promotor: prof. dr hab. inż. Witold Dzwinel (AGH)
Dyscyplina: Informatyka
Praca ta dotyczy maszyn wektorów wspierających (SVM), nowoczesnej metody maszynowego uczenia się, która wyszukuje zależności w danych. Ostatnimi czasy SVMy stały się pełnoprawną dziedziną naukową, która obejmuje nie tylko teorię maszynowego uczenia się, ale także teorię optymalizacji, geometrię wielowymiarową oraz teorię funkcji liniowych. Podstawowymi problemami maszynowego uczenia się są klasyfikacja i regresja, dla obu problemów powstały efektywne warianty SVM. Powstało również wiele rozszerzeń SVM, a wśród nich rozszerzenia umożliwiające włączanie dodatkowej wiedzy.
Badania objęte tematyką pracy doprowadziły do opracowania nowoczesnej metody regresji, która rozwiązuje problem regresji za pomocą binarnej klasyfikacji. Metoda ta, oraz koncepcja stojąca za nią rzuca nowe światło na relację miedzy dwoma najważniejszymi problemami maszynowego uczenia się. Drugim elementem badań była analiza dodatkowej wiedzy w postaci wielkości marginesu per przykład. Jest to naturalne rozszerzenie SVM, ponieważ podstawową koncepcją SVM jest margines. Trzecim elementem badań była analiza implementacji SVM oraz zastosowanie w tematyce finansowej.
Streszczenie
W niniejszej pracy, proponujemy metodę, zwaną δ regresja wektorów wspierających (δ-SVR), która polega na zamianie problemu regresji w problemy binarnej klasyfikacji, które są rozwiązywane za pomocą maszyny wektorów wspierających (SVM). Analizujemy statystyczną równoważność problemu regresji z problemem binarnej klasyfikacji. Pokazujemy potencjalną możliwość ulepszenia ograniczeń błędu generalizacji opartych na wymiarze Vapnik-Chervonenkisa (VC), w porównaniu do SVM. Wykonaliśmy eksperymenty porównujące δ-SVR z ε regresją wektorów wspierających (ε-SVR) na syntetycznych i rzeczywistych zbiorach danych. Rezultaty wskazują, że δ-SVR osiąga porównywalny błąd generalizacji, mniej wektorów wspierających oraz mniejszy błąd generalizacji dla różnych wartości ε i δ. Metoda δ-SVR jest szybsza dla liniowych jąder używając metody minimalnej optymalizacji sekwencyjnej (SMO), dla nieliniowych jąder rezultaty szybkości zależą od zbioru danych. W niniejszej pracy proponujemy metodę zwaną ϕ klasyfikacja wektorów wspierających (ϕ-SVC) do włączania wiedzy marginesowej per przykład do problemów klasyfikacji i regresji. Proponujemy dwie aplikacje dla ϕ-SVC: zmniejszenie błędu generalizacji modeli zredukowanych przy zachowaniu podobnej liczby wektorów wspierających, oraz włączenie nieliniowego warunku specjalnego typu do problemu optymalizacyjnego. Metoda była przetestowana dla klasyfikatora SVM, oraz dla metody regresji ε-SVR. Eksperymenty na danych rzeczywistych pokazują zmniejszony błąd generalizacji modeli zredukowanych dla liniowych i wielomianowych jąder. W tej pracy proponujemy dwa usprawnienia w implementacji SVM, pierwsze w szybkości trenowania SVM, drugie w uproszczeniu implementacji SVM. Pierwsze usprawnienie, zwane heurystyką alternatyw (HoA), dotyczy nowej heurystyki wyboru parametrów do zbioru roboczego. Bierze ona pod uwagę nie tylko spełnienie warunków Karush-Kuhn-Tuckera (KKT), ale również zmianę wartości funkcji celu. Testy na rzeczywistych zbiorach danych pokazują, ze HoA prowadzi do zmniejszenia liczby iteracji, i może prowadzić do zmniejszenia czasu trenowania SVM, porównując do heurystyki standardowej. Drugie usprawnienie, zwane wielowymiarową, sekwencyjną metodą rozwiązywania podproblemów (SMS), dotyczy nowego sposobu rozwiązywania podproblemów o więcej niż dwóch parametrach: zamiast stosowania skomplikowanych metod rozwiązujących problemy z zakresu programowania kwadratowego, używamy do tego celu metodę SMO. Otrzymujemy prostszą implementację, z podobnymi wynikami szybkościowymi. W tej pracy proponujemy zastosowanie regresji wektorów wspierających (SVR) do wykonywania zleceń na rynkach akcyjnych. Używamy SVR do predykcji funkcji partycypacji w wolumenie. Proponujemy ulepszenie przewidywania funkcji partycypacji używając SVM z włączonym dodatkowym warunkiem nieliniowym do problemu optymalizacyjnego. Pokazujemy, że jakość przewidywania wpływa na koszty egzekucji. Ponadto pokazujemy jak możemy włączyć wiedzę o cenach akcji. Porównaliśmy ε-SVR i δ-SVR z prostymi predyktorami takimi jak średnia cena wykonania z poprzednich dni. Testy zostały przeprowadzone na danych dla spółek z indeksu NASDAQ-100. Dla obu metod otrzymaliśmy lepszą predykcję partycypacji w wolumenie.
Hipotezami pracy są:
Dłuższa wersja autoreferatu tutaj.
Ważniejsze publikacje doktoranta: