podejście co-training w maszynowym uczeniu...

32
Uniwersytet Warszawski Wydzial Matematyki, Informatyki i Mechaniki Michal Kijowski Nr albumu: 262654 Podejście Co-Training w maszynowym uczeniu się Praca licencjacka na kierunku MATEMATYKA Praca wykonana pod kierunkiem dra Dominika Ślężaka Instytut Matematyki Zaklad Logiki Matematycznej Sierpień 2010

Upload: phungcong

Post on 28-Feb-2019

217 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Uniwersytet WarszawskiWydział Matematyki, Informatyki i Mechaniki

Michał KijowskiNr albumu: 262654

Podejście Co-Trainingw maszynowym uczeniu się

Praca licencjackana kierunku MATEMATYKA

Praca wykonana pod kierunkiemdra Dominika ŚlężakaInstytut MatematykiZakład Logiki Matematycznej

Sierpień 2010

Page 2: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Oświadczenie kierującego pracą

Potwierdzam, że niniejsza praca została przygotowana pod moim kierunkiem i kwa-lifikuje się do przedstawienia jej w postępowaniu o nadanie tytułu zawodowego.

Data Podpis kierującego pracą

Oświadczenie autora pracy

Świadom odpowiedzialności prawnej oświadczam, że niniejsza praca dyplomowazostała napisana przeze mnie samodzielnie i nie zawiera treści uzyskanych w sposóbniezgodny z obowiązującymi przepisami.

Oświadczam również, że przedstawiona praca nie była wcześniej przedmiotem pro-cedur związanych z uzyskaniem tytułu zawodowego w wyższej uczelni.

Oświadczam ponadto, że niniejsza wersja pracy jest identyczna z załączoną wersjąelektroniczną.

Data Podpis autora pracy

Page 3: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Streszczenie

W niniejszej pracy zanalizowany zostanie model Co-Training używany w dziedzinie ucze-nia maszynowego. Model ten został wprowadzony w 1998 roku przez Avrima Bluma i TomaMitchella w artykule Combining Labeled and Unlabeled Data with Co-Training [4].

W pracy zostaną najpierw wprowadzone podstawowe pojęcia dotyczące uczenia maszyno-wego oraz uczenia prawdopodobnie aproksymacyjnie poprawnego. Oprócz tego sformułowanei udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawionew pracy zostały przeze mnie gruntownie przeanalizowane, a dodatkowo większość z nich roz-szerzyłem, gdyż w pracach źródłowych dowody te były często bardzo skrótowe.

Następnie model Co-Training zostanie wprowadzony i zanalizowany zarówno od stronyteoretycznej jak i praktycznej. Od strony teoretycznej wykazana zostanie poprawność modeluoraz jego potencjalna skuteczność, natomiast od strony praktycznej zostanie zbadana efek-tywność modelu w zastosowaniach dotyczących rzeczywistych danych. W ostatnim rozdzialeprzedstawiony zostanie model rozszerzający Co-Training na przypadek klasyfikacji wielokla-sowej. Na końcu zostaną podsumowane informacje dotyczące modelu Co-Training.

Słowa kluczowe

Dane nieetykietowane, Semi-Supervised Learning, Uczenie częściowo nadzorowane, Co-Training

Dziedzina pracy (kody wg programu Socrates-Erasmus)

11.1 Matematyka

Klasyfikacja tematyczna

68T05. Learning and adaptive systems68Q32. Computational learning theory

Tytuł pracy w języku angielskim

Co-Training approach in machine learning

Page 4: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione
Page 5: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Spis treści

Wprowadzenie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1. Teoria uczenia maszynowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1. Wprowadzenie do teorii uczenia maszynowego . . . . . . . . . . . . . . . . . . 71.2. Algorytmy oraz wyuczalność w sensie PAC . . . . . . . . . . . . . . . . . . . 8

1.2.1. Algorytmy PAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.2.2. Wyuczalność klasy pojęć . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.3. Losowy szum klasyfikacyjny . . . . . . . . . . . . . . . . . . . . . . . . 12

2. Uczenie częściowo nadzorowane . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3. Co-Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.1. Formalny model Co-Training . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.1.1. Reprezentacja grafowa . . . . . . . . . . . . . . . . . . . . . . . . . . . 163.2. Ujęcie Co-Training w ramy modelu PAC . . . . . . . . . . . . . . . . . . . . . 173.3. Opis klasycznego algorytmu Co-Training . . . . . . . . . . . . . . . . . . . . . 19

4. Analiza praktycznych zastosowań modelu Co-Training . . . . . . . . . . . . 21

5. Co-Training dla przypadku klasyfikacji wieloklasowej . . . . . . . . . . . . 25

Podsumowanie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3

Page 6: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione
Page 7: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Wprowadzenie

Uczenie maszynowe (z angielskiego machine learning) jest młodą i szybko rozwijającą sięinterdyscyplinarną dziedziną łączącą wiele odmiennych zagadnień, głównie z obszarów mate-matyki (ze szczególnym naciskiem na statystykę i rachunek prawdopodobieństwa) oraz infor-matyki (głownie zagadnienia związane ze sztuczną inteligencją). Szczególny nacisk kładzionyjest na aspekt praktyczny, dzięki któremu można budować systemy potrafiące zdobywać nowąwiedzę i doskonalić swoje działanie poprzez analizę zgromadzonego przez nie doświadczeniareprezentowanego przez dane. Co więcej systemy te często są ostatnim ogniwem w łańcuchukomunikacji pomiędzy komputerem a człowiekiem i w związku z tym powinny produkowaćwyniki jak najbardziej zrozumiałe i przejrzyste dla przeciętnego użytkownika.

W obecnych czasach coraz łatwiejsze stało się gromadzenie ogromnych ilości surowych da-nych. Jednocześnie etykietowanie tych danych jest wciąż kosztowne, przez co coraz większymzainteresowaniem cieszą się metody pozwalające uzyskiwać chociaż częściową wiedzę z danychwcześniej nieetykietowanych. W ten sposób narodziły się dwa działy uczenia maszynowego:uczenie nienadzorowane (z angielskiego unsupervised learning) oraz uczenie częściowo nad-zorowane (z angielskiego semi-supervised learning). Pierwszy z nich wykorzystuje wyłączniedane nieetykietowane, natomiast drugi korzysta zarówno z danych z etykietami jak i bez.

Model Co-Training jest jednym z ważniejszych modeli wykorzystywanych w uczeniu czę-ściowo nadzorowanym. Model ten został zaprezentowany po raz pierwszy przez Avrim’aBlum’a oraz Tom’a Mitchell’a w 1998 roku w pracy pod tytułem Combining Labeled andUnlabeled Data with Co-Training [4]. Praca ta otrzymała w 2008 roku nagrodę dla najlep-szej pracy ostatniego dziesięciolecia na konferencji 25th Annual International Conference onMachine Learning. To dobrze obrazuje, jak ważna jest to metoda oraz jak bardzo wpłynęłana całą dziedzinę uczenia maszynowego.

W niniejszej pracy zebrałem w jednym miejscu i przeanalizowałem informacje z najważ-niejszych artykułów dotyczących modelu Co-Training. Dużo pracy wymagało uwspólnianiepodstawowych definicji i oznaczeń, które często były odmienne w różnych artykułach. W po-czątkowych rozdziałach pracy omówione zostaną podstawowe pojęcia związane z uczeniemmaszynowym, a w szczególności uczeniem częściowo nadzorowanym, natomiast w drugiejczęści pracy omówiony będzie model Co-Training – zarówno od strony teoretycznej jak ipraktycznej.

5

Page 8: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione
Page 9: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rozdział 1

Teoria uczenia maszynowego

1.1. Wprowadzenie do teorii uczenia maszynowego

Uczenie maszynowe jest interdyscyplinarną dziedziną, której podstawowym zadaniemjest budowa systemów potrafiących zdobywać nową wiedzę na podstawie zgromadzonychwcześniej doświadczeń. Niniejszy rozdział poświęcony jest sformalizowaniu opisu tej dzie-dziny oraz wprowadzeniu aparatu teoretycznego nazwanego modelem uczenia prawdopodob-nie aproksymacyjnie poprawnego (z angielskiego probably approximately correct - w skróciePAC ) [1] służącego do analizy algorytmów występujących w uczeniu maszynowym. Co więcej,sformułowane i udowodnione zostaną najważniejsze twierdzenia. Najważniejsze cele przyświe-cające uczeniu maszynowemu są nastepujące:

• uczenie się, jak rozpoznawać nowe pojęcia przy pomocy analogii oraz uogólnienia

• wykrywanie nieznanych zależności w danych

• formułowanie odkrytej wiedzy w sposób zrozumiały dla człowieka

W uczeniu maszynowym chodzi o umiejętność efektywnego znajdowania funkcji celu zwa-nej hipotezą, która w jak najlepszy sposób przybliża pewne szukane przez nas pojęcie. W swo-jej pracy zajmę się głównie problematyką klasyfikacji binarnej, która polega na przyporząd-kowaniu nowym obiektom jednej z dwóch klas decyzyjnych. Przykładowo, możemy pragnąćnauczyć nasz algorytm pojęcia człowieka otyłego, mając do dyspozycji dane o wzroście orazwadze pewnej ilości osób wraz z komentarzem dotyczącym tego, czy ta osoba jest otyła czynie. Na podstawie tych danych próbujemy skonstruować funkcję, która będzie klasyfikowałanowe osoby reprezentowane przez ich wzrost oraz wagę do jednej z dwóch kategorii - osobyotyłe lub nie.

Od algorytmu uczącego się wymagamy przede wszystkim: skuteczności (czyli dobrej aprok-symacji szukanego pojęcia) oraz szybkości działania. Istnieją różne metody określania dobrejjakość aproksymacji oraz szybkiego czasu działania. Obecnie najpopularniejszy model badaniaalgorytmów pod tym kątem nosi nazwę uczenia prawdopodobnie aproksymacyjnie popraw-nego - jest on przedstawiony w sekcji 1.2.

W tabeli 1.1 przedstawiony jest ogólny model procesu uczenia się.

7

Page 10: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Dane początkowe:

• zbiór (skończony lub nieskończony) wszystkich obiektów X

• pojęcie c pochodzące z przestrzeni pojęć oznaczonej C

• skończona próbka D obiektów x1, ..., xm ∈ X wraz z wartościami c(x1), ..., c(xm)

• przestrzeń hipotez H

Szukane:

• hipoteza h ∈ H będąca dobrą aproksymacją pojęcia c

Wymagania:

• dobra jakość aproksymacji

• szybki czas działania

Tabela 1.1: Ogólny model procesu uczenia się.

1.2. Algorytmy oraz wyuczalność w sensie PAC

Model uczenia się prawdopodobnie aproksymacyjnie poprawnego został zdefiniowany w 1984roku przez Leslie’go Valiant’a w pracy [1]. Główną motywacją stojącą za tym przedsięwzięciembyła próba stworzenia modelu, który pozwalałby na skuteczną ocenę złożoności obliczeniowejalgorytmów rozważanych w problematyce uczenia maszynowego.

W modelu PAC algorytm uczący się zwany uczniem dostaje na wejściu zbiór treningowyi ma wybrać pewną hipotezę spośród zadanej klasy dopuszczalnych hipotez. Celem jest to, abywybrana hipoteza z dużym prawdopodobieństwem (część probably) była dobrą aproksymacjąpojęcia (część approximately correct), którego mamy się nauczyć. Co więcej uczeń musi umiećwykonać to zadanie z dowolną wcześniej ustaloną precyzją, prawdopodobieństwem sukcesuoraz rozkładem prawdopodobieństwa na zbiorze obiektów.

Ważną cechą modelu PAC jest zaadaptowanie teorii złożoności obliczeniowej do ucze-nia maszynowego. Algorytm, który chcemy wytrenować, musi znaleźć rozwiązanie w sposóbefektywny (czas i rozmiar muszą być co najwyżej wielomianowe względem wielkości próbki),a także musi w sposób efektywny zaimplementować to rozwiązanie (oznacza to w szczególno-ści, że ilość obiektów musi być wielomianowa względem rozmiaru hipotezy).

1.2.1. Algorytmy PAC

W niniejszej sekcji sformułuję warunki, jakie musi spełniać algorytm uczący się aby możnauznać go za algorytm prawdopodobnie aproksymacyjnie poprawny. Oprócz tego wprowadzękilka pojęć, które będą wykorzystywane w dalszej części pracy.

Niech X będzie zbiorem wszystkich obiektów zwanym przestrzenią przykładów, C - kla-są pojęć, H - przestrzenią hipotez ucznia oraz Ω = (X,µ) - przestrzenią probabilistycznąokreśloną na X.

Niech EX(c,Ω) będzie zmienną losową nazywaną wyrocznią(z angielskiego oracle), któralosuje ze zbioru X obiekt x zgodnie z zadanym rozkładem prawdopodobieństwa Ω oraz nadaje

8

Page 11: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

mu poprawną decyzję c(x). Za pomocą wyroczni zostaje wygenerowany zbiór treningowyD = (x1, c(x1)), ..., (xm, c(x1)) ∈ S(m, c), gdzie S(m, c) oznacza zbiór wszystkich próbekzawierających m przykładów.

Celem ucznia jest znalezienie hipotezy h ∈ H minimalizującej błąd rzeczywisty ErrcΩ(h)zdefiniowany w sposób następujący:

Definicja 1.2.1 Błędem rzeczywistym hipotezy h ∈ H względem pojęcia c nazywamy:

ErrΩ(h, c) = ErrcΩ(h) = µx ∈ X|h(x) 6= c(x)

Teraz przechodzimy do najważniejszej definicji związanej z modelem PAC:

Definicja 1.2.2 Algorytm A nazywamy prawdopodobnie aproksymacyjnie poprawnym wte-dy i tylko wtedy, gdy dla każdego 0 < ε < 1 i dla każdego 0 < δ < 1 istnieje m0 = m0(ε, δ)t.że dla dowolnego pojęcia c ∈ C i dla dowolnego rozkładu Ω na X mamy:

µmD ∈ S(m, c)|ErrΩ(A(D)) < ε > 1− δ

o ile m > m0.

W powyższej definicji ε nazywamy dopuszczalnym poziomem błędu, natomiast (1 − δ)– poziomem ufności. O algorytmie, który jest prawdopodobnie aproksymacyjnie poprawny,często mówimy w skrócie, że jest algorytmem PAC.

W tabeli 1.2 jest pokazany przykładowy algorytm PAC.

1.2.2. Wyuczalność klasy pojęć

Kolejnym ważnym zagadnieniem w teorii uczenia maszynowego jest pojęcie potencjalnejwyuczalności klasy pojęć. Dzięki potencjalnej wyuczalności można scharakteryzować klasypojęć, których jesteśmy się w stanie efektywnie nauczyć. Aby zdefiniować potencjalną wy-uczalność będziemy potrzebowali następujących definicji oraz oznaczeń:

Definicja 1.2.3 Algorytm A nazywamy niesprzecznym wtedy i tylko wtedy, gdy dla każdegopojęcia c ∈ C i dla każdej próbki D mamy ErrcD(A(D)) = 0, czyli A(D)(xi) = c(xi) dladowolnego przykładu (xi, c(xi)) ∈ D

Niech Hc(D) = h ∈ H|h(xi) = c(xi)∀i. Możemy wówczas powiedzieć, że algorytm Ajest niesprzeczny jeśli A(D) ∈ Hc(D) dla dowolnego D.

Dodatkowo, przez Bcε = h ∈ H|ErrΩ(h) ­ ε oznaczmy zbiór słabych hipotez (takich,

które popełniają błąd ­ ε)

Przechodzimy teraz do definicji potencjalnej wyuczalności:

Definicja 1.2.4 Klasę pojęć C nazywamy potencjalnie wyuczalną za pomocą H wtedy i tylkowtedy, gdy dla każdego 0 < ε < 1 i dla każdego 0 < δ < 1 istnieje m0 = m0(ε, δ) t.że dladowolnego pojęcia c ∈ C i dla dowolnego rozkładu Ω na X mamy:

µmD ∈ S(m, c)|Hc(D) ∩Bcε = ∅ > 1− δ

o ile m > m0.

Mając zdefiniowaną potencjalną wyuczalność możemy teraz rozpatrywać związek poten-cjalnej wyuczalności z algorytmami prawdopodobnie aproksymacyjnie poprawnymi:

9

Page 12: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Twierdzenie 1.2.1 Jeśli klasa pojęć C jest potencjalnie wyuczalną za pomocą H oraz Ajest algorytmem niesprzecznym dla C to wówczas A jest algorytmem prawdopodobnie aprok-symacyjnie poprawnym.

Dowód:Powyższe twierdzenie jest prostym wnioskiem z definicji algorytmu PAC i potencjalnej wy-uczalności.C jest potencjalnie wyuczalna, zatem:

µmD ∈ S(m, c)|Hc(D) ∩Bcε = ∅ > 1− δ (1.1)

Niech A będzie algorytmem niesprzecznym dla C. Zauważyliśmy już wcześniej, że dzięki temudla dowolnego D mamy:

A(D) ∈ Hc(D) (1.2)

Zatem:µmD ∈ S(m, c)|A(D) /∈ Bc

ε > 1− δ (1.3)

Oznacza to, że algorytm A z prawdopodobieństwem > 1− δ aproksymuje pojęcie c z błędem< ε, a zatem jest on algorytmem PAC.

Poniższe twierdzenie pozwala na wykazanie potencjalnej wyuczalności szerokiej klasy po-jęć:

Twierdzenie 1.2.2 Jeśli klasa pojęć C oraz przestrzeń hipotez H są identyczne czyli C = Horaz zachodzi |C| <∞ to wówczas klasa pojęć C jest potencjalnie wyuczalna.

Dowód:Niech h ∈ Bc

ε, czyli h popełnia błąd rzeczywisty ­ ε. Mamy wówczas:

µmD ∈ S(m, c)|ErrcD(h) = 0 ¬ (1− ε)m (1.4)

Wynika z tego, że:

µmD : Hc(D) ∩Bcε 6= ∅ ¬ |Bc

ε|(1− ε)m ¬ |H|(1− ε)m (1.5)

Zatem, aby zgodnie z definicją potencjalnej wyuczalności uzyskać |H|(1− ε)m < δ wystarczywybrać m > 1

ε log |H|δ , ponieważ zachodzi:

(1

1− ε)m >

|H|δ

m log1

1− ε> log

|H|δ

m >log |H|δlog 1

1−ε=

log |H|δlog(1 + ε

1−ε)>

log |H|δε

1−ε>

log |H|δε

Z założenia wiemy, że |H| <∞ zatem możemy dobrać takie m, aby spełniona była definicjapotencjalnej wyuczalności.

10

Page 13: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Dane początkowe:

• X = R

• H = C = fδ : R → 0, 1|fδ(x) = 1⇔ x ­ δ

• c = fδ0

Należy znaleźć δ0 na podstawie losowo wygenerowanych przykładów należącychdo D = (x1, fδ(x1)), ..., (xm, fδ(x1))Przyjmujemy następujący algorytm:

1. Niech δ∗ = mini∈1,...,mxi : fδ0(xi) = 1

2. Przyjmujemy A(D) = δ∗

Wykażemy, że A jest PAC:

• Mamy, iż ErrcΩ(fδ∗) = µ([δ0, δ∗])

• Niech β0 = supβ|µ([δ0, δ∗]) < ε. Wówczas ErrcΩ(fδ∗) ¬ ε ⇔ δ∗ ¬ β0 ⇔ jeden z

przykładów xi znajduje się w przedziale |δ0, δ∗|

• Prawdopodobieństwo tego, że żaden z m przykładów nie należy do |δ0, β0| jest ¬(1−m)m. Stąd

µmD ∈ S(m, fδ0)|ErrΩ(A(D)) ¬ ε > 1− (1− ε)m

• Zatem aby to prawdopodobieństwo było > 1− δ wystarczy wybrać

m ¬ m0 = d1ε

log1δe

Tabela 1.2: Przykład algorytmu PAC.

11

Page 14: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

1.2.3. Losowy szum klasyfikacyjny

Model PAC zakłada istnienie nieomylnej wyroczni, która zawsze zwraca obiekt z popraw-ną decyzją. Niestety w realnym świecie założenie o nieomylności wyroczni bardzo często jestniespełnione. Wiąże się to z powstaniem szumu klasyfikacyjnego - część przykładów zwróconaprzez wyrocznię posiada błędną etykietę. Już w 1988 roku Angluin i Laird w swojej pracy [2]wprowadzili poprawki mające na celu uodpornienie modelu PAC na sytuację, gdy obecny jestszum klasyfikacyjny.

W tym modelu algorytm nie ma dostępu do nieomylnej wyroczni EX(c,Ω), lecz do wy-roczni EXη(c,Ω) popełniającej błąd z prawdopodobieństwem η, zdefiniowanej następująco:

EXη(c,Ω) =

zwraca (x, c(x)) z EX(c,Ω) z prawdopodobieństwem 1− ηzwraca (x,¬c(x)) z EX(c,Ω) z prawdopodobieństwem η

Im bardziej wartość błędu zbliża się do 12 , tym mniej informacji o szukanej funkcji celu

można uzyskać z etykiet zwróconych przez wyrocznie. Równocześnie rośnie wielkość wyma-ganego zbioru treningowego oraz złożoność obliczeniowa. W przypadku gdy wartość błędujest równa 1

2 , uczenie się w sposób prawdopodobnie aproksymacyjnie poprawny staje się nie-możliwe, gdyż etykiety przykładów ze zbioru treningowego są zupełnie losowe, a zatem nieniosą żadnej informacji na temat funkcji celu.

Angluin i Laird wykazali, że skończone klasy pojęć są wyuczalne w sensie PAC w obecno-ści szumu klasyfikacyjnego (nawet szerzej - wyuczalne są klasy pojęć o skończonym wymiarzeVapnika-Chervonenkisa zdefiniowanego w pracy [8]). Istnieje wiele sposobów radzenia sobiez szumem klasyfikacyjnym, jednak w praktyce najpopularniejszą i najszerzej wykorzystywanąmetodą jest konstruowanie algorytmów, które opierają się na pewnych statystykach obliczo-nych ze zbioru testowego, a nie na pojedynczych obiektach. Model takiego podejścia nazywasię Statistical Queries i został po raz pierwszy zaproponowany przez Michael’a Kearns’aw roku 1998 [3].

12

Page 15: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rozdział 2

Uczenie częściowo nadzorowane

Uczenie maszynowe dzieli się zasadniczo na trzy działy w zależności od rodzaju i ilościwykorzystywanych przez nie danych.

Pierwszym z nich jest uczenie nienadzorowane (z angielskiego unsupervised learning).Mamy z nim do czynienia wówczas gdy posiadamy wyłącznie dane bez etykiet i chcemy siędowiedzieć czegoś o strukturze przestrzeni danych np. chcemy poznać największe skupiskadanych lub ich rozrzut w przestrzeni.

Drugim działem jest uczenie nadzorowane (z angielskiego supervised learning). Korzysta-my z niego w przypadku gdy trenujemy algorytmy uczące się, które do działania potrzebująwyłącznie zbioru etykietowanych danych treningowych i na ich podstawie chcemy poznaćfunkcję celu.

Trzecim i zarazem najważniejszym z punktu widzenia niniejszej pracy działem jest uczenieczęściowo nadzorowane (z angielskiego semi-supervised learning). Jest to dział, w którymtrenowane algorytmy mają dostęp do stosunkowo małej ilości danych etykietowanych oraz doogromnej ilości danych bez etykiet. Dział ten jest obecnie bardzo dynamicznie rozwijany, gdyżw realnych zastosowaniach coraz częściej okazuje się, że uzyskanie danych etykietowanychjest bardzo kosztowne. Mowa tu zarówno o kosztach czasowych jak i finansowych. Uzyskanieetykietowanych danych bardzo często jest związane z intensywną pracą ludzką - w większościzastosowań każdy z przykładów trzeba oznaczyć ręcznie. Z drugiej strony, dzięki rozwojowitechniki, pozyskiwanie surowych danych nieetykietowanych jest coraz prostsze i tańsze.

Dobrym przykładem jest tutaj zagadnienie klasyfikacji stron internetowych. Dane trenin-gowe w tym przypadku to witryny wraz z decyzją klasyfikacyjną, którą każdorazowo musiałnadać człowiek. Zatem stworzenie zbioru treningowego złożonego nawet ze 100 elementówwymagałoby dużego nakładu pracy ludzkiej. Natomiast dane nieetykietowane to po prostudane o stronach internetowych, które możemy w łatwy sposób pobierać w tysiącach, a nawetsetkach tysięcy za pomocą robotów (crawlerów) internetowych.

W związku z zaistniałą sytuacją ostatnimi laty coraz więcej osób starało się budowaćnowe algorytmy częściowo nadzorowane, aby pozyskać jak najwięcej informacji z tanich da-nych nieetykietowanych. Algorytmy te wykorzystują dane bez etykiet na szereg odmiennychsposobów. Oto niektóre z nich:

• budowa modeli probabilistycznych z wykorzystaniem danych nieetykietowanych [10]

• iteracyjna estymacja parametrów modelu - algorytm Expectation Maximization [11]

• maksymalizacja szerokości marginesu prostej rozdzielającej dwie klasy decyzyjne - al-gorytm Transductive Support Vector Machines [12]

13

Page 16: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Wyniki uzyskane zarówno przez powyższe algorytmy jak i wiele innych pokazały, że danebez etykiet mogą w znaczący sposób poprawić jakość klasyfikacji. Jednak za najważniejszymodel w uczeniu częściowo nadzorowanym większość osób uznaje model Co-Training, któregoszczegółowy opis znajduje się w kolejnych rozdziałach.

14

Page 17: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rozdział 3

Co-Training

Model Co-Training został po raz pierwszy zaprezentowany w 1998 roku w artykule [4].Artykuł ten wywołał niemałe poruszenie w kręgach naukowych związanych z uczeniem ma-szynowym.

Praca [4] zawiera podstawy teoretyczne modelu Co-Training oraz konkretny algorytm re-alizujący te założenia. Należy jednak zauważyć, że nie jest to jedyny algorytm, który możnaująć w ramy tego modelu. Należy unikać bezpośredniego utożsamiania modelu Co-Trainingz algorytmem przedstawionym w [4].

Istotą modelu Co-Training jest założenie, że zbiór atrybutów możemy podzielić na dwarozłączne podzbiory, gdzie każdy z nich dostarcza nam wystarczająco dużo informacji abywytrenować poprawny klasyfikator przy odpowiednio dużej ilości danych. Co więcej, obapodzbiory mają być warunkowo niezależne ustalając klasę decyzyjną. Mówiąc w skrócie,interesuje nas sytuacja, gdy na dany obiekt możemy, w pewnym sensie, patrzeć na dwaistotnie różne, niezależne od siebie i samowystarczalne sposoby. Poniżej znajduje się bardziejformalny opis tej idei.

3.1. Formalny model Co-Training

Dana jest przestrzeń obiektów X = X1 ×X2, gdzie X1 i X2 odpowiadają dwóm odmien-nym ”sposobom patrzenia” na obiekt. Oznacza to, że każdy obiekt jest reprezentowany jakopara (x1, x2). Ponadto wymagane jest założenie, że każdy z podzbiorów X1 i X2 osobno jestwystarczający do poprawnej klasyfikacji.

Niech D będzie rozkładem prawdopodobieństwa nad X, zaś C1 i C2 będą klasami pojęćodpowiednio nad X1 i X2.

Zakładamy, że wszystkie etykiety obiektów o niezerowym prawdopodobieństwie są zgodnez pewną funkcją f1 należącą do C1 oraz z funkcją f2 należącą do C2. Innymi słowy, jeśli foznacza szukaną przez nas funkcję celu, to wówczas dla każdego obiektu x = (x1, x2) ozna-czonego etykietą l zachodzi f(x) = f1(x1) = f2(x2) = l. W szczególności oznacza to, że Dprzypisuje zerowe prawdopodobieństwo każdemu obiektowi takiemu, że f1(x1) 6= f2(x2).

Pojawia się tu pytanie, dlaczego dane bez etykiet mogłyby pomóc w klasyfikacji? Szerszejodpowiedzi na to pytanie udzielimy w następnych sekcjach, ogólnie można na to spojrzećpoprzez pryzmat standardowego modelu PAC jak poniżej. Dla danego rozkładu D mówimy,że dana hipoteza f = (f1, f2) ∈ C1×C2 jest kompatybilna z D jeśli D przypisuje zerowe praw-

15

Page 18: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rysunek 3.1: Różnica w rozkładzie przykładów w zależności od wybranej perspektywy

dopodobieństwo każdemu obiektowi takiemu, że f1(x1) 6= f2(x2). Innymi słowy, para f1, f2

jest kompatybilna z D jeśli f1, f2 oraz D są dopuszczalne w modelu Co-Training opisanympowyżej.

Należy zauważyć, że nawet wówczas, gdy C1 oraz C2 są skomplikowanymi klasami pojęć,dla danego D zbiór hipotez kompatybilnych może być istotnie mniej skomplikowany. Dlategomożna mieć nadzieję, iż dane bez etykiet umożliwią nam lepsze poznanie charakterystykihipotez kompatybilnych, a co za tym idzie pozwolą na zmniejszenie ilości danych treningowychpotrzebnych do wytrenowania skutecznego klasyfikatora.

Przeanalizujemy to na przykładzie. Niech X1 = X2 = 0, 1n oraz C1 = C2 =koniunkcjenad0, 1n. Jeśli wiemy, że pierwsza współrzędna jest istotna dla pojęcia f1 to, ponieważ f1

jest koniunkcją, możemy z tego wywnioskować, że gdy pierwsza współrzędna x1 jest rów-na 0, to f1(x1) = 0. Wówczas dowolny nieetykietowany przykład (x1, x2) taki, że pierwszawspółrzędna x1 jest równa 0 może zostać użyty do wytworzenia negatywnego przykładu x2

dla f2. Oczywiście przykład ten może nie dać nam wiele pożytecznych informacji o f2 jeśli Djest ”mało pomocnym” rozkładem, na przykład takim, który posiada niezerowe prawdopodo-bieństwo wyłącznie na obiektach takich, że x1 = x2. Jednakże, jeśli x1 oraz x2 nie są mocnoskorelowane, możemy uzyskać nowe informacje. W skrajnie optymistycznym przypadku, gdyD jest rozkładem, w którym x1 i x2 są warunkowo niezależne pod warunkiem decyzji, zacho-dzi taka zależność, że gdy pierwsza współrzędna x1 jest równa 0, to x2 jest w pełni losowymnegatywnym przykładem dla f2.

Na rysunku 3.1 jest to przedstawione w sposób obrazowy. Punkty, które klasyfikatorpatrzący na część x1 klasyfikuje z dużą pewnością (na rysunku są one zaznaczone kółeczkami)są losowo rozmieszczone z punktu widzenia klasyfikatora patrzącego na część x2.

3.1.1. Reprezentacja grafowa

Innym sposobem patrzenia na model Co-Training jest rozpatrywanie rozkładu D jako gra-fu ważonego, dwudzielnego oznaczanego jako GD(X1, X2) lub po prostu GD, gdy X1 oraz X2

wynikają z kontekstu. Lewa strona grafu GD posiada po jednym wierzchołku dla każdej moż-liwej wartości z X1 natomiast prawa strona zawiera analogiczne wierzchołki dla X2. Krawędź

16

Page 19: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rysunek 3.2: Krawędzie odpowiadają obiektom o niezerowym prawdopodobieństwie przyczym krawędzie pełne odpowiadają obiektom z pewnej skończonej próbki S. Jeśli spełnionesą założenia metody Co-Training, to obiekty należące do jednej składowej spójnej powinnyposiadać tę samą etykietę.

(x1, x2) należy do GD wtedy i tylko wtedy, gdy przykład (x1, x2) ma niezerowe prawdopo-dobieństwo w D. Każdej krawędzi nadajemy wagę równą prawdopodobieństwu wystąpieniadanego obiektu.

Dla wygody możemy z grafu usunąć wszystkie wierzchołki izolowane, gdyż odpowiadająone obiektom nie podlegającym modelowi Co-Training. Jest to zobrazowane na rysunku 3.2.

Dla modelu zdefiniowanego w powyższy sposób spośród wszystkich hipotez z C możnaw łatwy sposób wskazać hipotezy kompatybilne. Są to mianowicie hipotezy odpowiadającepodziałowi grafu GD na dwa podgrafy rozłączne. Dodatkowo, w równie łatwy sposób możnawprowadzić miarę kompatybilności danej hipotezy. Jako wspomnianą miarę wystarczy wziąćwagę cięcia, które wykonuje dana hipoteza. Innymi słowy poziom kompatybilności międzyhipotezą f = (f1, f2) a rozkładem D może być zdefiniowany jako liczba p ∈ [0, 1] gdziep = 1− PD[(x1, x2) : f1(x1) 6= f2(x2)]. W poniższych rozważaniach, o ile nie jest zaznaczoneinaczej, zakładam pełną kompatybilność tj. p = 1.

Mając daną próbkę S w łatwy sposób można zdefiniować podgraf GS grafu GD jako grafdwudzielny zawierający krawędzie (x1, x2) ∈ S. W przypadku pełnej kompatybilności każdedwa wierzchołki należące do tej samej składowej spójnej w GS mają taką samą etykietę.

3.2. Ujęcie Co-Training w ramy modelu PAC

W niniejszej sekcji wykażę dlaczego, gdy spełnione są odpowiednie założenia, możemy przypomocy modelu Co-Training polepszyć skuteczność każdego pierwotnie słabego klasyfikatorado ustalonego z góry poziomu, korzystając tylko z danych bez etykiet.

Wspomniane założenia to warunkowa niezależność dla rozkładu D oraz wyuczalność C2

w sensie PAC w obecności losowego szumu klasyfikacyjnego. Na początku zdefiniujemy pierw-sze z wymaganych założeń. Mówimy, że funkcje f1, f2 oraz rozkład D łącznie spełniają za-łożenie warunkowej niezależności, gdy dla każdej ustalonej pary (x1, x2) ∈ X posiadającej

17

Page 20: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

niezerowe prawdopodobieństwo mamy:

P(x1,x2)∈D(x1 = x1|x2 = x2) = P(x1,x2)∈D(x1 = x1|f2(x2) = f2(x2))

oraz analogicznie:

P(x1,x2)∈D(x2 = x2|x1 = x1) = P(x1,x2)∈D(x2 = x2|f1(x1) = f1(x1))

Innymi słowy x1 oraz x2 są niezależne pod warunkiem etykiety.Kolejną rzeczą niezbędną do zdefiniowania jest pojęcie słabo-użytecznej predykcji, definiu-

jemy ją w sposób następujący:

Definicja 3.2.1 Funkcję h nazywamy słabo-użyteczną predykcją funkcji f wtedy i tylko wte-dy, gdy zachodzą następujące warunki:

PD(h(x) = 1) ­ ε

orazPD(f(x) = 1|h(x) = 1) ­ PD(f(x) = 1) + ε

dla pewnego ε > 1o(n) .

Następnie wprowadzę drobne rozszerzenie do standardowego modelu PAC z losowym szu-mem klasyfikacyjnym. Rozszerzenie to zostało zaprezentowane w pracy [4] i polega na zróż-nicowaniu prawdopodobieństwa popełnienia błędu przez wyrocznię dla przykładów pozytyw-nych i negatywnych. Innymi słowy model PAC z losowym szumem klasyfikacyjnym (α, β)jest to model w którym algorytm ma dostęp do wyroczni, która źle klasyfikuje pozytywneprzykłady z prawdopodobieństwem α oraz źle klasyfikuje przykłady negatywne z prawdopo-dobieństwem β. W tym modelu można udowodnić następujący lemat:

Lemat 3.2.1 Jeśli klasa pojęć C jest wyuczalna w modelu PAC z losowym szumem klasyfi-kacyjnym to jest również wyuczalna w modelu PAC z losowym szumem klasyfikacyjnym (α, β)o ile α+ β < 1. Złożoność obliczeniowa jest wówczas rzędu o( 1

1−α−β ).

Dowód:Rozważmy dwa przypadki:1) α oraz β są znane algorytmowi uczącemu się:Bez straty ogólności możemy założyć, że α < β. Aby wyuczyć się C z szumem (α, β) wystarczyzmienić etykietę każdego pozytywnego przykładu z prawdopodobieństwem β−α

β+(1−α) . W rezul-

tacie otrzymamy standardowy model z szumem klasyfikacyjnym na poziomie η = ββ+(1−α) .

Aby model był poprawny, musi zachodzić η < 12 , zatem mamy β

β+(1−α) <12 skąd wynika, że

α+ β < 1.

2) α oraz β są nieznane algorytmowi uczącemu się:Załóżmy, że mamy dany zbiór S złożony z m obiektów, z których m+ ma etykietę pozy-tywną. Wówczas możemy stworzyć m + 1 hipotez w sposób następujący: i-ta hipoteza dlai = 0, 1, ...,m+ jest tworzona poprzez zmienienie etykiet i losowym przykładom pozytywnymz S, natomiast hipoteza j-ta dla j = m+ + 1, ...,m jest tworzona poprzez zmienienie etykietj losowym przykładom negatywny z S. Dzięki temu każdą z hipotez sprowadzamy do stan-dardowego modelu z pojedynczym szumem klasyfikacyjnym.Wówczas możemy oczekiwać, że co najmniej jedna z hipotez jest poprawna, ponieważ pro-cedura z punktu pierwszego (gdy znamy α oraz β) może być rozpatrywana jako rozkład

18

Page 21: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

prawdopodobieństwa nad powyższymi m+ 1 eksperymentami.

Poniższe twierdzenie pokazuje, dlaczego model Co-Training jest przydatny w praktyce:

Twierdzenie 3.2.1 Jeśli klasa pojęć C2 jest wyuczalna w modelu PAC z losowym szumemklasyfikacyjnym oraz jeśli spełnione jest założenie warunkowej niezależności, to wówczas(C1, C2) jest wyuczalne w modelu Co-Training korzystając tylko z danych nieetykietowanychoraz początkowej słabo-użytecznej predykcji h(x1) pojęcia C1.

Dowód:Niech f(x) będzie szukaną funkcją celu oraz p = PD(f(x) = 1) będzie prawdopodobieństwem,że losowy przykład z D jest pozytywny.Niech q = PD(f(x) = 1|h(x) = 1) oraz c = PD(h(x) = 1).Wówczas mamy:

PD(h(x) = 1|f(x) = 1) =PD(f(x) = 1|h(x) = 1)PD(h(x) = 1)

PD(f(x) = 1)=qc

p(3.1)

oraz

PD(h(x) = 1|f(x) = 0) =(1− q)c

1− p(3.2)

Dzięki założeniu warunkowej niezależności wiemy, iż dla losowego przykładu x = (x1, x2)h(x1) jest niezależne od x2 przy danej wartości f(x). Wynika z tego, że jeśli użyjemy h(x1)jako poziomu szumu klasyfikacyjnego dla x2 będzie to równoważne szumowi klasyfikacyjnemu(α, β) gdzie α = 1− qc

p oraz β = (1−q)c1−p - wartości α i β wynikają z równań (3.1) oraz (3.2).

Wynika z tego, że:

α+ β = 1− qc

p+

(1− q)c1− p

= 1− c(

q − pp(1− p)

)Z założeń wiemy, że h jest ”słabo-użyteczną predykcją”. Wynika z tego, że c ­ ε oraz q−p ­ εzatem:

α+ β ¬ 1− ε2

p(1− p)¬ 1− 4ε2 < 1

Stosując lemat 3.2.1 uzyskujemy tezę.

3.3. Opis klasycznego algorytmu Co-Training

Klasyczny algorytm Co-Training został zaprezentowany przez Mitchell’a i Blum’a jakozobrazowanie działania modelu Co-Training w praktyce. Algorytm ten trenuje po jednymklasyfikatorze dla każdego z podzbiorów atrybutów używając początkowego zbioru danychtreningowych oraz jednocześnie losuje podzbiór złożony z danych nieetykietowanych spośródktórych będą wybierane przykłady dodawane do początkowego zbioru treningowego.

W następnym kroku algorytm dokonuje klasyfikacji danych bez etykiet z powyższegopodzbioru i te, które zaklasyfikował z największym prawdopodobieństwem dodaje do począt-kowego zbioru treningowego. Tu objawia się założenie mówiące o tym, że każdy z podzbiorówatrybutów jest wystarczający do prawidłowej klasyfikacji - oznacza to tyle, że można ufaćetykietom przypisanym przez klasyfikator patrzący tylko na jeden z podzbiorów.

Następnie podzbiór złożony z danych nieetykietowanych jest uzupełniany i cały procesjest powtarzany w sposób iteracyjny. W tabelce 3.1 jest przedstawiony szczegółowy algorytmmetody Co-Training.

19

Page 22: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Dane początkowe:

• zbiór U - obiektów bez etykiet

• zbiór L - obiektów z etykietami

Utwórz zbiór U ′ wybierając w sposób losowy u obiektów ze zbioru UPowtórz k razy

• użyj zbioru L aby wytrenować klasyfikator h1 wykorzystując tylko część x1 z x

• użyj zbioru L aby wytrenować klasyfikator h2 wykorzystując tylko część x2 z x

• pozwól h1 oznaczyć p pozytywnych i n negatywnych przykładów z U ′

• pozwól h1 oznaczyć p pozytywnych i n negatywnych przykładów z U ′

• dodaj oznaczone obiekty do zbioru L

• wybierz w sposób losowy 2p+ 2n obiektów ze zbioru U i dodaj je do zbioru U ′

Tabela 3.1: Oryginalny algorytmu Co-Training przedstawiony w pracy [4].

20

Page 23: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rozdział 4

Analiza praktycznych zastosowańmodelu Co-Training

Model Co-Training charakteryzuje się silnymi założeniami dotyczącymi kompatybilnościfunkcji celu oraz warunkowej niezależności podzbiorów atrybutów. Jednak w praktyce znako-mita większość danych rzeczywistych w istotny sposób narusza powyższe założenia. Dlategoz praktycznego punktu widzenia bardzo ważnym zagadnieniem jest wrażliwość modelu Co-Training na poprawność założeń. Równie istotnym problemem są wymagania, jakie musispełniać sam podział atrybutów, przede wszystkim - czy musi być naturalny. Aby zbadać teoraz wiele innych zagadnień związanych z modelem Co-Training trzeba było przeprowadzići zanalizować wiele eksperymentów praktycznych. Najważniejsze z tych eksperymentów po-krótce opiszę poniżej.

Pierwsze testy modelu Co-Training zostały przeprowadzone i opisane w oryginalnej pra-cy Blum’a i Mitchell’a. Zastosowali oni algorytm Co-Training do problemu klasyfikacji stroninternetowych. Ich baza danych składała się z danych na temat 1051 witryn internetowychumieszczonych na swoich serwerach przez 4 amerykańskie uczelnie. Każdej z tych stron zo-stały ręcznie przypisane etykiety dotyczące treści zawartych na danej stronie. W swoim eks-perymencie autorzy wybrali jako funkcję celu kategorie ”strony kursowe” - oznacza to, żekażda strona kursowa w bazie danych jest przykładem pozytywnym, natomiast reszta stronto przykłady negatywne. W powyższej bazie danych 22% stron to strony kursowe.

Każda ze stron należących do bazy danych jest opisana na dwa sposoby - jednym z nichjest lista wszystkich słów, które występują na danej stronie, natomiast drugim - lista słówużytych w hiperłączach prowadzących do danej strony z innych stron z bazy. Dla każdegoz tych dwóch typów opisu został wytrenowany klasyfikator korzystający algorytmu NaiveBayes. Wykorzystano algorytm Naive Bayes ponieważ znany jest on z wysokiej skutecznościw przypadku klasyfikacji danych tekstowych (zob. [5]). Następnie autorzy użyli algorytmuCo-Training opisanego w sekcji 3.3 i porównali wyniki uzyskane przez niego z wynikamiuzyskanymi za pomocą klasycznego klasyfikatora opartego na Naive Bayes. Procedura testowadotycząca algorytmu Co-Training wyglądała następująco:

• wylosowano podzbiór testowy składający się z 25% (263) spośród 1051 stron

• z pozostałych danych został wylosowany 12-elementowy zbiór treningowy złożony z 3przykładów pozytywnych oraz 9 negatywnych

• strony które nie zostały wylosowane stworzyły zbiór danych nieetykietowanych

21

Page 24: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

• parametry p = 1 oraz n = 3 zostały dobrane, aby dobrze oddawały dystrybucję pozy-tywnych i negatywnych przykładów w bazie

• liczba iteracji wewnętrznej pętli algorytmu Co-Training został ustalona na 30, a wielkośćpodzbioru danych nieetykietowanych na 75 tj. k = 30 oraz u = 75

Cała procedura testowa została powtórzona 5 razy, a wyniki uśrednione. Poziom błędu, jakiuzyskano na zbiorze testowym przy pomocy algorytmu Co-Training wyniósł:

• 6,2% dla klasyfikatora korzystającego ze słów występujących na stronach

• 11,6% dla klasyfikatora korzystającego ze słów występujących w hiperłączach

• 5,0% dla klasyfikatora łączonego

Analogicznie dla standardowej metody Naive Bayes uzyskano następujące wyniki:

• 12,9% dla klasyfikatora korzystającego ze słów występujących na stronach

• 12,4% dla klasyfikatora korzystającego ze słów występujących w hiperłączach

• 11,1% dla klasyfikatora łączonego

Powyższe wyniki wskazują, że za pomocą Co-Training można podnieść w znaczący sposób ja-kość klasyfikacji. Obszerniejsze omówienie wyników eksperymentów wraz z wykresami możnaznaleźć w pracy [4].

Powyższy eksperyment nie wyczerpał jednak tematu, gdyż zanalizowana została tylkojedna baza danych oraz jedna funkcja celu i nie można było wyciągać z tego dalekosiężnychwniosków dotyczących ogólnego zachowania się modelu Co-Training. Z tego powodu powstałszereg prac skupiających się na analizowaniu zachowania modelu Co-Traning.

Jedną z ciekawszych prac analizujących zachowanie modelu Co-Traning jest praca ”Anali-zing the Effectiveness and Aplicability of Co-Training” napisana przez Kamala Nigam’a orazRayida Ghani. Jak sama nazwa wskazuje autorzy skupili się na analizie efektywności orazmożliwości zastosowania modelu Co-Training. Interesowały ich przede wszystkim odpowiedzina pytanie dlaczego model ten jest tak skuteczny oraz jaki musi być podział argumentów,aby można było żywić nadzieje na poprawę jakości klasyfikacji. Aby tego dokonać, prze-prowadzili oni szereg eksperymentów zarówno na danych rzeczywistych jak i na specjalniespreparowanych. Pozwoliło im to uzyskać bardzo interesujące wyniki.

Okazało się, że model Co-Training jest bardziej odporny na niespełnienie założeń dotyczą-cych rozkładu obiektów niż inne modele korzystające z danych nieetykietowanych, takie jakExpectation Maximization. Dzieje się tak, ponieważ dwa różne punkty widzenia pozwalajązrekompensować źle założony rozkład elementów, oczywiście o ile mamy wystarczająco dużodanych. Z drugiej strony okazało się, że Co-Training jest dosyć wrażliwy na niespełnieniezałożeń kompatybilności funkcji celu oraz warunkowej niezależności podzbiorów atrybutów.Dotyczy to w szczególności drugiego z tych założeń. Okazało się, że w przypadku istnienianaturalnego podziału atrybutów za pomocą modelu Co-Training praktycznie zawsze możnauzyskać poprawę wyników, lecz gdy takiego podziału nie ma, wprowadzenie sztucznego po-działu może zarówno polepszyć jak i pogorszyć wyniki. Niestety zbadanie, czy dany podziałpozwoli polepszyć jakość klasyfikacji jest dosyć trudne i wymaga dalszych badań.

Więcej szczegółów dotyczących eksperymentów, a w szczególności informacje na tematużytych zbiorów oraz uzyskane wyniki liczbowe, można znaleźć w oryginalnej pracy [6].

22

Page 25: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Inną ciekawą pracą jest artykuł [9], w którym autorzy również zajęli się poprawnościązałożeń. Jednak, zamiast analizować, w jakim stopniu niespełnienie założeń wpływa na wy-niki, wprowadzili oni modyfikacje modelu Co-Training polegającą na osłabieniu założeń do-tyczących rozkładu elementów i jednocześnie wzmocnieniu założeń dotyczących algorytmówstosowanych do wyuczenia klasyfikatora. Dane często naruszają założenia standardowego mo-delu Co-Training, a jednocześnie istnieje wiele algorytmów o udowodnionych dobrych wła-snościach. Z tego powodu nowszy model może okazać się bardziej przydatny, gdyż łatwiejspełnić jego wymagania.

23

Page 26: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione
Page 27: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Rozdział 5

Co-Training dla przypadkuklasyfikacji wieloklasowej

Jak dotąd rozpatrywałem w swojej pracy wyłącznie zagadnienie klasyfikacji binarnej,jednak w rzeczywistych zastosowaniach równie często pojawiają się problemy wieloklasowe.Jednym z przykładów takiego problemu jest problem klasyfikacji tematycznej tekstów nawiele kategorii. Pojawia się ważne pytanie - jak w przypadku takich problemów sprawuje sięmodel Co-Training?

Okazuje się, że bezpośrednie podejście polegające po prostu na użyciu modelu, który po-siadamy, jest wielce nieefektywne. Wyniki, które dostaniemy będą słabsze niż te uzyskaneza pomocą dużo prostszych metod, takich jak Naive Bayes. Nie oznacza to jednak, że mo-del Co-Training nie nadaje się do klasyfikacji wielowymiarowej. W pracy [7] Rayid Ghandiskonstruował model pozwalający wykorzystać Co-Training do klasyfikacji wielowymiarowej.Model ten powstał poprzez połączenie algorytmu Co-Training z metodą kodów korekcyjnych(z angielskiego Error-Correcting Output Codes).

Istotą tego modelu jest rozbicie problemu klasyfikacji z m klasami na k problemów bi-narnych. Następnie każdej z klas jest przypisywany unikalny kod binarny długości k. Dziękitemu powstaje macierz rozmiaru m× k w której każdy wiersz reprezentuje jedną klasę a każ-da kolumna odpowiada za jeden klasyfikator. Przykładowo jeśli mam problem z 3 klasami tomożemy go rozbić na 5 problemów binarnych. Jedna z tabel, które możemy uzyskać, wyglądanastępująco:

klasa kodc1 0 0 1 1 1c2 0 1 0 0 1c3 1 0 0 1 1

Tak jak zostało to wyżej wspomniane, każdy wiersz odpowiada kodowi klasy decyzyjnej,zatem dla przykładu klasie c2 odpowiada kod 01001. Analogicznie wiemy, że każda kolumnaodpowiada za jeden klasyfikator - przykładowo kolumna pierwsza odpowiada za klasyfikatorbinarny, który obiekty z klas c1 oraz c2 traktuje jako przykłady negatywne, a obiekty z klasyc3 jako pozytywne. Tak powstałe klasyfikatory binarne umieszczamy parami w standardowymmodelu Co-Training. Warto zauważyć, że klasyfikator odpowiadający ostatniej kolumnie jesttrywialny, a co za tym idzie nieprzydatny.

Otrzymując nowy przykład wyliczamy dla niego jego kod binarny, a następnie przypi-sujemy mu etykietę klasy decyzyjnej, której kod jest najbardziej zbliżony. Długość kodukorekcyjnego, jaką ustalimy, ma duże znaczenie praktyczne. Generalnie, im dłuższy kod tym

25

Page 28: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

lepsze wyniki, ale jednocześnie większy koszt obliczeniowy. Dla problemu z m klasami kodnie powinien mieć więcej niż 2m−1 − 1 znaków, ale w praktyce tak długie kody można do-bierać tylko jeśli m ¬ 7. W przypadku, gdy m jest większe od 7 do ustalania długości kodutrzeba użyć bardziej zaawansowanych metod. Więcej informacji na ten temat można znaleźćw pracy [7].

26

Page 29: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Podsumowanie

W pracy zaprezentowany i zanalizowany został model Co-Training – jeden z ważniejszychmodeli używanych w uczeniu maszynowym.

Pierwsza część pracy dotyczyła wprowadzenia do teorii uczenia maszynowego oraz teoriialgorytmów prawdopodobnie aproksymacyjnie poprawnych. Przestawione i udowodnione zo-stały najważniejsze twierdzenia obu teorii przydatne do dalszej analizy modelu Co-Training.Następnie przedstawione zostały teoretyczne podstawy modelu Co-Training oraz udowodnio-na została potencjalna wyuczalność w tak zdefiniowanym modelu. W kolejnych rozdziałachzebrane i zanalizowane zostały wyniki uzyskane przez naukowców na drodze eksperymen-tów praktycznych z danymi (zarówno rzeczywistymi jak i sztucznymi). Pod koniec pracyrozpatrzony został model kodów korekcyjnych wykorzystujący Co-Training do klasyfikacjiwieloklasowej.

Mimo, iż podstawa modelu Co-Training, czyli dwudzielność zbioru atrybutów na dwa niedo końca zależne podzbiory, nie jest bardzo zaawansowaną konstrukcją, okazuje się, że wiążąsię z nią bardzo ciekawe wnioski zarówno natury teoretycznej jak i praktycznej. Model Co-Training stworzył dobrą podstawę teoretyczną, która została wykorzystana przy tworzeniuwielu nowych modeli korzystających z danych nieetykietowanych ([7], [13]). Od strony prak-tycznej okazało się, że Co-Training bardzo dobrze spisuje się w szeregu zastosowań, szczególnietych związanych z analizą danych tekstowych([14]).

27

Page 30: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione
Page 31: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

Bibliografia

[1] Leslie Valiant, A theory of the learnable, Communications of the ACM, 1984.

[2] Dana Angluin, Philip Laird, Learning from noisy examples, Machine Learning, 2:343-370,1988.

[3] Michael Kearns, Efficient noise-tolerant learning from statistical queries, Proceedings ofthe Twenty-Sixth Annual ACM Symposium on the theory of Computing, 648-657, 1994.

[4] Avrim Blum, Tom Mitchell, Combining labeled and unlabeled data with Co-Training,COLT: Proceedings of the Workshop on Computational Learning Theory, Morgan Kauf-mann, 1998.

[5] Harry Zhang, The Optimality of Naive Bayes, FLAIRS2004 conference, 2004.

[6] Kamal Nigam, Rayid Ghani, Analyzing the Effectiveness and Applicability of Co-training,Proceedings of the ninth international Conference on Information and Knowledge Ma-nagement (NY, USA: ACM): 86–93, 2000.

[7] Rayid Ghani, Using Error-Correcting Codes with Co-Training for text classification witha large number of categories, Workshop on Text Mining at the First IEEE Conferenceon Data Mining, 2001.

[8] Vladimir Vapnik, Alexey Chervonenkis, On the uniform convergence of relative fre-quencies of events to their probabilities, Theory of Probability and its Applications,16(2):264–280, 1971.

[9] Maria-Florina Balcan, Avrim Blum, Ke Yang, Co-training and expansion: Towards brin-ging theory and practice, Advances in neural information processing systems 17, MITPress, 2005.

[10] Tommi Jaakkola, David Haussler, Exploiting Generative Models in Discriminative Clas-sifiers, Advances in Neural Information Processing Systems 11, MIT Press, 1998.

[11] Kamal Nigam, Andrew Kachites Mccallum, Sebastian Thrun, Tom Mitchell, Text Clas-sification from Labeled and Unlabeled Documents using EM, Machine Learning, 1999.

[12] Thorsten Joachims, Transductive Inference for Text Classification using Support VectorMachines, International conference on Machine Learning (ICML), 200-209, 1999.

[14] Francois Denis, Anne Laurent, Remi Gilleron, Marc Tommasi, Text Classification andCo-training from Positive and Unlabeled Examples, Proceedings of the ICML 2003 Work-shop: The Continuum from Labeled to Unlabeled Data, 80-87, 2003.

29

Page 32: Podejście Co-Training w maszynowym uczeniu sięstudents.mimuw.edu.pl/~mk262654/dotnet/pracalic.pdf · i udowodnione zostaną najważniejsze twierdzenia obydwu działów. Dowody przedstawione

[13] Ion Muslea, Steven Minton, Craig A. Knoblock, Active + Semi-supervised Learning =Robust Multi-View Learning, Proceedings of the Nineteenth International Conference onMachine Learning, 435-442, 2002.

30