survey on text mining

108
Survey on Survey on Text Text Mining Mining Clustering Classification Retrieval Antonello Caggiano Antonello Caggiano [email protected] [email protected] Universit Universit à à di Bologna, sede di Cesena. di Bologna, sede di Cesena.

Upload: antonello-caggiano

Post on 05-Dec-2014

4.239 views

Category:

Business


1 download

DESCRIPTION

 

TRANSCRIPT

Page 1: Survey On Text Mining

Survey onSurvey on

TextText MiningMining

Clustering

Classification

Retrieval

Antonello Caggiano Antonello Caggiano –– [email protected]@email.it

UniversitUniversitàà di Bologna, sede di Cesena.di Bologna, sede di Cesena.

Page 2: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

2

Intro

Migliaia di documenti vengono prodotti ogni

giorno:

� Brevetti, Pubblicazioni scientifiche, E-Mail,

Telefonate, Stampa.

� Internet, CD-Rom, DB;

�Word, HTML, XML, PDF, TXT;

�Inglese, Cinese, Russo, Italiano.

Page 3: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

3

Intro

• Più dell'80% della conoscenza non èstrutturata.

• Avere una tale ricchezza di materiale

senza conoscerlo equivale a non avere

informazioni disponibili.

L'informazione L'informazione èè nulla, se non nulla, se non èè gestita.gestita.

Page 4: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

4

Text Mining: definizione

Insieme di tecniche per:

• Analizzare archivi testuali e non;• Strutturare e classificare il contenuto;• Trovare l’informazione nascosta.

Attraverso il text mining si possono analizzare volumi

immensi d’informazione e si possono identificare relazioni e

strutture che altrimenti sfuggirebbero alla capacità

analitica dell’essere umano.

Page 5: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

5

Text Mining: cosa fa?

Permette di trattare i documenti con strumenti di analisi automatica che:

- riassumono e categorizzano i documenti, - identificano la lingua in cui sono scritti;- estraggono concetti chiave, nomi propri e frasi con più parole, ne riportano

frequenze, - classificano un documento in funzione della rilevanza rispetto a uno specifico

argomento.

Alcuni incorporano capacità di recupero automatico di documenti sulla rete internet (WebWeb--crawlingcrawling):

- estraggono dati in vari formati; - collegano le informazioni tra di loro in relazioni spaziali o temporali; - scoprono legami o catene di informazioni legate fra di loro; - raggruppano documenti in funzione del loro contenuto; - effettuano analisi incrociate e permettono l’utilizzo congiunto di package statistici.

Page 6: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

6

Text Mining: cosa utilizza?

• È un campo multidisciplinare, che impiega:– l’Information Retrieval (la raccolta di informazioni),

– l’analisi testuale,

– l’Information Extraction (l’estrazione di informazioni),

– il clustering,

– le tecniche di visualizzazione,

– le tecniche di trattamento dei database,

– l’apprendimento artificiale,

– il Data Mining (l’accoppiamento della tecnologia della lingua con gli algoritmi del data mining)

Page 7: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

7

Text Mining: vantaggi

• I vantaggi:∼ Pianificare decisioni e implementazione di attività strategiche;

∼ Prevenire situazioni future di rischio;

∼ Conoscere meglio clienti, competitor, fornitori, partners;

∼ Captare segnali deboli (annuncio di possibili cambiamenti);

∼ Identificare nuovi potenziali clienti;

∼ Valutare la posizione competitiva;

∼ Identificare i Trend del settore o di mercato;

∼ Identificare tematiche riguardanti i prodotti evidenziando

possibili problemi e cambi di tendenze.

Page 8: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

8

Applicazioni

• Segmentazione della clientela (Database Marketing) –– individuazioneindividuazione delle diverse tipologie di delle diverse tipologie di clienticlienti per campagne di

marketing diretto, valutazione effetti, ottenere indicazioni su come modificare la propria offerta, monitorare nel tempo l'evoluzione della propria clientela e l'emergere di nuove tipologie.

• Analisi delle associazioni (Basket Analysis)–– individuazioneindividuazione di associazioni a dati di venditadi associazioni a dati di vendita per conoscere

quali prodotti sono acquistati congiuntamente; ciò consente di migliorare l'offerta dei prodotti (disposizione sugli scaffali) e di incrementare le vendite di alcuni prodotti tramite offerte sui prodotti ad essi associati

Page 9: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

9

Applicazioni

• Page Rank di Google–– Ordina il risultato delle ricerche rispetto alla prioritOrdina il risultato delle ricerche rispetto alla prioritáá. L’importanza di

un risultato dipende (in parte) dalle pagine che vi puntano (Backlinks). Il peso dei Backlinks dipende dalla pagina da cui proviene il link.

• ECHELON–– Rete informaticaRete informatica, segreta fino al 1997, capace di controllare lcapace di controllare l’’intero intero

globo e di intercettare, selezionare e registrare ogni forma di globo e di intercettare, selezionare e registrare ogni forma di comunicazione elettronica.comunicazione elettronica. Ogni stazione raccoglie informazioni in modo automatico. Le stazioni utilizzano tecniche avanzate di intelligenza artificiale per riconoscere ed estrarre le informazioni interessanti

Page 10: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

10

Processo di Mining

INFORMATION RETRIEVAL

INFORMATION EXTRACTION

INFORMATION MINING INTERPRETAZIONE

Page 11: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

11

Information Retrieval

Localizzare e recuperare documenti che possono essere Localizzare e recuperare documenti che possono essere considerati rilevanti alla luce degli obiettivi prefissati.considerati rilevanti alla luce degli obiettivi prefissati.

• Ha come obiettivo la selezione di un sottoinsieme rilevante di documenti da un insieme più grande e la rappresentazione di tutto il contenuto informativo di una forte parte delle informazioni contenute nel testo.

• IR fa riferimento all’attività di ricerca di documenti attraverso parole chiavi o composizioni logiche delle stesse (query), le quali a loro volta sono utilizzate per indicizzare i documenti.

Page 12: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

12

Information extraction

Estrazione di informazioni dai documenti selezionati.Estrazione di informazioni dai documenti selezionati.

• Può essere considerata come un’attività di supporto all’IR.

� IR fa riferimento ad attività di ricerca di documenti attraverso parole chiavi: spesso però non porta al recupero di documenti realmente interessanti per il nostro scopo perché le chiavi sono scelte da terzi (generalmente dall’autore del testo).

� IE cerca di superare questa differenza tra le due logiche in modo da avere un meccanismo di ricerca che sia basato su una rappresentazione oggettiva della conoscenza. �

Page 13: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

13

Processo di IE

• Due parti principali:� estrazione di fatti individuali dal documento

attraverso analisi locale del testo;

� integrazione dei fatti estratti con analisi di co-referenza e di inferenza.

� Infine: traduzione dei fatti pertinenti nel

formato output richiesto.

Page 14: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

14

Fasi del processo•• Analisi lessicale Analisi lessicale

– Assegnazione di part-of-speech alle singole parole attraverso l’analisi morfologica.

•• Riconoscimento Riconoscimento di nomidi nomi– Identificazione di nomi ed altre speciali strutture lessicali (date,

locuzioni, cifre, ecc.).

•• Analisi Analisi sintatticasintattica– individuazione di gruppi nominali, gruppi verbali, strutture sintattiche

di interesse.

•• IndividuazioneIndividuazione fattifatti di interessedi interesse– fatti integrati e combinati con altri presenti nel documento attraverso

l’analisi del discorso. Analisi di coreferenza e inferenza.

•• Generazione Generazione di templatedi template– dati ordinati e rappresentati sotto forma di tabella di output.

Page 15: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

15

IE: Analisi lessicale

Distinguere “ciò che è detto” da

“come viene detto”.

Il testo viene prima diviso in frasifrasi e tokentoken. Ciascun token viene ricercato all’interno di un dizionario per determinarne i possibili part-of-speech ed altre caratteristiche.

Page 16: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

16

IE: Riconoscimento di nomi

I nomi vengono identificati tramite un set di patternpattern (espressioni regolari) espresse nei termini del part-of-speech, delle caratteristiche sintattiche e delle caratteristiche ortografiche (ad es. l’iniziale maiuscola).

Page 17: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

17

IE: Analisi sintattica • Consiste nell’identificazione di legami

sintattici elementari fra i diversi elementi

della frase.

• Gli argomenti da estrarre spesso

corrispondono a frasi di nomi nel testo,

mentre le relazioni di solito corrispondono a

relazioni grammaticali.

Page 18: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

18

IE: Pattern maching

• Il pattern matching consiste nell’estrazione di eventi o relazioni rilevanti per lo scenario di interesse.

Page 19: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

19

IE: analisi di coreferenza

• L’analisi di coreferenza si pone come obiettivo la risoluzione dei riferimenti dei pronomi ed anche di frasi di nomi che esprimono cose già dette nel testo.

Page 20: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

20

IE: inferenze

•• InformazioniInformazioni relative ad uno stesso evento posso essere sparsesparse in diverse frasi:– necessario riunire tali informazioni prima della

generazione dei template o degli output.

• Quando invece sono presenti delle informazioni non esplicitamente indicate nel testo si fa uso del meccanismo dell’inferenza per renderle esplicite.

Page 21: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

21

IE: generazione dei template

• Tutte le informazioni finora ricavate dal testo sono sufficienti per l’estrazione dei templatetemplate, un particolare tipo di output.

� frame (tabelle) con slot da riempire con le informazioni richieste.

Page 22: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

22

Information Mining

• Una volta compilato un template per ogni documento analizzato, abbiamo, di fatto, un database che è compatibile con le tecniche usuali di Data Mining.

• In questo modo cerchiamo dei patterns o delle relazioni fra i dati. Nel caso di analisi di un testo unico, questa fase corrisponde alle tecniche di analisi della conoscenza estratta, comprendenti metodi statistici e metodi simbolici.

Page 23: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

23

Interpretazione

• Consiste nell’analizzare i risultati e interpretare i pattern scoperti durante la fase di mining.

• Idealmente, l’interpretazione dovrebbe essere in formato di linguaggio naturale.

Page 24: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

24

Text Mining:

‘Major topic areas’

I. Clustering

�������� Automatic Discovery of Similar WordsAutomatic Discovery of Similar Words≈≈≈≈ Pierre Senellart, Vincent D. Blondel

II. Document retrieval and representation

�������� Vector Space Models for Search and Cluster MiningVector Space Models for Search and Cluster Mining≈≈≈≈ Mei Kobayashi, Masaki Aono

III. Email surveillance and filtering

�������� Spam Filtering Based on Latent Semantic IndexingSpam Filtering Based on Latent Semantic Indexing≈≈≈≈ Wilfried N. Gansterer, Andreas G.K. Janecek, Robert Neumayer

IV. Anomaly detection

�������� A Probabilistic Model for Fast and Confident Categorization of TA Probabilistic Model for Fast and Confident Categorization of Textual extual

DocumentsDocuments

≈≈≈≈ Cyril Goutte

Page 25: Survey On Text Mining

I. ClusteringI. Clustering

Page 26: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

26

Automatic Discovery

of Similar Words

Scopo: scoperta automatica di sinonimi.

Tecniche:

1. Input: una parola;

Output: lista di buoni sinonimi o near-synonym.

2. Input: una sorgente;

Output: thesaurus (domain-specific).

Page 27: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

27

Cosine measure: - 1 documento - 1 dimensione;

-∀ termine – 1 vettore nello spazio del documento (1 presente, 0 no).

Similarità�

Cluster measure- somiglianza semantica tra i termini;

Similarità�

Differenze: ☺ cluster measure: ☺ ‘recall’ (quanti termini selezionati)

‘precisione’ (termini attinenti, rilevanti).

Vector Space Model

Page 28: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

28

Thesaurus

[Crouch]

Scopo: - costruzione automatica thesaurus con classi di parole similli, che raramente appaiono nel corpus; - uso di VSM.

Schema utilizzato: term frequency inverse document frequency (tf-idf).

[Salton, Yang, Yu]

Scopo: misurazione effetto aggiunta termine in similarità documenti.

Schema utilizzato: term discrimination value.

calcolo termine discriminante molto costoso;� term document frequency

Soluzione: uso solo di documenti in cui il termine appare

Page 29: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

29

Syntactical Context:

SEXTANTProcesso:

1)1) Analisi lessicaleAnalisi lessicale;2)2) DetectingDetecting di frasi di nomi e verbi;di frasi di nomi e verbi;3)3) ParsingParsing�4)4) SimilaritSimilaritàà:

.

dove,

Page 30: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

30

Results

Page 31: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

31

Discovery of SimilarWords

in a Dictionary

Scopo: estrazione automatica di sinonimi in

dizionario monolingua.

Metodo proposto (gen. metodo HITS, Kleinberg):

- grafico costruito da un dizionario (iniziale);

- sinonimi (assunzione):- hanno molte parole comuni nella definizione;

- sono usati in definizione di parole comuni.

Page 32: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

32

HITS algorithm

Ipotesi:

- dizionario � costruzionedi G, dictionary graph associato;-∀ parola – 1 vertice- arco uu��vv se v è nella definizione di u.

- parola w: sottografo Gw

(vertici che puntano ad a? – vertici puntati da a?).

Struttura da considerare: 1�2�3

2 � sinonimo in considerazione

Ricerca sinonimi Ricerca pagine web simili

Pagina Web Vertice.

Page 33: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

33

Algoritmo:- costruzione focused subgraph Gw;

- calcolo hub(x1) & authority (x2) score per tutti i vertici di Gw.

Processo:- x1 = 1, x2 = 1, hub & authority score.- aggiornamento pesi: mutually renforcing rule.

- equazione aggiornamento:- Mw matrice di adiacenza associata a Gw

HITS algorithm:

generalizzazione

Page 34: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

34

Generalizzazione � considerare Gw , costruito con:- parole che appaiono nella definizione di w. - parole che usano w nella loro definizione.⇒ w vertice 2.

Considerazioni iniziali - Esempio ����

- Probable, Likely: vertice 2;- Truthy: vertice 1;- Belief: vertice 3.

• Un vertice è simile al vertice 2 se:- Punta a vertici che sono simili al vertice 3- È puntato da vertici che sono simili al vertice 1.

� x2 converge all’autovettore principale di MwMTw+MT

wMw;Risultato: lista sinonimi ottenuta tramite ranking in ordine decrescente delle entry dell’autovettore principale di MwMT

w+MTwMw.

Page 35: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

35

Distance Method

Synonym distance ���� due parole vicine se:� appaiono nella definizione di molte parole in comune,� hanno molte parole in comune nella loro definizione.

Ordinamento � distanza crescente:☺ può essere applicato a un intero dictionary graph; risultati non buoni Es: sugar: pigwidgeon, ivoride.

Page 36: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

36

ArcRank

Scopo: trovare non sinonimi ma related

words.

Basato su algoritmo PageRank (�� GoogleGoogle).

Si assegna un ranking a ogni arco secondo il ranking dei vertici.

Page 37: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

37

Experiments

Dizionario utilizzato: �� Online Plain Text English DictionaryOnline Plain Text English Dictionary� 27 file HTML: http://www.gutenberg.net/

� Multi-words non incluse nel grafico (All Saints, Surinam toad...);

� Head words prefissi e suffissi: esclusi dal grafico (un-, -ous);

� Parole con troppi significati e head word di definizioni multiple: definizioni raccolte in una;

� Riconoscimento di forme flesse� Esclusione stop-word

Page 38: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

38

Experiments

� 4 metodi;� aggiunto anche WordNetWordNet, human-written;

� 4 parole;� Disappear: parola con sinonimi vari come vanishvanish;

� Parallelogram: parola senza veri sinonimi ma con parole simili;� Sugar: parola con significati differenti (in chimica, cucina,

dietologia); � Science: parola comune e vaga;

� 5 categorie (sostantivi, aggettivi, avverbi, verbi, altro);

� esaminati i primi 10 risultati.

Page 39: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

39

-disappear-

�� DMDM e OMOM: buon lavoro (OM migliore).

� VanishVanish, , ceasecease, , fadefade, , diedie, , passpass, , dissipatedissipate, , faint: faint: molto rilevanti;

�� LightLight, portport: irrilevanti (pos. 6,7,8, no problem);

�� PassPass pos. 2: portport e appearappear fuori (OM) difficile da spiegare.

�� ARAR:: risultati poveri, alcune parole fuori luogo;

� eat, instrumental, or epidemic.

Page 40: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

40

-parallelogram-

�� DMDM, , OMOM: risultati simili e interessanti;

�square, rhomb, quadrilateral, rectangle, figure

� ARAR: non da risultati interessanti.

� consequently and popular irrilevanti

� WNWN: qui meno ricco, si focalizza su un particolare aspetto: quadrilateral.

Page 41: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

41

-sugar-

�� OMOM: migliore ancora di DM;

� starch, sucrose, sweet, dextrose, glucose, lactose;

cane non buono.

�� ARAR: risultati irrilevanti

� property, grocer;

Page 42: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

42

-science-

��DMDM e OMOM: risultati comparabili

��ARAR: qui funziona meglio ma risultati piùpoveri degli altri.

Page 43: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

43

Conclusioni

�� Distance Method e Our Method Distance Method e Our Method forniscono parole interessanti e rilevanti.

�� ArcRankArcRank non adatto per ricerca sinonimi.

� Qualità risultati alquanto differenti da dizionari human-written come WordNetWordNet.

Queste tecniche:� Mostrano interesse� Presentano più aspetti di un dizionario human-written.

Possibili utilizzi:� aiuto nella compilazione di un dizionario di sinonimi.

Page 44: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

44

Vantaggi

� Facilità di costruzione e mantenimento

Nessuno è perfetto. Vaghezza nozione ‘similar word’;

Nessuno può competere con il dizionario human-written in termini di responsabilità.

!Possibilità di costruire un buon thesaurus se si differenziano i significati di sinonimi, antonimi, omonomi ecc.

Page 45: Survey On Text Mining

II. Document retrieval and II. Document retrieval and

representationrepresentation

Page 46: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

46

Vector Space Models

for Search and Cluster Mining

Algoritmi di ricerca e cluster mining Algoritmi di ricerca e cluster mining

basati su VSMbasati su VSM

1) Latent Semantic Indexing (LSI), Principal Component Analysis (PCA);

2) Introduzione metodo per ricerca minor

cluster.

Page 47: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

47

Modello VSM per IR

Vantaggi: ranking di documenti di formato eterogeneo.

Nei BooleanBoolean vector model:vector model:- 1 (attributo presente);- 0 (attributo assente);

" un raffinamentoraffinamento Boolean model: term weighting� term frequency document frequency weighting (tf-idf): un tipo di tm;

� importanza del termine data dalla sua frequency appearance nei documenti

Sistemi IR:

-- RankingRanking documento rispetto query: - similarity distance (coseno).

-- ScalabilitScalabilitàà metodi di ranking- Riduzione dimensione modelli matematici

Page 48: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

48

LSI

Obiettivo: riduzione dimensione spazio parole-documenti

Idea: parole documento suggeriscono contenuto semantico del documento stesso.

Analisi strutture utilizzo parole guardando al corpus e collocando i

documenti con un utilizzo simile delle parole vicine nello spazio di

dimensioni ridotte e consentendo anche a documenti semanticamente

correlati di essere vicini anche se non hanno parole in comune

Processo: - SVD di A (matrice MxN doc-attr) � Ak;- uso delle prime k-diadi� Ak = UkΣkVk

T ;- confronto query-documenti

Page 49: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

49

LSI:

dimensional reduction process

La mancata considerazione di sinonimia porterà a molte piccoli, disgiunti cluster, alcuni dei quali dovrebbero essere raggruppati insieme, mentre la mancanza di considerazione di polisemia può portare ad estranei documenti, nonché la creazione di cluster.

Invece, una parola con multipli significati non correlati, ha tanti contesti in cui appare. La parola sarà mappata in una regione diversa per ogni separato significato e contesto perché l’esistenza di termini co-occorrenti è improbabile per documenti che coprono differenti significati di una parola

Page 50: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

50

PCA

• Obiettivo: riduzione dimensionale (analisi matrice covcovarianza COVCOV).

Processo:

- Calcolo matrice covarianza- Calcolo autovalori (distribuzione dati)

- ordinamento decrescente autovalori (per avere le componenti in ordine di significatività)

- k componenti considerate

Page 51: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

51

Confronto LSI - COV

Dimensione:LSI:LSI: prende le colonne della matrice k-dimensionale più vicine ad A

COVCOV: trova lo spazio k-dimensionale che più rappresenta i dati originali

Scalabilità:

�� COVCOV: calcolo 100 autovalori più grandi e autovettori corrispondenti� collo di bottiglia.

�� COVCOV: può essere usato in Real Time-IR e data mining (se spazio attributi piccolo).

�� COVCOV: un algoritmo di mining information da dataset distribuiti su multiple location;

� Vantaggio: risparmio nella percentuale di trasmissione dati ( generalmente transmission cost > computational cost )

Page 52: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

52

Clustering Methods

Obiettivo: far appartenere o no un documento a un cluster.

Quattro metodi:� Hard clustering method:∀documento - 1 cluster;

� Hard clustering method:∀ ogni documento - massimo un cluster.

# Soft clustering method: favoriscono overlapping clusters;

$ Soft clustering method: mining di overlapping cluster eoverlap information.

Page 53: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

53

Related Work: Ando

Iterative rescaling per piccole collezioni di documenti.

IdeaIdea: evitare a temi major di dominare la selezione dei vettori di base nel subspace in cui il problema di IR e clustering verrà mappato � introduzione bias a documenti di cluster rappresentati da vettori giàselezionati

ProblemiProblemi:- con numero elevato di documenti

� problema con documenti Є più cluster.

- minor cluster potrebbero non essere identificati;

Page 54: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

54

Related Work: Kobayashi, Aono

Obiettivo: identificazione mino-major cluster.

Duel algoritmi1) LSI con rescaling (LSI-RS):

� per il controllo dinamico dei pesi e ridurre la perdita di informazione riguardo minor cluster; � uso di SVD nell’iterative rescaling; � introduzione ortogonalizzazione di Gram-Schmidt modificata

dei vettori base.

2) COV con rescaling (COV-RS):

� analogo LSI-RS, LSI� modificazione COV;� calcola i residui della matrice di covarianza.

Page 55: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

55

COV-SS

AlgoritmoAlgoritmo: possibilità di saltare iterazioni che trovano ripetizioni di major cluster e passare a iterazioni che trovano minor cluster.

VantaggiVantaggi: � costi di computazione, storage e memoria ridotti;% testa velocemente se il rescaling è necessario.

� introduzione modificazioni per preservare sparsità:% aumento velocità e scalabilità;& risultati peggiori.

Page 56: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

56

Conclusioni

'''' COV:

( non ha costi di rescaling;( usa un risolutore di autovalori-autovettori dispendioso.

'''' COV-RS:

( migliore di LSI, COV e LSI-RS per identificare grandi e multipli minor cluster.

'''' LSI-RS e COV-RS:( computazionalmente dispendiosi ;

) rescaling dei document vector.

'''' COV-RS -SS:

( uso di ‘power method’ per trovare l’autovalore più grande e i corrispondendi autovettori.) non dispendioso

'''' COV-SS:

( mining dispendiosi per db grandi;) soluzione: campionatura casuale dei documenti (random sampling document);

( conversione vettore sparso � vettore denso: collo di bottiglia;) utilizzo di una soglia; � riduzione computazione e tempo di data acces; � errori computazionali maggiori.

) coordinate nonzero piccole di un vettore recentemente calcolato;� riduzione costo computazionale;� riduzione errori

Page 57: Survey On Text Mining

III. III. Spam Filtering Based on Spam Filtering Based on

Latent Semantic IndexingLatent Semantic Indexing

Page 58: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

58

Overview

1. Classificazione LSI (Latent Semantic Indexing);

a. paragoni con VSM.

2. Introduzione SpamAssassin system.

3. Problem reduction computational effort

for classification.

Page 59: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

59

Spam Filtering

Problema di classificazione binario:� Spam emailSpam email;

� Ham emailHam email.

Spam: molti elementi semantici in comune:- difficili da indicare completamente;- non sempre conosciuti;

- latenti.

Page 60: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

60

LSI for spam filtering

Due aspetti centrali: (1) SVD troncata;(2) classification performance risultante.

LowLow--rankrank aproximationaproximation della matrice feature-document

� utile per riduzione dimensione problema.

Obiettivo: ridurre il feature set prima del classificationprocess:� riduzione tempo di calcolo.

Page 61: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

61

Anti-spam methods I

+ Tre approcci (categorizzati secondo il punto di azione nel processo di trasferimento):

1. Pre-send: prima che l’email entri in rete;- evitano lo spreco di risorse.

2. Post-send: dopo;- “workhorse”.

3. New Protocols: basati sul cambio del processo di trasferimento.

� SpamAssassin: estrae feature da email entranti (header, body, testo);� Uso di Baysian classifier;

� Esempio in AKCS00AKCS00: calcolo probabilità condizionale per email spam basata sulle parole (token) che contiene. training, tuning, maintenance da parte dell’uer.

Page 62: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

62

Metodo di GeeMetodo di Gee: uso di classificatore LSI-based� basato sulle textual-feature delle email.

Motivazioni: studiare l'influenza della scelta di differenti feature set su performance di VSM - e LSI-basedspam filtering.

• Obiettivo: – estendere l'approccio di Gee (LSI su text-based feature);– valutare la classification performance realizzata con LSI su un

set di “meta features” (come in SpamAssassin);– quantificare l'influenza delle riduzioni di feature sui risultati di

classificazione.

Anti-spam methods II

Page 63: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

63

Classification Methodology

• VSM (n documenti, set F, f feature, componenti vij):� matrice M feature-document f x n

• LSI: variante VSM basico (approssimazione minima di M):

� LSI Truncation:

☺ Storage requirements e computational cost per la distanz query vector – documenti

Computational cost per calcolo SVD

Page 64: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

64

Obiettivo:

, quali feature di una email sono più rilevanti per una classificazione a spam o ham?

, qual è il miglior modo per categorizzare email spam o ham?

Consideriamo e confrontiamo:�� featurefeature estratte da SpamAssassinSpamAssassin:� “F_SAF_SA”;

�� featurefeature texttext--basedbased:� “F_TBF_TB”.

VSM & LSI:

spam filtering

Page 65: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

65

SpamAssassin Features

• Test su diverse parti del messaggio:– body, header– URI checks, rawbody test, blacklist test

• ∀ test � assegnato un valore– reale positivo: spamspam;– reale negativo: hamham.

• Stima complessiva di un messaggio: somma di tutti i valori assegnati ai test– Sum > user defined threshold (=5 di default) ���� SPAMSPAM;

• Problemi:– feature set di Spam Assassin “unbalanced”;

• circa il 96% di ogni test controlla per una feature che punta a spam;• solamente circa il 4% delle prove punta a ham;

– presenza di test che triggerano erroneamente.

Soluzione� migliorare le strategia di estrazione.

Page 66: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

66

Text-based features

Dimensionality Reduction

■ Document frequency thresholding (esclude termini che hanno document frequency molto alta o molto bassa):

- termini presenti in tutti i documenti � poco discriminanti- fattibile anche per dati unsupervised.☺ class information non necessaria, computational cost ridotto

ProceduraProcedura: 1. soglia superiore fissata a 0.5: da adesso tutti i termini presenti in più della metà dei

documenti� omessi. 2. la soglia inferiore adattata dinamicamente per conseguire un determinato numero

desiderato di feature.

■ Information Gain:- selezione delle feature più importanti dalla “pre-selection” per favorire la riduzione del computational cost.

dove

Page 67: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

67

Feature/Attribute Selection

Methods UsedObiettivo: applicare IG attribute selection al feature set di SpamAssassin.

Uso di due feature selection alternative (calcolate usando WEKAWEKA):1. x2 attribute selection: valuta il significato di un attributo

calcolando l’x2 rispetto alla classe;2. ...una strategia intuitiva:estrazione top 50 feature,TB, top 10

feature, SA.

● Applicazione x2 attribute selection su feature text-based:� non cambia l’ordine delle feature.

● Confronto dei 3 metodi di feature selection con lo SpamAssassin

feature set:

� presenza di 8 SA feature set nei 3 subset estratti.

Page 68: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

68

Experiments

• Data set– TREC 2005 (25%): ‘S1’ (9.751 ham, 13.179 spam);

– Self-collected email: ‘S2’ (5.502 ham, 5.502 spam).

• Setup– N-fold cross-validation: 3 (S1), 10 (S2);

• n-1 training, n testing.

Il cross-validation fu performato per sei differenti LSI truncation usando

i feature set F_SA e F_TB.

Page 69: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

69

Analysis of Data Matrices

Page 70: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

70

Aggregated Classification

Results

� per ogni

troncamento LSI

risultati migliori per

F_SA

� F_TB: ogni aumento

provoca calo nel

classification result

Page 71: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

71

True/False-Positive Rates

• F_TB S1 abbastanza elevata (classificationresult 96,80%)

• F_TB S2 < F_TB S1 ma > F_SA

Page 72: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

72

Feature Reduction

Aggregated Results- Top 50: lievemente

peggiore VSM- Top 50: S1 F_TB quasi

uguale

- Top 10: accettabili solo F_SA

�F_SA più robusto in termini di feature reduction

�LSI 25% su 10 f > VSM su 10 f

Page 73: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

73

Features Reduction

True/False-Positive Rates- IG e x2: quasi uguali;

- TT � LSI 25% aumento rispetto VSM

- VSM 50 f, 10 f:

- % false-positive quasi uguali per tutti i subset;

- % true-positive decrescono con feature ridotte;

- LSI 25% 10 f ≈ LSI 25% 50 f

- S1: % false-positive in aumento con LSI 25% 10 f.

Page 74: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

74

Conclusioni

1. VSM e LSI (su F_SA, F_TB) realizzano classification result migliori SpamAssassin;

2. Classification result con VSM e LSI su feature set SpamAssassin migliori che F_TB.

3. VSM realizza classification result migliori che LSI a molti livelli di troncamento.

4. Per ogni livello di troncamento di LSI la percentuale false-positive basata su F_SA è molto piùbassa che una basata su F TB .

5. LSI truncation basato sul feature set originale più stabile che VSM,

6. Classification performance di LSI su feature SpamAssassin piuttosto robuste se il numero dicaratteristiche usate è ridotto significativamente ed inoltre realizza notevoli risultati di classificazione

In generale, VSM e LSI vanno bene per spam In generale, VSM e LSI vanno bene per spam filteringfiltering se il se il featurefeature set set èè propriamente scelto. propriamente scelto.

In particolare, il In particolare, il featurefeature set di set di SpamAssassinSpamAssassin realizza risultati migliori che il comune realizza risultati migliori che il comune featurefeature setsetpuramentepuramente testuale basato su word/testuale basato su word/tokentoken--extractionextraction. .

Page 75: Survey On Text Mining

IV. Anomaly detectionIV. Anomaly detection

Page 76: Survey On Text Mining

A Probabilistic Model for Fast

and Confident

Categorization of Textual

Documents

Obiettivo: implementazione di categorizzatore di textual documents per gestire multiple labeling;

- aggiunta di un piecewise-linear confidence estimation

layer per fornire una stima del labeling confidence.

Features useful features and extensions: • category-specific decision layer;• extraction of descriptive category keywords

from the probabilistic profile.

Page 77: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

77

FeaturesFeatures desiderabilidesiderabili::� Fast training (only one pass over data);� Probabilistic profile di ogni classe usato per descrivere il contenuto delle categorie;

(...le label potrebbero essere non ben descrittive)

PredictionPrediction:- Expectation Maximization EM: calcolo probabilità documento appartenenza categoria.

Ipotesi: indirizzare il problema ad essegnare multiple labeling ai documenti e non ogni documento a una singola categoria.

Model features

Page 78: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

78

Problema:

- set M documenti {di}, i=1…M;

- relative label l Є {1,…C}, C numero di categorie; ◦ 1 label – 1 documento;

---- training set D = {(di, li)}, i=1…M;

Categorization task: - dato ñ !Є D, trovare ĩ. (ñ nuovo documento, ĩ etichetta più appropriata).

Risoluzione, Vapnik:-- inferenza inferenza induttivainduttiva: stima di un modello f usando D, assegnando ñ

alla categoria f(ñ). -- inferenza inferenza trasduttivatrasduttiva:: stima della label ĩ direttamente senza stimare un

modello generale.

The Probabilistic Model

Page 79: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

79

Soluzione proposta:

- ogni documento d composto da w parole da vocabolario V. - bag-of words assumption (usata solo frequenza n(w,d), non l’ordine);

� Probability of co-occurrency �

. P(w|c): P(w|c): profili categorie sul vocabolario

. P(c|d):P(c|d): profili di ogni documento sulle categorie

(modello usato in PLSA, Probabilistic Latent Semantic Analysis).

Key modeling: documenti e parole sono condizionatamente indipendenti� tutti i documenti usano lo stesso vocabolario nello stesso modo

Eq. 10.1

The newnew Probabilistic Model

Page 80: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

80

Training

Probabilità del modello con parametri θ = {P(d); P(c|d); P(w|c)} è

Per ogni training document si ha: P(c = li|di) = 1 , P(c ≠ li|di) = 0, per tutte le i.

Proposta (si introducono):

- la lunghezza del documento d � |d| = Σw n(w,d) ;

- la dimensione totale di categoria c � |c| = ΣdЄc |d| ;- il numero parole nella collezione � N = Σd |d| ;

���� Maximum Likelihood estimate (ML) ����

Conseguenza chiave: modello equazione 10.1 molto meno sensibile a smoothing, rispetto Bayes���� in contrasto con molti algoritmi di training che contano su metodi di ottimizzazione iterativa

���� training modello proposto, computazionalmente efficiente.

.

Eq. 10.3

Eq. 10.2

Page 81: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

81

Prediction I

Problema Eq 10.1Problema Eq 10.1:: non è un modello generativo di nuovi documenti (contrariamente a Bayes). � impossibile calcolare probabilità a posteriori P(ñ|c) per un nuovo documento.

Proposta:Proposta: includere il nuovo documento nella collezione ����� aggiunta nuovi parametri nel modello: P(ñ), P(c|ñ).

���� Maximum likelihood ����

Aggiornamento �

Eq. 10.5

Eq. 10.4

Eq. 10.1

Page 82: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

82

Differenze post-prediction:

Bayes: una categoria/ un documento intero, parole del documento generate dalla categoria.

Modello proposto:

. una categoria c ogni co-occorrenza (w,d) � ogni parola può essere campionata da un differente category profile. � una parola con probabilità molto bassa avrà una piccola influenza sulla probabilità di una categoria posteriore e imporrà una penalità.

. modello molto meno sensibile alla probability smoothing

� non necessario settaggio di parametri extra per lo smoothing process.

Riferimenti a inductive learning e transductive learning:

Fase di training: sembra tipicamente induttiva � ottimizzazione di una funzione costo (la probabilità) per ottenere un modello ottimale. Notare, comunque, che questo è soprattutto un modello di training data, e non etichetta nessundocumento al di fuori del training set.

Fase di predizione: di adopera un’ulteriore ottimizzazione sul labeling del testo. Simile al transductive learning. � Modello proposto condivide similarità con ambedue gli algoritmi di learning

Prediction II

Eq. 10.5

Page 83: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

83

Obiettivo: Multilabel Categorization.

Modello attuale: multiclass – single label categorization

model.ProblemaProblema Anomaly Detection/Text Mining: multiclass – multi label

categorization problem� ogni documento, più categorie.

Soluzione: considerare tutte le combinazioni di categorie osservate e usarle come singole ‘labels’ (Mc Callum 99).

� Dati in gioco: 1151 combinazioni di label con almeno un documento associato � approccio poco pratico.

Multiclass, Multilabel

Categorization Problem I

Page 84: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

84

Problema: considerando combinazioni indipendenti di label� possibile perdita didipendenze tra le singole categorie . Es: (C4,C5,C10) e (C4,C5,C11)

� aggiunta di un layer di complessità nel sistema;

Approccio: ridurre il problema di multiple labeling a problemi di categorizzazione binaria � potenti categorizzatori come supporto al vector machine

- 22 label � training di 22 binary categorizers � 22 independent labeling decision –

Soluzione proposta: considerare una semplice soglia a Є [0;1] e assegnare alcun documento nuovo ñ a tutte le categorie c tale che P(c|ñ) ≥ a.

In più, visto che tutti i documenti nel training set hanno almeno una label, ci assicuriamo che a ñ venga sempre assegnata la label massima , anche se questo massimo èsotto la soglia (che è combinata con il calcolo del confidence level).

Multiclass, Multilabel

Categorization Problem II

Page 85: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

85

Altro problema: il labeling deve essere effettuato con un associato confidence level.

Obiettivo: prediction confidence.

Calibration: task per la stima della giusta probabilità di correttezza output categorizzatore.

� Confidence level: probabilità correttezza di un dato labeling: Non garantito che ilcosto della funzione usata sarà ottimizzato da una confidenceconfidence ‘‘wellwell--calibratedcalibrated’’..� categorizzatori perfettamente calibrati: misera performance;� eccellenti categorizzator (es. SVM): scarsamente calibrati o non calibrati.

Confidence estimation generalmente fatta aggiungendo un layer al modello del machine learning e features esterne che misurano il livello di difficoltà del task (Gillick, Ito, Young 1997 – Gandrabur, Foster, Lapalme 2006).

Confidence Estimation

Page 86: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

86

Soluzione Proposta: utilizzo di score function, Checker.jar, per ottimizzare

una funzione che in output fornisce il confidence level, data laprobabilità di

output del categorizzatore.

Page 87: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

87

Il modello consta di un probabilistic profile P(w|c): probabilità di ogni parola w delvocabolario di essere osservata in documenti di categoria c

� possibilità di identificare parole più tipiche per ogni categoria;� possiblità di interpretare i dati tramite keywords descrittive per ogni categoria.

Cosa fare? Considerare una parola w con la più alta probabilità P(w|c) (non moltoefficiente):- probability profile legato alla frequenza di parole nel training corpus (eq

10.3);

- parole con alta frequenza: parole grammaticali (“empty”) con contenuto non descrittivo.

Category Description I

Eq. 10.3

Page 88: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

88

Come identificare parole tipiche di una classe c: identificare parole che sono relativamente più frequenti in c che nel resto delle categorie. Ma come?� contrapporre il category profile P(w|c) e il “profilo” per il resto dei dati che è

P(w|¬c) ∞ Σγ≠c P(w|γ).

Differenza tra le due distribuzioni (dalla divergenza simmetrica di Kullback-Leibler):

N.B.: la divergenza è una somma aggiuntiva di contributi word-specific kw.

Parole con grande kw contribuiscono di più alla divergenza complessiva � da qui alla differenza tra categoria c e il resto.

Conseguenza: proposte come keywords le parole w per cui P(w|c) > P(w|¬c) e kw è il più grande.

Eq. 10.7

Category Description II

Page 89: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

89

Experimental Results

Obiettivo: utilizzo della precedente strategia per estrazione di parole

relazionate alla descrizione delle categorie.

� descrizione dettagliata esperimenti;

� risultati ottenuti.

Page 90: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

90

DataTraining data: 21519 report (22 categorie).

Preprocessing: tokenization, stemming, acronym expansion, removal of places and numbers.

Enfasi differenze: attuale metodo di categorizzazione rispetto a differenze in preprocessing (differenze in preprocessing tipicamente producono un gap più grande rispetto a differenze in method categorization)

Prepocessing proposto: stop-word removal usando una lista di 319 parole comuni.

Risultato: i documenti sono indicizzati in una bag-of-words formata registrando la frequenza di ogni parola in ogni documento.

Estimator of error prediction: i dati furono organizzat in un 10 flod cross –validation manner.

� Randomly reordered � informazione divisa in 10 parti: ( 9 contenenti 2152 componenti;( 1 con 2151 documenti.

� Training di un categorizzatore: ( usando ogni subset delle 9 parti come materiale di training; ( predizioni sullo split rimanente;

Result: 21 519 predizioni sulle quali ottimizzare i parametri a e b

Page 91: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

91

Results I

Finally cost function: combinazione prediction performance e confidence reliability.

Per ogni categoria c� calcolo Ac (~0.5), area sotto la curva ROC, per il categorizzatore;� tic Є {-1,+1} target label documento di;� yic Є {-1,+1} predicted label;� qic Є {0;1} associated confidence.

Calcolo risultato finale tramite Checker.jar

- con confidenza del 100% � predizione perfetta � risultato 2- assegnamento casuale � risultato 0

Utilizzado Checker.jar su predizioni cross-validated: si ottimizzano a e b;

Valori ottimi usati a = 0.24 e b = 0.93 indicando i documenti etichettati con categorie che:- probabilità posteriore > 0.24 e,- confidenza minima 0.93: un po’ inusuale (si etichetta con almeno 93% di confidenza );

Eq. 10.7:

� 1a parte � ’area sotto la curva’: dipende solo dall’ordering. � 2ª parte � coinvolge direttamente le stime di confidenza qic.

– il valore di questa parte aumenterà se si potrà assegnare con fiducia alta confidenza (qic ≈ 1) a documenti correttamente etichettati (tic != yic).

Eq. 10.7

Page 92: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

92

Se si potessero scoprire affidabilmente tali situazioni, sarebbe meglio scambiare la label piuttosto che minimizzare la sua influenza assegnando low

confidence.

���� Assunzioni:

� qic e ticyic indipendenti � seconda parte del costo ≈ q’(2xMCE-1)

�q’ media di fiducia;��MCEMCE, misclassificationmisclassification errorerror, = 1/M Σi(tic≠yic).

���� Strategia ottimale:

� prendere q’ alto quanto possibile settando qic → 1 quanto possibile.

� Questo spiega perché un alto valore di b risulta essere ottimale. Infatti, usando un’altra previsione nei nostri livelli di confidence, settando b a 0.99 o prodotti alti si migliorano i risultati (comunque settando b a alti valori solo i prodotti marginali beneficiano in termini di costo finale).

Results II

Page 93: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

93

Setting a = 0.24, b = 0.93� crosscross--validatedvalidated costcost ≈ 1.691. Setting a = 0.24, b = 0.93� crosscross--validatedvalidated costcost ≈ 1689 (su 7077 documenti di testo)

Sensitività performance del setting dei parametri a e b � Fig. 10.3

� optimal setting (cross) vicino alla stama cross-validation (cerchio).Max scoreMax score = 1.6894 ~ < 0.05% valore CV-ottimizzato;MinMin scorescore = 1.645 ~ < 2,5%.

significa che qualunquesetting di a e b in quel range sarebbe stato all’interno della condizione ottima del 2.5%

Results III

Page 94: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

94

Performance results: Performance results:

- errore mislabeling complessiva: 7.22%; - micro-media F-score: 50.05% (relativamente modesta, ma è stata usata solo una soglia,a!);

Una ispezione più dettagliata della performance di ogni categoria mostra una disparità in precision e recall, attraverso le categorie.

- precision: stima la probabilità che la label offerta dal modello è corretta;- recall: stima la probabilità che una reference label è effettivamente ritornata dal modello;- F-score: è la media armonica di precision-recall.

Suggerimenti:Suggerimenti:� Il valore di soglia a può essere troppo alto per alcune categorie (low recall) e,� troppo basso per altre (low precision).

Usanto cross-valited prediction si ottimizzano soglie category-specific threshold usando:• Maximum F-score;• Break-even point;• Minimum error rate.

Results IV

Page 95: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

95

Tabella 10.1: performance test sulle 22 categorie;

� varia è a seconda della categoria;

�alcuna relazione tra performance e dimensione categorie.

La peggiorepeggiore, ma anche la miglioremiglioreperformanceperformance, sono osservate sulle piccole piccole categoriecategorie.

.. C3,C5,C12,C22C3,C5,C12,C22 best F-scores.;.

..C15,C16,C17,C10 e C15,C16,C17,C10 e C7C7 < 50%

utilizzo di una sola soglia;

� F-score basso

Page 96: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

96

Category description

Unica informazione: labeling ogni

documento � 1 < n < 22.

Scopo: vedere se le keywords

estratte procurano alcune informazione

sul contenuto delle categorie.

Page 97: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

97

Riflessioni

Probabilistic model presentato: � può essere stimato da documenti preprocessati, indexati, ed

etichettati senza parametri di learning addizionali, e in un singolo passo sulle informazioni � training estremamente veloce.

� le predizioni per nuovi documenti di testo richiedono qualche piccolo calcolo in più ma è ancora piuttosto veloce.

� probabilistic category profiles usati per ottenere keyword descrittive per le categorie.

Page 98: Survey On Text Mining

Sezione II

Page 99: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

99

Emerging Technologies

00 Information Extraction Methodologies and Information Extraction Methodologies and ApplicationsApplications� Jie Tang, Mingcai Hong, Duo Zhang, Bangyong Liang, and Juanzi Li

00 Deriving Taxonomy from Documents at Sentence LevelDeriving Taxonomy from Documents at Sentence Level� Ying Liu, Han Tong Loh, and Wen Feng Lu

00 Rule Discovery from Textual DataRule Discovery from Textual Data�Shigeaki Sakurai

Page 100: Survey On Text Mining

I. Information Extraction I. Information Extraction Methodologies and Methodologies and

ApplicationsApplications

Page 101: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

101

Overview

Metodologie di automatic IEautomatic IE:

�� Rule learning based;Rule learning based;

�� Classification model based;Classification model based;

�� Sequential labeling based.Sequential labeling based.

Page 102: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

102

� Rule Learning-Based

Extraction Methods1 Dictionary based method.( costruzione di pattern dictionary;

) Es: AutoSlog, AutoSlog-TS;

1 Rule based method.( uso di regole generali;

) algoritmi di rule learning bottom-up: learning di regole da casi speciali a quelli generali;

) algoritmi di rule learning top-down: learning di regole da casi generali a quelli speciali.. Es: (LP)2, iASA.

1 Wrapper induction.( wrapper: contextual patterncontextual pattern semplice ma altamente accurato.

( wrapper induction: processo automatico di learning learning wrapperwrapper..(( wrapperwrapper learned: learned: usati per estrarre appropriate porzioni da un documento di testo.

( Es: WIEN, BWI.

Page 103: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

103

���� Classification-Based

Extraction MethodsMetodo: apprende a trovare startstart e endend di frammenti di testo da estrarre.

Idea: considerare il problema di IE come un problema di classificazione.

Training set: {(x1,y1),...(xn,yn)} - xi feature vector;feature vector;- yi classification tableclassification table∈{-1,+1}.

Classification model: learning &learning & predictionprediction.Support Vectore Machine: uno dei metodi diclassificazione più popolari.

Sistema proposto: learning & extractinglearning & extracting.

Obiettivo: detectingdetecting di start-, end-bound.

Page 104: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

104

���� Sequential Labeling-Based

Extraction Methods

Ipotesi: documento visto come sequenza di token e una sequenza di label assegnate a ogni token per indicare la proprietà del token.

Obiettivo: data una sequenza di osservazione x = (x1,x2,…..xn) trovare una sequence label y*=(y1,y2,…yn) che massimizza la probabilità condizionale p(y|x):

y* = argmaxyp(y|x)

Differenze rispetto Differenze rispetto rulerule--basedbased -- classificationclassification--basedbased: abilita la descrizione di dipendenze tra target information. Le dipendenze possono essere utilizzate per migliorare l’accuratezza dell’estrazione.

Sequential labeling models:

� Hidden Markov Model;

� Maximum Entropy Markov Model;

� Conditional Random Field.

Page 105: Survey On Text Mining

II. II. Deriving Taxonomy from Deriving Taxonomy from Documents at Sentence LevelDocuments at Sentence Level

Page 106: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

106

Overview

� Derivazione tassonomia documenti� Uso di Document Profile.

� Most Frequent word Sequence per ricerca

informazione semantica saliente� integrazione in DP.

Obiettivo: coinvolgere più informazione semantica nella modellizzazione del documento. � maggiori informazioni per collegare documenti in cluster.

• Uso di clustering gerarchico

Page 107: Survey On Text Mining

III. Rule Discovery from III. Rule Discovery from Textual DataTextual Data

Page 108: Survey On Text Mining

Antonello Caggiano - Survey on Text Mining

108

Overview

1 Metodi di knowledge discovery basati su fuzzy decision tree da textual data.

Obiettivo: metodo di kd descritto da un rule set � metodo rule discovery.

Rule set: � può classificare i dati testuali basato su punti di vista delle analisi � può rivelare relazioni tra le feature dei dati testuali, che costituiscono

conoscenza.

1111 Introduzione metodi di rule discovery basati su questa fuzzy set theory.