task modeling - delaware

46
A Taskbased Framework for User Behavior Modeling and Search Personaliza>on * Hongning Wang Department of Computer Science University of Virginia [email protected] *work is done when visi.ng Microso2

Upload: others

Post on 03-Oct-2021

1 views

Category:

Documents


0 download

TRANSCRIPT

 A  Task-­‐based  Framework  for  User  Behavior  Modeling  and  Search  Personaliza>on*

Hongning  Wang  Department  of  Computer  Science  

University  of  Virginia  [email protected]  

*work  is  done  when  visi.ng  Microso2  Research  

Search  Logs  Provide  Rich  Context  for  Understanding  Users’  Search  Tasks

5/29/2012    5/29/2012  14:06:04   coney  island  CincinnaI  5/29/2012  14:11:49   sas  5/29/2012  14:12:01   sas  shoes  

5/30/2012    5/30/2012  12:12:04   exit  #72  and  275  lodging  5/30/2012  12:25:19   6pm.com  5/30/2012  12:49:21   coupon  for  6pm  

5/31/2012  5/31/2012  19:40:38   motel  6  locaIons  5/31/2012  19:45:04   CincinnaI  hotels  near  coney  island  

5/29/2012    5/29/2012  14:06:04   coney  island  CincinnaI  5/29/2012  14:11:49   sas  5/29/2012  14:12:01   sas  shoes  

5/30/2012    5/30/2012  12:12:04   exit  #72  and  275  lodging  5/30/2012  12:25:19   6pm.com  5/30/2012  12:49:21   coupon  for  6pm  

5/31/2012  5/31/2012  19:40:38   motel  6  locaIons  5/31/2012  19:45:04   CincinnaI  hotels  near  coney  island   a  good  chance  

to  customize  the  results!  

85%  informaIon  maintenance  tasks  and  52%  informaIon  gathering  tasks  will  span  mulIple  queries  [Agichtein  et  al.  SIGIR’12]      

Task:  an  atomic  informa6on  need  that  may  result  in  one  or  more  queries  [Jones  et  al.  CIKM’08]   2  10/23/14   Task  Modeling  for  IR  

health  insurance  insurance  market  place  

free  medicaIon  obama  care  

affordable  healthcare      apple   orange  

banana  nutriIon  fruit  receipt  

health  reform  bill  

fruit  smoothie  

Healthcare  insurance  plan  

obamacare  medicare  

health  reform  

Beyonce  Rihanna  

Shakira   Lady  Gaga  pop  music  

low  cost  insurance  Grammy  Awards  

chicago  bulls  

NBA  game  schedule  Chicago  bulls  Ickets    

NBA  allstar  Ime  

AAPL  

stock  market  

financial  news  

FB   MSFT  

Query-­‐based  Analysis:  An  Isolated  View

Search  log  mining  approaches:  •  Query  categories  [Jansen  et  al.  IPM  2000]  

•  Temporal  query  dynamics  [Kulkarni  et  al.  WSDM’11]  

•  Survey:  [Silvestri  2010]  10/23/14   Task  Modeling  for  IR   3  

Task-­‐based  Analysis:  A  Comprehensive  View

Task:  read  financial  news  

Task:  inquire  health  insurance  

Task:  find  NBA  game  schedule  

Task:  download  pop  music  

10/23/14   Task  Modeling  for  IR   4  

Task-­‐based  Analysis:  A  Comprehensive  View

Task:  read  financial  news  

Task:  inquire  health  insurance  

Task:  find  NBA  game  schedule  

Task:  download  pop  music  

in-­‐task  personaliza6on  10/23/14   Task  Modeling  for  IR   5  

Task-­‐based  Analysis:  A  Comprehensive  View

Task:  read  financial  news  

Task:  inquire  health  insurance  

Task:  find  NBA  game  schedule  

Task:  download  pop  music  

Cross-­‐user:  collabora6ve  ranking  

10/23/14   Task  Modeling  for  IR   6  

Task-­‐based  Analysis:  A  Comprehensive  View

Task:  read  financial  news  

Task:  inquire  health  insurance  

Task:  find  NBA  game  schedule  

Task:  download  pop  music  

task  sa6sfac6on  predic6on  

SAT?  

DSAT?  

10/23/14   Task  Modeling  for  IR   7  

Research  Ques>ons

1.  How  to  effecIvely  extract  search  tasks  from  search  logs?  2.  How  to  represent  and  organize  search  tasks?  3.  How  to  model  users’  in-­‐task  search  behaviors?  4.  How  to  opImize  search  services  based  on  the  idenIfied  search  

tasks?  5.  How  to  interacIvely  assist  users  to  perform  search  tasks?  6.  ….  

8  10/23/14   Task  Modeling  for  IR  

Research  Ques>ons

1.  How  to  effecIvely  extract  search  tasks  from  search  logs?  2.  How  to  represent  and  organize  search  tasks?  3.  How  to  model  users’  in-­‐task  search  behaviors?  4.  How  to  opImize  search  services  based  on  the  idenIfied  search  

tasks?  5.  How  to  interacIvely  assist  users  to  perform  search  tasks?  6.  ….  

9  10/23/14   Task  Modeling  for  IR  

A  Task-­‐based  Framework  

•  Cross-­‐user  collaboraIve  ranking  

•  In-­‐task  personalizaIon  

q2   q3   q6  q5  BM25  

PageRank  

•  Search-­‐task  saIsfacIon  predicIon  

SAT?  

DSAT?  

q2   q3   q6  q5  

d21   d21  

d21  +

_

_

_ + +

_

q1   q2   q3   q4   q6  q5  q0  

•  Long-­‐term  task  extracIon  

10/23/14   Task  Modeling  for  IR   10  

A  Task-­‐based  Framework  

•  Cross-­‐user  collaboraIve  ranking  

•  In-­‐task  personalizaIon  

q2   q3   q6  q5  BM25  

PageRank  

•  Search-­‐task  saIsfacIon  predicIon  

SAT?  

DSAT?  

q2   q3   q6  q5  

d21   d21  

d21  +

_

_

_ + +

_

q1   q2   q3   q4   q6  q5  q0  

•  Long-­‐term  task  extracIon  

10/23/14   Task  Modeling  for  IR   11  

How  to  extract  tasks?  [WWW’13]

• New  perspecIve:  best-­‐link  as  task  structure  

q1   q2   q3   q4   q6  q5  q1   q2   q3   q4   q6  q5  q0  

Latent!   Exis6ng  solu6ons:  Binary  classifica.on  [Jones  et  al.  CIKM’  08,  Lucchese  et  al.  WSDM’11,  Kotov  et  al.  SIGIR’  11,    Liao  et  al.  WWW’11]  

Structured  learning  solu6on:  Query  features  (9)  URL  features  (14)  Session  features  (3)  

12  

Structure  is  lost  

10/23/14   Task  Modeling  for  IR  

Experimental  Results

• Query  Log  Dataset  •  Bing  search  log:  May  27,  2012  –  May  31,  2012  •  Human  annotaIon  

•  3  editors  (inter-­‐agreement:  0.68,  0.73,  0.77)  

13  10/23/14   Task  Modeling  for  IR  

Example  of  Iden>fied  Search  Tasks

14  10/23/14   Task  Modeling  for  IR  

Search  Task  Extrac>on  Performance

Different  structural  assumpIon  

No  structures,  different  post-­‐

processing    

15  10/23/14   Task  Modeling  for  IR  

A  Task-­‐based  Framework  

•  Cross-­‐user  collaboraIve  ranking   •  Search-­‐task  saIsfacIon  predicIon  

SAT?  

DSAT?  

q2   q3   q6  q5  

d21   d21  

d21  +

_

_

_ + +

_

q1   q2   q3   q4   q6  q5  q0  

•  Long-­‐term  task  extracIon   •  In-­‐task  personalizaIon  

q2   q3   q6  q5  BM25  

PageRank  

10/23/14   Task  Modeling  for  IR   16  

In-­‐task  Search  Personaliza>on

17  

Timestamp   Query   Clicks  5/29/2012  14:06:04   coney  island  CincinnaI  5/30/2012  12:12:04   drive  direcIon  to  coney  island  5/31/2012  19:40:38   motel  6  locaIons  5/31/2012  19:45:04   CincinnaI  hotels  near  coney  island  

Document  relevance  

Site  authority  

Search  log:  

Exis6ng  solu6ons:  1.  ExtracIng  user-­‐centric  features  

[Teevan  et  al.  SIGIR’05]  2.  Memorizing  user  clicks  [White  

and  Drucker  WWW’07]  

10/23/14   Task  Modeling  for  IR  

New  perspec>ve:  personalized  ranking  model  adapta>on  [SIGIR’13]

• Adjust  the  generic  ranking  model’s  parameters  with  respect  to  each  individual  user’s  in-­‐task  ranking  preferences  

Timestamp   Query   Clicks  5/29/2012  14:06:04   coney  island  CincinnaI  5/30/2012  12:12:04   drive  direcIon  to  coney  island  5/31/2012  19:40:38   motel  6  locaIons  5/31/2012  19:45:04  CincinnaI  hotels  near  coney  island  

18  10/23/14   Task  Modeling  for  IR  

Linear  Regression  Based  Model  Adapta>on

• AdapIng  global  ranking  model  for  each  individual  user  

Loss  funcIon  from  any  linear  learning-­‐to-­‐rank  algorithm,  e.g.,  RankNet,  LambdaRank,  RankSVM  

Complexity  of  adaptaIon  

19  10/23/14   Task  Modeling  for  IR  

In-­‐task  Personaliza>on  Evalua>on

• Dataset  •  Bing  query  log:  May  27,  2012  –  May  31,  2012  •  1830  ranking  features  

•  BM25,  PageRank,  m*idf  and  etc.  

#  Users   #  Queries   #  Documents  

AnnotaLon  Set   -­‐   49,782   2,320,711  

User  Set   34,827   187,484   1,744,969  

20  10/23/14   Task  Modeling  for  IR  

Adapta>on  Efficiency  

• Against  global  model  

21  

Cannot  deal  with  variance  in  user  clicks  

Cannot  deal  with  sparsity  in  limited  data  

Adap6ng  from  global  model  and  sharing  transforma6on  

10/23/14   Task  Modeling  for  IR  

A  Task-­‐based  Framework  

q1   q2   q3   q4   q6  q5  q0  

•  Long-­‐term  task  extracIon   •  In-­‐task  PersonalizaIon  

q2   q3   q6  q5  BM25  

PageRank  

•  Search-­‐task  saIsfacIon  predicIon  

SAT?  

DSAT?  

q2   q3   q6  q5  

d21   d21  

d21  +

_

_

_ + +

_

•  Cross-­‐user  collaboraIve  ranking  

10/23/14   Task  Modeling  for  IR   22  

Task-­‐Based  Groupiza>on  [WWW2013b]  

Find  other  users  engaged  in  similar  task  

23  10/23/14   Task  Modeling  for  IR  

Task  Match  vs.  Query  Match

• MAP/MRR  gains  on  the  test  data,  producIon  ranker  is  the  baseline.  

•  Some  key  findings:  •  Both  query  and  task  match  get  gains  over  baseline  •  Task  match  bePer,  especially  when  both  feature  groups  used  (TGI)  

•  Task  match  bePer  coverage  (>  3x)  –  re-­‐rank@1  ~2x  results  as  query  

QG:  same  query,  all  users  QI:  same  query,  same  user  QGI:  QG  +  QI  

24  10/23/14   Task  Modeling  for  IR  

Effect  of  Query  Sequence  in  Task

QG:  Query-­‐based  Global  Features  TG:  Task-­‐based  Global  Features  QI:  Query-­‐based  Individual  Features  TI:  Task-­‐based  Individual  Features  

     

25  10/23/14   Task  Modeling  for  IR  

A  Task-­‐based  Framework  

•  Cross-­‐user  collaboraIve  ranking  

q1   q2   q3   q4   q6  q5  q0  

•  Long-­‐term  task  extracIon   •  In-­‐task  personalizaIon  

q2   q3   q6  q5  BM25  

PageRank  

•  Search-­‐task  saIsfacIon  predicIon  

SAT?  

DSAT?  

q2   q3   q6  q5  

d21   d21  

d21  +

_

_

_ + +

_

10/23/14   Task  Modeling  for  IR   26  

How  to  assess  search  result  quality?

• Query-­‐level  relevance  evaluaIon  [Ricardo  et  al.  1999]  •  Metrics:  MAP,  NDCG,  MRR  

•  Task-­‐level  saIsfacIon  evaluaIon  [Hassan  et  al.  WSDM’10]  

•  Users’  saIsfacIon  of  the  whole  search  task  

Q1 Q2 Q3 Q4 Q5

D21

D24

D31 D51

D54

START END

Goal:  find  exis6ng  work  for  “ac6on-­‐level  search  sa6sfac6on  predic6on”  

10/23/14   Task  Modeling  for  IR   27  

Modeling  Latent  Ac>on  Sa>sfac>on  for  Search-­‐task  Sa>sfac>on  Predic>on  [SIGIR’14]

• Hypothesis:  The  desire  for  sa.sfac.on  drives  users’  interac.on  with  search  engines  and  that  the  sa.sfac.on  aPained  during  the  search-­‐task  contributes  to  the  overall  sa.sfac.on  

-­‐ -­‐

-­‐-­‐

+

+

-­‐

+

++formalized as a latent structural learning

problem Q1 Q2 Q3 Q4 Q5

D21

D24

D31 D51

D54

START END

SAT=1/0

10/23/14   28  Task  Modeling  for  IR  

• AcIon-­‐aware  Task  SaIsfacIon  model  (AcTS)  •  A  latent  structured  learning  approach    

a1 a2 a3 an

h1 h2 h3 hn...

...

y

Start End

Short-­‐range  features:    1.  #clicks,  #queries,  last  acIon  2.  Dwell  Ime,  query-­‐URL  

match,  domain  

Long-­‐range  features:    1.  existSatQ,  allSatQ  2.  acIon  transiIons  Task  saLsfacLon  

AcLon  saLsfacLon  (latent)  

AcLons  

10/23/14   Task  Modeling  for  IR   29  

Modeling  Latent  Ac>on  Sa>sfac>on  for  Search-­‐task  Sa>sfac>on  Predic>on  [SIGIR’14]

Analysis  of  Search  Behavior  Pa`erns

•  First-­‐order  transiIon  probabiliIes  between  different  acIons  within  saIsfying  and  unsaIsfying  tasks    

Q+ SR+

SR-­‐Q-­‐

EndStart

0.058

0.208

0.331 0.081

0.179

Q+ SR+

SR-­‐Q-­‐

EndStart

0.095

0.232

0.127

0.299

0.078

0.052

(a)  SaIsfying  tasks   (b)  UnsaIsfying  tasks  

30  10/23/14   Task  Modeling  for  IR  

Deployed  in  Bing’s  Internal  Tool  Chain

•  It  takes  only  37  mins  to  process  14  days  of  Bing  search  query  logs    

31  10/23/14   Task  Modeling  for  IR  

Recent  work  in  search-­‐task  mining

•  Task-­‐aware  query  recommendaIon  [Feild,  H.  &  Allan,  J.  ,  SIGIR’13]  •  Study  query  reformulaIon  in  tasks  

• Click  modeling  in  search  tasks  [Zhang,  Y.  et  al.,  KDD’11]  •  Model  users’  click  behaviors  in  tasks  

• Query  intent  classificaIon  [Cao  H.  et  al.,  SIGIR’09]  •  Explore  rich  search  context  for  query  classificaIon  

32  10/23/14   Task  Modeling  for  IR  

Conclusions

• A  task-­‐based  framework  for  user  behavior  modeling  and  search  personalizaIon  •  Bestlink:  an  appropriate  structure  for  search-­‐task  idenIficaIon  •  In-­‐task  personalizaIon:  exploiIng  users’  in-­‐task  behaviors  •  Cross-­‐user  collaboraIve  ranking:  leveraging  search  behaviors  among  different  users  •  Search-­‐task  saIsfacIon  predicIon:  modeling  detailed  acIon-­‐level  saIsfacIon    

33  10/23/14   Task  Modeling  for  IR  

Future  Direc>ons

•  Explore  rich  informaIon  about  users  for  search-­‐task  idenIficaIon  •  In-­‐search,  out-­‐search  behaviors  

•  From  query-­‐based  search  engine  opImizaIon  to  task-­‐based  •  OpImize  a  user’s  long-­‐term  search  uIlity  

• Game-­‐theoreIc  models  for  interacIng  with  users  •  Machine  and  user  collaborate  to  finish  a  task  

34  10/23/14   Task  Modeling  for  IR  

References  I

•  Hongning  Wang,  Yang  Song,  Ming-­‐Wei  Chang,  Xiaodong  He,  Ryen  White  and  Wei  Chu.  Learning  to  Extract  Cross-­‐Session  Search  Tasks.  The  23rd  InternaIonal  World-­‐Wide  Web  Conference  (WWW'2013),  p1353-­‐1364,  2013.  

•  Hongning  Wang,  Xiaodong  He,  Ming-­‐Wei  Chang,  Yang  Song,  Ryen  White  and  Wei  Chu.  Personalized  Ranking  Model  Adapta.on  for  Web  Search.  The  36th  Annual  ACM  SIGIR  Conference  (SIGIR'2013),  p323-­‐332,  2013.  

•  Ryen  White,  Wei  Chu,  Ahmed  Hassan,  Xiaodong  He,  Yang  Song  and  Hongning  Wang.  Enhancing  Personalized  Search  by  Mining  and  Modeling  Task  Behavior.  The  23rd  InternaIonal  World-­‐Wide  Web  Conference  (WWW'2013),  p1411-­‐1420,  2013.  

•  Hongning  Wang,  Yang  Song,  Ming-­‐Wei  Chang,  Xiaodong  He,  Ahmed  Hassan  and  Ryen  White.  Modeling  Ac.on-­‐level  Sa.sfac.on  for  Search  Task  Sa.sfac.on  Predic.on.  The  37th  Annual  ACM  SIGIR  Conference  (SIGIR'2014),  p123-­‐132,  2014.  

35  10/23/14   Task  Modeling  for  IR  

References  II •  R.  Jones  and  K.  L.  Klinkner.  Beyond  the  session  Imeout:  automaIc  hierarchical  segmentaIon  of  search  topics  in  query  

logs.  CIKM’08,  pages  699–708.  ACM.  •  C.  Lucchese,  S.  Orlando,  R.  Perego,  F.  Silvestri,  and  G.  Tolomei.  IdenIfying  task-­‐based  sessions  in  search  engine  query  logs.  

WSDM’11,  pages  277–286.  ACM.  •  A.  Kotov,  P.  N.  Bennew,  R.  W.  White,  S.  T.  Dumais,  and  J.  Teevan.  Modeling  and  analysis  of  cross-­‐session  search  tasks.  

SIGIR2011,  pages  5–14,  ACM.  •  Z.  Liao,  Y.  Song,  L.-­‐w.  He,  and  Y.  Huang.  EvaluaIng  the  effecIveness  of  search  task  trails.  WWW’12,  pages  489–498.  ACM.  •  Teevan,  Jaime,  Susan  T.  Dumais,  and  Eric  Horvitz.  "Personalizing  search  via  automated  analysis  of  interests  and  

acIviIes."  Proceedings  of  the  28th  annual  interna.onal  ACM  SIGIR  conference  on  Research  and  development  in  informa.on  retrieval.  ACM,  2005.  

•  White,  Ryen  W.,  and  Steven  M.  Drucker.  "InvesIgaIng  behavioral  variability  in  web  search."  Proceedings  of  the  16th  interna.onal  conference  on  World  Wide  Web.  ACM,  2007.  

•  Shen,  Xuehua,  Bin  Tan,  and  ChengXiang  Zhai.  "Context-­‐sensiIve  informaIon  retrieval  using  implicit  feedback."  Proceedings  of  the  28th  annual  interna.onal  ACM  SIGIR  conference  on  Research  and  development  in  informa.on  retrieval.  ACM,  2005.  

•  Zhang,  Y.,  Chen,  W.,  Wang,  D.,  &  Yang,  Q.  User-­‐click  modeling  for  understanding  and  predicIng  search-­‐behavior.  In  SIGKDD'11,  (pp.  1388-­‐1396).  ACM.  

•  Feild,  H.,  &  Allan,  J.  Task-­‐aware  query  recommendaIon.  In  SIGIR'13,  (pp.  83-­‐92).  ACM.  

•  Cao,  H.,  Hu,  D.  H.,  Shen,  D.,  Jiang,  D.,  Sun,  J.  T.,  Chen,  E.,  &  Yang,  Q.  Context-­‐aware  query  classificaIon.  In  SIGIR'09,  (pp.  3-­‐10).  ACM.   36  10/23/14   Task  Modeling  for  IR  

Acknowledgements

• ChengXiang  Zhai  and  team  members  in  TIMAN  group  at  UIUC  •  Yang  Song,  Xiaodong  He,  Ming-­‐Wei  Chang,  Ryen  W.  White  and  Kuansan  Wang  from  Microsoz  Research  

37  10/23/14   Task  Modeling  for  IR  

Thank  you! Q&A  

38  

Task:  a  new  perspec6ve  for  us  to  understand  users’  search  intent  

10/23/14   Task  Modeling  for  IR  

q1   q2   q3   q4   q6  q5  q0  

Explore  Domain  Knowledge  for  Automa>ng  Model  Learning

•  A  generalized  margin  

Sub-­‐query  Sub-­‐query  Same-­‐query  

5/30/2012    5/30/2012  9:12:14   airline  Ickets  5/30/2012  9:20:19   rawlers  5/30/2012  9:42:21   charlize  theron  snow  white  5/30/2012  21:13:34   charlize  theron    5/30/2012  21:13:54   charlize  theron  movie  opening  

5/31/2012    5/31/2012  8:56:39   sulphur  springs  school  district  5/31/2012  9:10:01   airline  Ickets  

5/30/2012    5/30/2012  9:12:14   airline  Ickets  5/30/2012  9:20:19   rawlers  5/30/2012  9:42:21   charlize  theron  snow  white  5/30/2012  21:13:34   charlize  theron    5/30/2012  21:13:54   charlize  theron  movie  opening  

5/31/2012  5/31/2012  8:56:39   sulphur  springs  school  district  5/31/2012  9:10:01   airline  Ickets  

5/30/2012    5/30/2012  9:12:14   airline  Ickets  5/30/2012  9:20:19   rawlers  5/30/2012  9:42:21   charlize  theron  snow  white  5/30/2012  21:13:34   charlize  theron    5/30/2012  21:13:54   charlize  theron  movie  opening  

5/31/2012    5/31/2012  8:56:39   sulphur  springs  school  district  5/31/2012  9:10:01   airline  Ickets  

#  queries   #  connected  components  

10/23/14   Task  Modeling  for  IR   39  

User  Class   Method   ΔMAP   ΔP@1   ΔP@3   ΔMRR  

Heavy  RA   0.1843   0.3309   0.0120   0.1832  

Cross   0.1998   0.3523   0.0182   0.1994  

Medium  RA   0.1102   0.2129   0.0025   0.1103  

Cross   0.1494   0.2561   0.0208   0.1500  

Light  RA   0.0042   0.0575   -­‐0.0221   0.0041  

Cross   0.0403   0.0894   -­‐0.0021   0.0406  

User-­‐level  improvement  analysis

• Adapted-­‐LambdaRank  against  global  LambdaRank  model  

[10,  ∞)  queries  

[5,  10)  queries  

(0,  5)  queries  

Use  cross-­‐training  to  determine  feature  grouping  

per-­‐user  basis  adapta.on  baseline  

40  10/23/14   Task  Modeling  for  IR  

Automa>ng  Model  Learning  with  Domain  Knowledge

41  10/23/14   Task  Modeling  for  IR  

Search  Task  Extrac>on  Methods

• Baselines  •  QC_wcc/QC_htc  [Lucchese  et  al.  WSDM’  11]  

•  Post-­‐processing  for  binary  same-­‐task  classificaIon  •  AdapIve-­‐clustering  [Cohen  et  al.  KDD’02]  

•  Binary  classificaIon  +  single-­‐link  agglomeraIve  clustering  •  Cluster-­‐SVM  [Finley  et  al.  ICML’05]  

•  All-­‐link  structural  SVM  

42  

Binary  classifica.on  based  solu.on  

Structured  learning  solu.on  

10/23/14   Task  Modeling  for  IR  

Experimental  Results

•  Four  weeks  of  Bing  query-­‐click  logs  •  Logs  collected  from  an  A/B  test  with  no  other  personalizaIon  • Week  1:  Feature  generaIon    •  Compute   𝑠↓𝑘   for  clicked  URLs  

• Weeks  2-­‐3:  Learn  re-­‐ranking  model  (LambdaMART)  • Week  4:  EvaluaIon  •  Re-­‐rank  top-­‐10  for  each  query  •  Compute  MAP  and  MRR  for  re-­‐ranked  lists  (and  coverage  stats)    

43  10/23/14   Task  Modeling  for  IR  

Learn  from  Related  Tasks

•  For  each  URL  u  in  top  10  for  current  query,  compute  score  𝑠↓𝑘   

•  𝑘(𝑡, 𝑡↑′ ):  relatedness  between  t,  related  task  t’,  computed  in  different  ways  •  𝑤(𝑡↑′ ,𝑢):  importance  of  URL  in  related  task  (we  use  click  frequency)  

• Generate  𝑠↓𝑘   for  a  range  of  different  𝑘(𝑡, 𝑡↑′ )  

𝑠↓𝑘 (𝑡,𝑢)=  ∑𝑡↑′ ∈  𝑇↑▒(𝑘(𝑡, 𝑡↑′ )∙𝑤(𝑡↑′ ,𝑢))   

44  

Syntac6c  similarity,  URL  similarity,  topical  similarity,  etc.  

10/23/14   Task  Modeling  for  IR  

Ac>on-­‐level  Sa>sfac>on  Modeling

• As  addiIonal  features  for  document  relevance  esImaIon  •  4-­‐month  Bing  search  log  •  Ranker:  LambdaMART  •  398  standard  ranking  features,  e.g.,  BM25,  language  model  score  and  PageRank  

 

10/23/14   Task  Modeling  for  IR   45  

%   P@1   MAP   NDCG@5   MRR  

MML   +4.926   +3.482   +3.573   +2.650  

LogiReg   +5.110   +3.352   +3.783   +2.776  

session-­‐CRF   +4.752   +3.402   +3.896   +2.616  

SUM   +5.101   +3.405   +3.946   +2.807  

AcTS*   +5.366   +3.819   +4.278   +2.955  *  Indicates  p-­‐value<0.01  

Rigid  assump.on:  task-­‐sa.sfac.on  equals  to  ac.on-­‐sa.sfac.on  

All  tasks  are  sa.sfactory  

Task-­‐level  sa>sfac>on  predic>on  performance

•  Toolbar  data  set  [Hassan  et  al.  CIKM’11]  •  7306  tasks  from  153  users  •  In-­‐situ  task  saIsfacIon  annotaIons  from  the  actual  users  

Avg-­‐f1   T+-­‐f1   T-­‐-­‐f1   Accuracy  MML   0.707   0.897   0.518   0.830  

LogiReg   0.740   0.918   0.563   0.861  Session-­‐CRF   0.728   0.910   0.545   0.850  

AcTS   0.761*   0.938*   0.584*   0.893*  

*  Indicates  p-­‐value<0.01  

Assump6on:    ac.on  sa.sfac.on  =  task  sa.sfac.on  

10/23/14   SIGIR'2014  @  Gold  Coast   46