badanie możliwości crowdsourcingowej oceny jakości zdjęć

16
Badanie możliwości crowdsourcingowej oceny jakości zdjęć Michał Zajdel, Mikołaj Leszczuk 24.06.2022

Upload: mikolaj-leszczuk

Post on 21-Mar-2017

101 views

Category:

Science


2 download

TRANSCRIPT

Page 1: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Badanie możliwościcrowdsourcingowej oceny jakości zdjęć

Michał Zajdel, Mikołaj Leszczuk

2.05.2023

Page 2: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Motywacja

» DEEP – automatyczne generowany portal plotkarski

» Materiały pobierane z otwartych zasobów WWW

Page 3: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Problem doboru wysokiejjakości obrazów

» Możliwe obrazy o niskiej jakości

» Konieczność filtracji» Najczęstsze artefakty:

– Artefakt blokowy– Rozmycie– Zły kontrast– Szum

Page 4: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Artefakt blokowy

Page 5: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Rozmycie

Page 6: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Kontrast

Page 7: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Szum

Page 8: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Rozwiązanie?» Własna biblioteka oceny

jakości obrazów» Wieloplatformowa

implementacja» Dostępna za darmo:

http://vq.kt.agh.edu.pl/» Są metryki , ale…» Brak poziomów

akceptowalności

Page 9: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Rozwiązanie!» Crowdsourcing:

– ang. crowd – tłum– ang. sourcing –

pozyskiwanie, zaopatrywanie się

» Outsourcing zadania do niezidentyfikowanej, bardzo szerokiej grupy ludzi w formie open call

By Testbirds GmbH – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=42514210

Page 10: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Proces przygotowaniaeksperymentu crowdsourcingowego

» Cel: ustalenie poziomów alarmowych» 8 SRC:

– Zdjęcia reprezentatywne dla scenariusza– W=900 pikseli (większość wyświetlaczy)

» 51 HRC (obejmujący 4 artefakty z różnymi poziomami)

» 408 PVS (wynikowo)» 9 we wspólnym zbiorze treningowym

Page 11: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Interfejs i pytania weksperymencie

crowdsourcingowym

Page 12: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Testerzy w eksperymencie crowdsourcingowym

» 173 testerów:– Projekty– VQEG– Sieci społecznościowe

» Kolejność:– Ustalona we wspólnym

zbiorze treningowym– Reszta losowa

» 10 ocen/zdjęcie

Tylko zalogowani23%

Tylko wspólny zbiór treningowy

24%

Użyteczne oceny53%

Page 13: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Wyniki eksperymentu crowdsourcingowego (1/2)

0 10 20 30 40 50 60 70 80 90 1000%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

Poziom artefaktu blokowego

1 2 3 4 5 6 7 8 9 100%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

Poziom rozmycia

Page 14: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Wyniki eksperymentu crowdsourcingowego (2/2)

-80 -70 -60 -50 -40 -30 -20 -10 0 10 20 30 40 50 60 70 800%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

Poziom kontrastu

2 3 4 5 6 7 8 9 100%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

Poziom szumu

Page 15: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Analiza wyników eksperymentu crowdsourcingowego

Artefakt blokowy

Rozmycie Kontrast Szum0%

10%20%30%40%50%60%70%80%90%

100%

77%88%

75% 79%

Trafność predykcji alarmu

Page 16: Badanie możliwości crowdsourcingowej oceny jakości zdjęć

Dziękuję za uwagę!Niniejsza praca jest finansowana przez Narodowe Centrum Badań i Rozwoju, nr umowy E! II/PL-IL/10/01A/2012, w ramach programu międzynarodowego EUREKA: Inteligentny system do archiwizowania, analizowania oraz dokumentowania obiektów multimedialnych w sieci Web i telewizji cyfrowej IPTV.