badanie możliwości crowdsourcingowej oceny jakości zdjęć
TRANSCRIPT
![Page 1: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/1.jpg)
Badanie możliwościcrowdsourcingowej oceny jakości zdjęć
Michał Zajdel, Mikołaj Leszczuk
2.05.2023
![Page 2: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/2.jpg)
Motywacja
» DEEP – automatyczne generowany portal plotkarski
» Materiały pobierane z otwartych zasobów WWW
![Page 3: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/3.jpg)
Problem doboru wysokiejjakości obrazów
» Możliwe obrazy o niskiej jakości
» Konieczność filtracji» Najczęstsze artefakty:
– Artefakt blokowy– Rozmycie– Zły kontrast– Szum
![Page 4: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/4.jpg)
Artefakt blokowy
![Page 5: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/5.jpg)
Rozmycie
![Page 6: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/6.jpg)
Kontrast
![Page 7: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/7.jpg)
Szum
![Page 8: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/8.jpg)
Rozwiązanie?» Własna biblioteka oceny
jakości obrazów» Wieloplatformowa
implementacja» Dostępna za darmo:
http://vq.kt.agh.edu.pl/» Są metryki , ale…» Brak poziomów
akceptowalności
![Page 9: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/9.jpg)
Rozwiązanie!» Crowdsourcing:
– ang. crowd – tłum– ang. sourcing –
pozyskiwanie, zaopatrywanie się
» Outsourcing zadania do niezidentyfikowanej, bardzo szerokiej grupy ludzi w formie open call
By Testbirds GmbH – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=42514210
![Page 10: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/10.jpg)
Proces przygotowaniaeksperymentu crowdsourcingowego
» Cel: ustalenie poziomów alarmowych» 8 SRC:
– Zdjęcia reprezentatywne dla scenariusza– W=900 pikseli (większość wyświetlaczy)
» 51 HRC (obejmujący 4 artefakty z różnymi poziomami)
» 408 PVS (wynikowo)» 9 we wspólnym zbiorze treningowym
![Page 11: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/11.jpg)
Interfejs i pytania weksperymencie
crowdsourcingowym
![Page 12: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/12.jpg)
Testerzy w eksperymencie crowdsourcingowym
» 173 testerów:– Projekty– VQEG– Sieci społecznościowe
» Kolejność:– Ustalona we wspólnym
zbiorze treningowym– Reszta losowa
» 10 ocen/zdjęcie
Tylko zalogowani23%
Tylko wspólny zbiór treningowy
24%
Użyteczne oceny53%
![Page 13: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/13.jpg)
Wyniki eksperymentu crowdsourcingowego (1/2)
0 10 20 30 40 50 60 70 80 90 1000%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Poziom artefaktu blokowego
1 2 3 4 5 6 7 8 9 100%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Poziom rozmycia
![Page 14: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/14.jpg)
Wyniki eksperymentu crowdsourcingowego (2/2)
-80 -70 -60 -50 -40 -30 -20 -10 0 10 20 30 40 50 60 70 800%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Poziom kontrastu
2 3 4 5 6 7 8 9 100%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Poziom szumu
![Page 15: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/15.jpg)
Analiza wyników eksperymentu crowdsourcingowego
Artefakt blokowy
Rozmycie Kontrast Szum0%
10%20%30%40%50%60%70%80%90%
100%
77%88%
75% 79%
Trafność predykcji alarmu
![Page 16: Badanie możliwości crowdsourcingowej oceny jakości zdjęć](https://reader036.vdocuments.mx/reader036/viewer/2022062522/58d0fba61a28abc00b8b6273/html5/thumbnails/16.jpg)
Dziękuję za uwagę!Niniejsza praca jest finansowana przez Narodowe Centrum Badań i Rozwoju, nr umowy E! II/PL-IL/10/01A/2012, w ramach programu międzynarodowego EUREKA: Inteligentny system do archiwizowania, analizowania oraz dokumentowania obiektów multimedialnych w sieci Web i telewizji cyfrowej IPTV.