Wij hebben de veelgestelde vragen hier beneden beantwoord.

Q1: Hoe gebruiken jullie al deze gelabelde data?


  • De data wordt gebruikt om een AI model te trainen op het herkennen van rook, gebaseerd op ons vorige werk. Hierbij wordt het model een deep neural network dat leert om video's in twee categorieën te classificeren: rook of geen rook. Op basis hiervan kunnen wij het model gebruiken om rook te herkennen van meerdere datums en camera's op de camera van Frisse Wind.

Q2: Waarom hebben jullie vrijwilligers nodig?


  • Hoewel deep neural networks nuttig blijken te zijn rondom verschillende toepassingen (bijvoorbeeld objectherkenning), kost het trainen van zo'n model heel veel gelabelde data. Om dit zelf allemaal te labelen kan één onderzoek zo honderden uren mee bezig zijn. Dit is waarom we vrijwilligers nodig hebben.

Q3: Waarom is het zo belangrijk om rook te visualiseren en te herkennen?


  • Ons eerder gedaan werk rondom het monitoren van luchtkwaliteit laat zien dat het visualiseren van bewijs van rook uitstoot helpt met het krijgen van aandacht van toezichthouders. Daarnaast helpt het visualiseren de gemeenschap meer vertrouwen te geven in het aanpakken van luchtvervuiling.

Q4: Waar komen de video clips vandaan?


Q5: Waarom zijn mijn labels niet door kwaliteitscheck heen gekomen en hoe wordt deze kwaliteit bepaald?


  • Voor elke batch (16 video's) op de pagina worden er door het systeem willekeurige video's geplaatst. Van deze video's zijn de antwoorden al bekend, wat als maatstaf gebruikt wordt. Een batch komt door de kwaliteitscheck heen als de maatstaf video's correct gelabeld zijn.

Q6: Hoe weet het systeem dat er rook in de video is?


  • Het systeem bepaalt een label op basis van alle gegeven labels door de onderzoekers en de burgers. Elke video wordt op zijn minst bekeken door twee vrijwilligers en één onderzoeker. Als de vrijwilligers hetzelfde label hebben gegeven aan de video, dan wordt dit label opgeslagen door het systeem. Als dit niet zo is, wordt het proces herhaald. Het resultaat wordt dus bepaald op basis van meerderheidsstemming.

Q7: Waarom vraagt het dialoogvenster soms of ik video autoplay wil activeren?


  • Tijdens het labelen moeten video's automatisch worden afgespeeld. Als een telefoon data saver aan heeft staan wordt dit automatisch afspelen stopgezet. Daarnaast zullen sommige telefoons video's automatisch pauzeren nadat ze uit slaapmodus zijn gegaan. Om autoplay weer te activeren moet de gebruiker dit activeren, vandaar het dialoogvenster.

Q8: Waarom zie ik soms video's die op elkaar lijken? Zijn dit dezelfde video's?


  • Video's die dicht bij elkaar gemaakt zijn (8 uur en 8:10) hebben de kans dat de video's hetzelfde uitzien doordat het weer en het licht hetzelfde kunnen zijn. Daarnaast zullen de maatstaf video's vaker terug komen tijdens het labelen van een batch.

Q9: Kan ik ongeveer hetzelfde systeem bouwen met jullie code?


Q10: Zijn er andere acties die ik kan ondernemen om te pleiten voor betere luchtkwaliteit?


Q11: Waarom ondersteunt deze tool geen apparaten ouder dan Android 7 en iOS 11?


  • Wanneer er gelabeld moet worden of er rook is, worden er 16 of meer video's tegelijkertijd afgespeeld. Oudere apparaten zullen hier meer moeite mee hebben waardoor uw ervaring minder wordt.

Q12: Waarom zijn er alleen maar opnames gemaakt overdag?


  • Doordat er 's nachts minder licht is, is het moeilijker door computers om rook te herkennen. Om deze reden is ervoor gekozen om eerst naar rook overdag te kijken.

Q13: How did you find the events?


  • The smoke emission events were found using an object detection model, developed during the AI against Toxic Clouds challenge by FruitPunch AI, hosted by Jeroen from strangeloop.nl. Volunteers from Frisse Wind have manually verified the events.