Technische Faktoren, die die analytische Genauigkeit beeinflussen
Die Testdaten zeigen, dass die Erkennungsgenauigkeit von Google Vision API von dem Benchmark-Wert von 92% auf 76% sinkt, wenn die Auflösung des Eingangsfotos niedriger als 800×600 Pixel ist; die Fehlerquote bei der Erkennung von Emotionen von Personen in unscharfen oder von hinten beleuchteten Fotos erreicht 43%, während die Objekterkennungsgenauigkeit von hochauflösenden Bildern, die mit professionellen DSLR-Kameras aufgenommen wurden, 96% erreichen kann und kann umfangreichere Metadatenparameter extrahieren. Es ist erwähnenswert, dass die übliche Verarbeitung von Filtern in sozialen Medien die KI-Beurteilung beeinträchtigt - bei Fotos mit "Nostalgie"-Filtern, die im Test hinzugefügt wurden, stieg die Fehlerrate bei der Szenenerkennung um 28%.
Die Entwickler des Tools empfehlen den Nutzern, Fotos in Originalqualität zum Testen hochzuladen, und bieten außerdem drei Vorverarbeitungsoptionen an: automatische Ausrichtung, intelligente Rauschunterdrückung und EXIF-Bereinigung. Vergleichsexperimente zeigen, dass vorbearbeitete Fotos von geringer Qualität mit 19 Prozentpunkten mehr Sicherheit analysiert werden können. Allerdings ist das System nach wie vor nicht in der Lage, stark mosaikierte oder beschnittene Bildbereiche aufzulösen, was eine allgemeine Einschränkung der Computer-Vision-Technologie darstellt.
Diese Antwort stammt aus dem ArtikelSie sehen deine Fotos: Analyse der Datenschutzinformationen von Fotos auf der Grundlage von Google VisionDie































