Visuelle Erkennung von Gitarrenakkorden mit einer Android-App

Abstract

Für Smartphones mit dem Betriebssystem Android wird eine Anwendung entwickelt, die mit der Kamera des Gerätes Gitarrenakkorde erkennen kann. Hierfür wird ein Datensatz erstellt, mit dem auf dem vortrainierten Machine-Learning Modell MobileNetV2 Transfer-Learning durchgeführt wird, um die Akkorde C, D, Em, F, G zu klassifizieren. Es werden Schwächen des Datensatzes aufgedeckt und untersucht. Zuletzt wird erläutert, wie das tflite-Modell für das Android-Projekt vorbereitet wird und wie sich das Projekt mit Object-Detection erweitern ließe.