Das Ziel dieser Arbeit ist es, eine möglichst genaue Bildklassifizierung verschiedenster Obst- und Gemüsesorten mit einem Android Smartphone durch ein Convolutional Neural Network zu realisieren. Dabei wird ein Neuronales Netz von Grund auf mit einem Datensatz aus 62.218 Bildern in 138 Klassen trainiert und das Ergebnis mit dem vortrainierten und im Transferlearningverfahren angepassten Resnet Mobilenet V2 verglichen. Desweiteren wird die Datenqualität und deren Auswirkungen auf das Ergebnis untersucht und abschließend bewertet. Durch Visualisierung der verschiedenen Featuremaps wird außerdem aufgezeigt, dass ein vortrainiertes Netz in der Lage ist, bei dem angewendeten Datenbestand ein besseres Ergebnis zu liefern als das selbst erstellte Modell.