Die Hälfte unserer Zeit hier ist vorbei, Zeit mal einen Einblick in unsere bisherige Arbeit zu geben.
Wir haben das Projekt hier begonnen ohne so richtig zu wissen wohin. Bei unserem ersten Treffen mit Leo haben wir sehr viel Input bekommen, den wir erstmal besprechen und abwägen mussten. Innerhalb der ersten Woche begannen wir die Datensätze zu verarbeiten, visualisieren und die Rohdaten aus unseren Headsets auszulesen. Wir arbeiten mit dem Emotiv Epoc+ und Mindwave mobile 2 von NeuroSky. Mit dem Emotiv Headset wird hier an der Ulster University geforscht, das Mindwave haben wir aus Augsburg mitgebracht.
Beide Headsets eignen sich zur Analyse von Emotionen und Aufmerksamkeit.
Zur Aufzeichnung der Daten wird hier die Software von Emotiv verwendet. Dies hat uns inspiriert etwas ähnliches umzusetzen. Wir arbeiten an einem Programm mit dem die Daten aus verschiedenen Headsets aufgenommen, in CSV-Dateien bereitgestellt und zusätzlich live visualisiert werden. Als Referenz haben wir die Datensätze, die durch die Emotiv Software aufgezeichnet wurden, allerdings wissen wir nicht wie die Berechnungen dieser funktionieren. Deshalb ist unser Ansatz, die Berechnung über einen Machine Learning Mechanismus laufen zu lassen. Dafür brauchten wir erstmal passende Datensätze: Einer zum trainieren des neuronalen Netzes und einen als Testdatensatz. Diese haben wir aus den Aufzeichnungen der bisherigen Forschung mit dem Emotiv generiert. Wir haben Datensätze von 13 Testpersonen plus die, die von uns aufgezeichnet wurden. Jede der Personen führt 3 Aufgaben von jeweils 5 Minuten durch: Lesen, klassische Musik hören und zum Schluss ein Spiel spielen. Getrennt werden diese Tasks immer durch 15 sekündiges Augenschließen und Augenöffnen. Beim Betrachten der verarbeiteten Dateien fällt auf, dass jeweils ein Ergebnis für 80 Einträge kalkuliert wird. Wie dieses Ergebnis zustande kommt ist wie gesagt, nicht bekannt. Hier soll die künstliche Intelligenz zum Einsatz kommen. Also haben wir im zweiten Schritt die einzelnen Datensätze der unterschiedlichen Aufgaben aufgeteilt in Dateien mit 5600 Werten. Wir haben die Zeitstempel rausgeschnitten dann bleiben 70 Spalten auf 80 Zeilen übrig, in der letzten Spalte steht das berechnete Ergebnis. Mit diesen Datensätzen trainieren wir unser neuronales Netz, welches auf Tenserflow und Keras basiert.
Zur Darstellung der Daten in Form von Plots arbeiten wir mit Threading und Multiprocessing.
Da wir jeden Tag inklusive der Wochenenden arbeiten gibt es diese Woche nicht viel Spannendes zu berichten. Deshalb folgen nur ein paar Bilder und Impressionen.