Ordnerstruktur des Servers

Vorschau

Mit Hilfe des ANNA Diagnostik Servers können Laborergebnisse automatisiert diagnostiziert werden. Wie bereits in den vorangegangenen Kapiteln erläutert ist dazu ein Training des Netzwerks notwendig. Im Anschluss kann über einen Austausch von CSV Daten eine Diagnose erfolgen.  Die fertigen Diagnosetexte werden dann als Textdatei abgelegt.

Ordner und Dateien

Im Hauptordner befindet sich die Datei _cronjob.sh. Bei Auslieferung ist der Datei ein unterstrich „_“ vorangestellt. Sobald der Unterstrich entfernt ist, wird die Datei regelmäßig vom Server ausgeführt und dient der Steuerung der unterschiedlichen engines, welche die Diagnose von Laborergebnissen durchführen.  Die engines werden als Ordner angelegt und können einen beliebigen Namen tragen. In unserem Beispiel hat die erste engine den Namen e1.

Innerhalb jeder engine sind verschiedene Unterordner zur Konfiguration und zum Austausch von Daten zu finden. Der erste Ordner compiled enthält die Diagnosetexte der verarbeiteten Proben. Die Dateien erhalten den Namen der Probenummer. Zum Beispiel sind das Dateien namens SMP01.txt, SMP03.txt, usw.

Der Ordner config dient der Konfiguration von Spezifikationen (specification.csv) und Kategorien (categories.csv), welche als Satzbausteine im Anschluss für die Diagnosetexte herangezogen werden.

Im Ordner data werden die zu diagnostizierenden Messergebnisse abgelegt. Die Datei trägt den Namen data.csv.

Der Ordner model dient der Konfiguration des neuronalen Netzwerks und zum Training. Die Datei model.csv beinhaltet die Trainingsdaten, model.json die Konfiguration und model.log die Details zum Model. Der Ordner model.tsf stellt das trainierte Netzwerk zur Verfügung und wird automatisch erstellt.

Unter prediction befinden sich die von ANNA berechneten Auswertungen des neuronalen Netzwerks und dessen Textinterpretationen. Da die Dateien vom System erstellt werden ist hier nichts weiteres zu tun.

Der Ordner engine enthält den Betriebskern der Anwendung und darf nicht verändert werden.

Erstellen und Starten von Engines

Die Datei cronjob.sh enthält die Befehle zum Starten der engines. In unserem Fall existiert nur die engine namens e1, entsprechend lauten die Befehle wie folgt:

cd /home/koluma/e1
bash worker.sh

Als erstes wird also in das Verzeichnis von e1 gewechselt, unserer engine. Mit dem Befehl bash worker.sh wird der Prozess der Auswertung angestoßen. Für weitere engines wird gleich verfahren, wobei die Befehle unterhalb des ersten angefügt werden.

Zur Vervielfältigung der engines reicht es eine Kopie des Verzeichnisses e1 anzufertigen. Im Anschluss kann die engine dann entsprechend in cron-job.sh registriert werden. Durch die Methode lassen sich prinzipiell unbegrenzt viele engines, für unterschiedliche Fälle, einrichten und betreiben.

Zurück zu: Machine Learning Diagnostik > 020 Training des neuronalen Netzwerks