next up previous
Next: Verbesserungen Up: Unsere Umsetzung Previous: Unsere Umsetzung

Direkte Nachbildung des Ansatzes von Asada

Zunächst versuchten wir, möglichst genau den Vorgaben Asadas zu folgen. Als Roboter verwendeten wir den bereits bekannten Khepera mit aufgesetzter Kamera. Zum Ballbefördern verwendeten wir einen Balken, der (quer zur Vorwärsrichtung) am Roboter angebracht wurde. Asada verwendete im Endeffekt 319 Zustände und gab dem Roboter in jedem Zustand die Wahl zwischen 9 Aktionen. Daraus ergab sich eine Qa-Matrix mit 2871 Einträgen ([Qa] = 2871).

Dadurch, daß es uns nicht möglich war, das Erkennen der Torschräge in XVision zu realisieren, mußten wir auf etwas andere Zustände ausweichen:

Der Zustand links weg beispielsweise wurde nicht direkt über die Bildverarbeitung realisiert, sondern über die vorherigen Zustände: War etwa der Ball vorher links und im aktuellen Zustand nicht mehr da, so galt das als links weg. Da nicht in jeder Situation alle Kombinationen möglich waren (Tor nicht gesehen kann nicht nah, mittel oder fern sein), ergab sich eine Qa-Matrix mit 2295 Einträgen ([Qa] = 2295). Das Problem der "state-action-deviation" (siehe Kap.3) wurde bei uns genauso gelöst wie bei Asada: Erst wenn sich der Zustand änderte, konnte eine neue Aktion gewählt werden. Zusätzlich brachen wir den Einzelversuch jeweils ab, falls sich der Zustand zu lange nicht veränderte (etwa wenn der Roboter geradeaus in die Bande fuhr und hängenblieb). Bei einem solchen Abbruch wurde jedoch nichts gelernt (kein Update von Qa).

Trotz des "Learning from Easy Missions" (LEM) - Ansatzes konnte hierbei kein brauchbares Resultat erzielt werden. So traten etwa hauptsächlich die folgenden Probleme auf:

Gegen das erste Problem konnte leider nichts unternommen werden. Auf Verbesserungen bzgl. der anderen Probleme wird im nächsten Unterkapitel eingegangen.


next up previous
Next: Verbesserungen Up: Unsere Umsetzung Previous: Unsere Umsetzung

root
Sun Jul 4 16:38:27 MEST 1999