Lernende Maschinen

Wolfgang Maass

Institut für Grundlagen der Informationsverarbeitung

Technische Universität Graz

email: maass@igi.tu-graz.ac.at

http://www.igi.tugraz.at/maass/






Zahlreiche Mythen vom Mittelalter über Goethes Faust bis zur Figur des Dr. Frankenstein beschäftigen sich mit der Vision künstliche intelligente Wesen im Forschungslabor zu erzeugen. Neue Entwicklungen in der Technik haben uns in den letzten Jahrzehnten der Möglichkeit näher gebracht, diese Vision zu realisieren. Die genauen Gründe, weshalb wir trotz unzähliger optimistischer Ankündigungen immer noch sehr weit davon entfernt sind1, ergeben eines der aufschlußreichsten Kapitel der modernen Wissenschaftsgeschichte. Erfreulich ist, daß mehreren Geistes- und Naturwissenschaften durch die jüngeren Fortschritte in der Mikroelektronik und Computertechnik neue Möglichkeiten erwachsen sind, ihre bisher überwiegend theoretisch betrachteten Modelle für Sehen, Hören, Erkennen, Lernen, Sprache und Denken experimentell zu überprüfen: indem man aufgrund eines solchen Modells ein künstliches System baut, das diese menschlichen Teilfunktionen ausüben soll. Dabei zeigt sich aber in der Regel, daß die traditionellen Modelle zu einfach waren und daß mehrere Jahrzehnte intensiver Entwicklungsarbeit notwendig sind, um den avisierten Teilfunktionen des Menschen wirklich näher zu kommen.

Auch bei der Entwicklung von Robotern ist in den 90'er Jahren eine gewisse Bescheidenheit eingekehrt. Anstatt einen künstlichen Übermenschen bauen zu wollen, ist man sich nunmehr bewußt geworden, daß unsere Kenntnisse nicht einmal ausreichen, um Roboter mit der Leistungsfähigkeit eines Insekts oder gar einer Maus zu erzeugen.2 Ein Grund ist der, daß selbst vermeintlich primitive Lebewesen eine Fähigkeit besitzen, die sie weit über unsere gegenwärtige Generation von Maschinen heraushebt: sie können lernen. Genauer gesagt, sie können unter Ausnutzung ihrer Sinneseindrücke und ihrer Erfahrung auf neue Anforderungen oder Änderungen in ihrer Umwelt in sinnvoller Weise reagieren. In den Universitäten und Forschungslabors arbeitet man gegenwärtig an der Entwicklung einer neuen Generation von Maschinen, die ebenfalls aus ihren "Sinneseindrücken" und "Erfahrungen" lernen können.3

Wir möchten die Möglichkeit, daß Maschinen lernen können, durch unsere Installation in der Landesausstellung unmittelbar erfahrbar machen. Die vorgeführten Kleinroboter bilden die Vorhut einer neuen Generation von lernfähigen Maschinen, die im Laufe des 21. Jahrhunderts alle Aspekte unserer Zivilisation nachhaltig verändern werden. Die in dieser Installation ausgestellten Roboter wurden von Studierenden der Technischen Universität Graz im Rahmen des im Frühjahr 1999 ausgeschriebenen Wettbewerbs "Robotik 2000" mit relativ geringen finanziellen Mitteln innerhalb von 9 Monaten entworfen und gebaut. Die Wettbewerbsbedingungen sowie die Entstehungsgeschichten der einzelnen Roboter können auf der Homepage für diesen Wettbewerb nachgelesen werden. Unser wesentliches Ziel bei der Konzeption des betreffenden track 2 dieses Wettbewerbs war, das Lernen von Maschinen auf einer für eine Ausstellung angemessenen Zeitskala zu demonstrieren. Es sollte gezeigt werden, daß eine Maschine innerhalb von wenigen Minuten lernen kann, eine Aufgabe zu lösen, die so anspruchsvoll ist, daß sie ohne Lernen nicht bewältigt werden kann. Ein derart schnelles maschinelles Lernen stellt für die Wissenschaft eine beträchtliche Herausforderung dar, weil die üblichen in der Robotik angewandten Methoden des maschinellen Lernens entweder nur relativ einfache Aufgaben bewältigen, die im Prinzip auch ohne maschinelles Lernen lösbar wären, oder aber eine sehr viel längere Lernperiode von vielen Stunden, Tagen oder gar Wochen erfordern.4
 
 



Abbildung 1: Spielfeld der Roboter

Die Roboter in dieser Installation lernen, durch gezieltes Probieren eine Geschicklichkeitsaufgabe zu bewältigen. Die Geschicklichkeitsaufgabe besteht darin, daß eine Kugel vom linken Fünftel der Spielfläche (siehe Abb. 1) in der genau richtigen Richtung a und mit der genau richtigen Geschwindigkeit v so "abzuschießen" ist, daß sie in einer kleinen Mulde oben auf einem im rechten Teil der Spielfläche plazierten Hügel zu liegen kommt. Wenn es sich hier jedesmal um denselben Hügel handeln würde, der sich jedesmal an derselben Stelle befindet, so könnte man die richtigen Werte a und v als fixe Werte im Programm des Roboters vorgeben. Das ist hier aber nicht möglich, weil sich der Roboter ständig auf eine neue Variante dieser Geschicklichkeitsaufgabe einstellen muß. Wir benutzen mehrere verschieden geformte Hügel, die jeweils an einer anderen Stelle im ca. 4 x 2 m großen Areal rechts von der schwarzen Trennlinie positioniert werden. Wir haben diese Hügel bewußt in unregelmäßiger Weise mit der Hand geformt, sodaß bei einer leichten Drehung des Hügels eine anders strukturierte Hügelflanke dem linken Teil der Spielfläche zugewendet ist, von wo der Roboter den Ball "abschießen" muß.5 Zusätzlich verwenden wir während der Ausstellung von Zuschauern veränderte Hügel, denen die Roboter niemals vorher begegnet sind. Da die Roboter also jedesmal eine neue Geschicklichkeitsaufgabe lösen müssen, zu der in ihrem Programm keine richtigen Werte von a und v für den Abschuß der Kugel vorgesehen werden konnten, müssen sie durch gezieltes Probieren lernen, diese Aufgabe zu lösen. Wesentlich hierfür ist die Fähigkeit, aus der Verarbeitung ihrer "Sinneseindrücke", also ihrer Videoaufnahmen von den vorhergehenden Fehlversuchen, die richtigen Schlüsse zu ziehen. Nach einem Fehlversuch muß der Roboter die Kugel vollkommen selbständig suchen und zurückholen.

Wir haben in dieser Installation zusätzlich versucht, bei der Kommunikation zwischen Mensch und Maschine neue Wege zu gehen. Während üblicherweise Maschinen in der Rolle einer vom Menschen gesteuerten Marionette verharren müssen, sind die Roboter in dieser Installation vollkommen autonom. Ihre "Intelligenz" erhalten sie durch Mini-Computer, die sie ständig mit sich herumtragen, und aus ihren mitgeführten Akkus mit Strom versorgen. Sie können von außen, also insbesondere vom Menschen, nur über zwei einfache mechanische Schalter beeinflußt werden.6 Sehr viel mehr Information fließt von den Robotern zum Menschen. Zum einen können die Zuschauer "mit dem Auge des Roboters sehen": das von der Mini-Videokamera auf dem Roboter aufgenommene Bild, das den wichtigsten "Sinneseindruck" für den Roboter darstellt, wird drahtlos vom Roboter zu einer Empfangsstation übertragen und dem Zuschauer in Echtzeit auf der rechten Projektionsfläche gezeigt. Gleichzeitig sendet der Roboter auf die linke Projektionsfläche die gegenwärtigen Meßwerte seiner anderen Sensoren (Infrarotsensoren, Ultraschallsensoren, Lichtschranken), die von Roboter zu Roboter variieren. Daher kann sich der Zuschauer jederzeit ein vollständiges Bild von den gegenwärtigen "Sinneseindrücken" des Roboters machen und sich somit in die Informationsverarbeitungsaufgabe des Roboters hineinversetzen ("wie würde ich auf diese Sinneseindrücke reagieren, wenn ich der Roboter wäre?"). Damit der Zuschauer erfährt, welche Schlüsse der Roboter selbst aus seinen Wahrnehmungen zieht, insbesondere wie er daraus lernt, senden die Roboter zusätzlich Kommentare, die ebenfalls auf der linken Projektionsfläche angezeigt werden.

Die Konstruktion intelligenter Maschinen erfordert die Integration von Methoden aus vielfältigen Bereichen der Wissenschaft und Technik. Das wird zum Beispiel ersichtlich aus der neuen Robotik-homepage der Technischen Universitaet Graz die anläßlich dieses Wettbewerbs eingerichtet wurde um unseren Studierenden den Zugang zu diesem komplexen Fach zu erleichtern. Es ist beachtlich, daß es den studentischen Teilnehmern am Wettbewerb Robotik 2000 gelungen ist, diese Vielzahl von Methoden und wissenschaftlichen Erkenntnissen in ihren Köpfen zu vereinigen.7 Die einzelnen von den studentischen Teams konstruierten Roboter werden im Anhang vorgestellt. Der Sieger des Wettbewerbs ist der von Gerald Steinbauer und Roland Koholka (Team 3) gebaute Roboter "Oskar".

Die von den studentischen Teams benutzten Methoden des maschinellen Lernens zeigen, daß nicht nur beim Menschen sondern auch beim Roboter sinnliche Wahrnehmung und Lernen Hand in Hand gehen. Die Roboter analysieren bei Fehlversuchen die über ihre Video-Kamera aufgenommene Bahn der Kugel am Hügel und schließen daraus, was sie beim nächsten Versuch anders machen sollten. Solche Rückschlüsse sind nicht einfach, weil zum einen der Zufall eine große Rolle dabei spielt, wie die Kugel über die Platte und den unregelmäßig geformten Hügel rollt, und zum anderen die räumliche und zeitliche Auflösung der in track 2 des Wettbewerbs verwendeten preiswerten Videokameras nicht sehr hoch ist. Einige der Roboter verwenden zusätzlich ein künstliches neuronales Netz, um anhand von früheren erfolgreichen Versuchen bei anderen Hügeln geeignete Abschußwerte für den ersten Versuch bei einem neuen Hügel vorherzusagen. Alle Software für Bildverarbeitung und maschinelles Lernen wurde - wie auch die Software zur Motorsteuerung - von den studentischen Teams selbst entworfen und geschrieben.

Ganz besonders herzlich danken möchte ich den Kollegen und Mitarbeitern an der Technischen Universität Graz, die die Studierenden bei ihrer Wettbewerbsarbeit beraten haben: Prof. Dr. Axel Pinz (Institut für Elektrische Meßtechnik und Meßsignalverarbeitung) beim maschinellen Sehen, Prof. Dr. Reinhard Braunstingl (Institut für Allgemeine Mechanik) bei der Steuerung der Roboter, Prof. Dr. Gerhard Wießpeiner (Institut für Elektro- und Biomedizinische Technik, Abteilung für Medizinische Elektronik) bei der Stromversorgung der Roboter, sowie Dr. Thomas Natschläger, Oliver Friedl und Dipl.-Ing. Harald Burgsteiner von meinem Institut bei vielfältigen Fragen der Roboter-Hardware und Software. Ich möchte zusätzlich Oliver Friedl, Dr. Thomas Natschläger und Prof. Dr. Axel Pinz für ihre fachliche Beratung bei der Konzeption von diesem track 2 des Robotik-Wettbewerbs danken. Schließlich danke ich den Kollegen Prof. Dr. Nicolaos Dourdoumas (Institut für Regelungstechnik), Prof. Dr. Adolf Frank (Institut für Fertigungstechnik) und Prof. Dr. Andres Kecskemethy (Institut für Mechanik und Getriebelehre) für ihre freundliche Unterstützung bei der Initiierung des Wettbewerbs sowie der Basisgruppe Telematik für die freundliche Überlassung eines Raumes für diesen Wettbewerb. Last not least danke ich Prof. Richard Kriesche für seine unermüdliche Inspiration und Unterstützung sowie dem Land Steiermark und der Landesausstellung gr2000az für die Finanzierung dieses Robotik-Wettbewerbes.

Die für diesen Wettbewerb entwickelten Roboter wurden bereits mit dem Robotik Award 2000 der Firma Knapp Logistik Automation GmbH ausgezeichnet. Ich würde mich sehr freuen, wenn die in dieser Installation gezeigte Vorhut einer neuen Generation von lernfähigen Maschinen eine Reihe von Firmen und Forschungsinstitute in der Steiermark motivieren würde, diese Zukunftschancen verstärkt in ihre Entwicklungsarbeit miteinzubeziehen.
 

1Man muß hinzufügen, daß im Gegensatz zu dem Bild, das sich aus der Fachliteratur ergibt, zahlreiche Pressemeldungen - selbst in seriösen österreichischen Zeitungen - ständig den Eindruck vermitteln, daß soeben wichtige Durchbrüche erzielt wurden oder unmittelbar bevorstehen. Bei genauerer Betrachtung sieht man, daß dies in der Regel ohne kritische Überprüfung abgedruckte "Public Relations" Mitteilungen einzelner Firmen oder Institute sind. Dadurch erhält die Öffentlichkeit ein optimistischeres Bild vom state-of-the-art als der Fachwissenschaftler selbst.
2Siehe zum Beispiel das Buch "Cambrian Intelligence: The Early History of the New AI" von Rodney Brooks (MIT Press, Cambridge, 1999), sowie meinen Übersichtsartikel "Das menschliche Gehirn: nur ein Rechner?" (http://www.igi.tu-graz.ac.at/maass/gehirn/index.html) und die dort angeführte Literatur.
3Siehe zum Beispiel http://www.ics.uci.edu/~mlearn/MLOther.html, den Cluster "Maschinelle Intelligenz" für Studierende der Technischen Universität Graz: http://www.igi.tugraz.at/cluster/clusters.html, sowie die Arbeit der Forschungsgruppe von Prof. Dr. Axel Pinz (http://www.emt.tu-graz.ac.at/~pinz) an unserer Universität.
4Siehe die auf http://www.igi.tu-graz.ac.at/STIB/WS98/ diskutierten Methoden.
5Die genaue Regel beim Wettbewerb besagt, daß der Ball anfangs in dem gelb markierten Quadrat im linken Areal positioniert ist. Der Roboter darf die Kugel von einem beliebigen Punkt im linken Areal (d.h. links von der schwarzen Trennlinie) abschießen.
6Die Roboter haben alle einen roten Ein-/Ausschalter, sowie einen grünen Schalter, dessen Betätigung dem Roboter signalisiert, daß er nun beginnen soll, die Kugel vom Startpunkt auf den Hügel zu befördern.
7Viele Teilnehmer sind Studierende des Studienganges Telematik an der Technischen Universität Graz (siehe http://www.tu-graz.ac.at/studium/ und http://oeh.tu-graz.ac.at/telematik/) , der diese Vielseitigkeit in erfreulicher Weise fördert. Der Cluster Maschinelle Intelligenz (http://www.igi.tugraz.at/cluster/clusters.html) ist einer von vielen möglichen Schwerpunkten in diesem Studium.


Anhang: Vorstellung der Teilnehmer bei Track 2 des Wettbewerbs Robotik 2000 und ihre Projekte

Robotik Team 1

Mitglieder unseres Teams :

Erhard Hackl Studienrichtung Elektrotechnik-Biomedizin, wohnhaft in St.Georgen (Oberösterreich) Thomas Oberhuber Studienrichtung Telematik, wohnhaft in Tristach (Osttirol)
Manfred Rittler Studienrichtung Telematik, wohnhaft in Trins (Tirol)
Andreas Grießer Studienrichtung Telematik, wohnhaft in Dornbirn (Vorarlberg)

Fahreinheit :
Zur Fortbewegung unseres Roboters 'Homer J.' dient ein einzelnes hinten angebrachtes, lenkbares Antriebsrad. Ein 12V-Gleichstrommotor mit 2stufigem Planetengetriebe und einer Nennleistung von 20W sorgt für eine Maximalgeschwindigkeit von ca. 1,5m/s. Gelenkt wird mit Hilfe eines Hochleistungs-Servos, der einen maximalen Lenkwinkel von ca. 180 Grad erreicht.
 

Kugel-Abschußmechanismus :
Um möglichst wenig Energie beim Beschleunigen der Kugel zu verlieren verwenden wir eine Art Rampe, auf der die Kugel auf eine bestimmte Höhe gebracht und dann losgelassen wird. Die genaue Positionierung entlang der Rampe erledigt ein Schrittmotor, der eine Spindel antreibt und einen auf einer Laufmutter befindlichen Schlitten bewegt. Um die Kugel einzufangen ist auf dem Rampenschlitten ein Greifer montiert, der sich nicht nur öffnen und schließen sondern auch nach oben unten bewegen lässt. Lichtschranken auf dem Greifer sorgen für ein automatisches Einfangen der Kugel. Die Rampe selbst lässt sich per Servo vorne um ca. 1cm nach links und rechts drehen bzw. beim Fahren anheben und beim Abschuß auf den Boden absenken.

Elektronik :
Die Elektronik besteht hauptsächlich aus 2 Teilen : einem Hauptrechner (Cyrix 233MHz MMX-CPU), sowie einem Microcontroller-Board, das die komplette Sensorik sowie die Ansteuerung der Hardware übernimmt.

Auf dieser Controllerplatine befinden sich 2 unabhängige Netzteile, die Ansteuerung für 2 Schrittmoren, 5 Servos, 1 DC-Motor und 4 Ultraschall-Sensoren. Auch die Auswertung der Sensorsignale, Ultraschall, 8 Lichtschranken, 3 Helligkeitssensoren und Batteriespannungsmessung, ist hier untergebracht.
 
 
 

Folgende Sensorsignale werden ausgewertet :
 

Sensor
Montage
Zweck
3 Stk. Ultraschall
vorne links und rechts, hinten
Abstandhalter, Endschalter
Gabellichtschranken
Antriebsmotor hinten
Zählen der gefahrenen Schritte
 
Rampe unten
Endschalter, Nullstellung vorne
 
Kameragehäuse links, rechts und mittig
Endschalter, Nullstellung mittig
Infrarot-Lichtschranken
Rampe oben
Endschalter
 
Greifer vorne
Kugel automatisch fangen
 
Greifer mittig
Kontrolle ob Kugel im Greifer befindlich
Helligkeitssensoren
vorne links und rechts, hinten
Positionierung auf der Startlinie
CCD-Farbkamera
vorne mittig, schwenkbar
Bilderkennung

Um die Bilder der CCD-Farbkamera zu digitalisieren benutzen wir einen PC104-Framegrabber, der direkt über dem Hauptrechner montiert ist.

Software :
Als Betriebssystem kommt SuSE-Linux 6.1 (Kernel 2.2.5) auf einer als read-only gemounteten 48MB Flashdisk zum Einsatz. Die Software des Hauptrechners ist größtenteils in C/C++ geschrieben, teilweise aber auch in Assembler. Das endgültige Programm ist in 6 'parallele' Prozesse aufgeteilt, die miteinander kommunizieren und Daten austauschen können.


Roboter AntOnOff und Team 2

  Um die Aufgabenstellung beim Robotikwettbewerb zu erfüllen, haben wir uns für einen sechsbeinigen Roboter entschieden, da dieses Konzept zusätzlich eine besondere Herausforderung in bezug auf die Mechanik und deren Steuerung darstellte. Für die Realisierung haben wir uns an den in der Natur vorkommenden sechsbeinigen Lebewesen orientiert, die ja zum Teil recht passabel funktionieren (wegen der nun doch sehr langen Zeit der Evolution). Als angenehmes Beispiel betrachteten wir den Bewegungsapparat von Ameisen, im speziellen der Formica rufa (gemeinen Waldameisen) aus der Familie der Formicidae. Wir haben also diese Gattung mit einer Kamera aufgezeichnet und AntOnOff?s Gehalgorithmus dementsprechend diesen lieben Tieren angepaßt (Anm. für unsere Naturfreunde: die Versuchstiere wurden, wie unserer Roboter später auch, wieder in der Natur ausgesetzt).

Als Sinnesorgane dienen unsrem Roboter AntOnOff eine digitale Farbkamera, ein Hand voll Infrarot-Abstandssensoren und ein Kompaß, um die Orientierung nicht zu verlieren. Das Gehirn besteht bei AntOnOff aus einem Pentium Rechner und einem Microcontroller, die sich die Lösung der gestellten Aufgabe wie folgt aufteilen: Der schnellere PC übernimmt die rechenaufwendige Bildverarbeitung und den adaptiven Lernalgorithmus, wobei der kleinere Bruder den gesamten Gehapparat sowie die Sensoren und Aktoren kontrolliert. Als Aktoren wurden eine Abschußvorrichtung, die den Ball auf den Hügel befördern soll, und eine Fangvorrichtung zum Holen des Balles benötigt. Die Fangvorrichtung wurde wiederum den Kauwerkzeugen der Ameisen nachempfunden. Um einen autonomen Betrieb für eine Zeit von ca. 45 Minuten zu gewährleisten, wurden 2 Akkus mit fortschrittlicher NiMh-Technologie verwendet.

Schlußendlich stellte sich die Aufgabenstellung als wesentlich komplexer dar, als wir es zu Beginn des Bewerbs angenommen hatten, denn bei AntOnOff mußten wir sehr auf das Gewicht achten (Diät?), denn Übergewicht fordert mehr Stromverbrauch und somit einen schwereren Akku und damit schließt sich der Kreis wieder. Dieses Problem konnten wir nur durch Einsatz von ultraleichten Materialien und hochtechnologischen Komponenten (low-power-components) in den Griff bekommen.

Teammitglieder:

AntOnOff (Ameise, bei der man nie weiß, ob sie ein- oder ausgeschaltet ist)
Franz Stephan Helmli (techn. Mathematik)
Josef Zipper (Elektrotechnik)
 
 
 
 
 
 
 
 
 
 
 
 
 



 
 


Der Wettbewerbssieger:
Robotik Team 3

Beim Design des Roboters Oskar durch Gerald Steinbauer (Telematik) und DI Roland Koholka (Telematik) wurde darauf Wert gelegt, daß es möglichst wenig bewegliche Teile gibt und die Funktionalität einfach vom Zuschauer zu durchschauen ist.


Angetrieben wird Oskar durch zwei Schrittmotoren, auf die Räder aufgesteckt sind . Sie erlauben zwar nur eine Geschwindigkeit von ca. 10m/min, dafür kann sich Oskar sehr exakt bewegen. Durch Drehen der Motoren mit verschiedenen Geschwindigkeiten und Richtungen kann Oskar sich am Stand drehen oder Kurven fahren. Die Abschußposition kann mit einer Genauigkeit von 1mm und einem Winkelfehler 0.2° immer wieder eingenommen werden, was für ein schnelles Lösen der Aufgabe essentiell ist.

Die Abschußvorrichtung besteht aus einem Hammer und einem Schrittmotor. Die in der Bodenplatte ausgenommene Führung ist so konstruiert, daß der Ball immer an einer definierten Position liegt. Beim Abschuß des Balles wird der Hammer gehoben, und durch Abschalten des Stroms losgelassen. Der Hammer übernimmt also die Funktion eines Golfschlägers.

Beim Einsammeln des Balles benutzt Oskar sein flexibles Lasso, um den Ball in seiner Nähe zu fixieren. Anschließend befördert er den Ball mit einem "Hüftschwung" in sein Inneres, wo er mit einer Klappe an die Abschußposition befördert wird.

Durch zwei Kameras nimmt Oskar seine Umwelt wahr. Eine Kamera ist nach vorne gerichtet, die dient zum Aufnehmen der Bahnkurve beim Schießen, zum Erfassen des Hügels, sowie zur Suche des Balles beim Einsammeln. Ihr Bild wird auf der rechten Projektionsfläche gezeigt. Die zweite Kamera ist von oben direkt auf den Bereich vor dem Roboter gerichtet. Sie dient zum Erkennen von Hindernissen und zur genauen Positionierung im Startfeld.

Beim ersten Schuß versucht Oskar mittels einem eingebauten künstlichen neuronalen Netzwerk aus seiner Erfahrung aus früheren Treffern eine möglichst gute Vorhersage für den Winkel und die Geschwindigkeit zu finden. Aus der Bewegung des Balles am Hügel leitet Oskar erfolgversprechende Werte für den nächsten Versuch ab. Diese Adaption seines Verhaltens setzt Oskar solange fort bis der Ball in der Mulde liegen bleibt.
 



Robotik Team 4

Sisyphus 2000

Als Basis unseres Roboters Sisyphus 2000 dienen handelsübliche Modellbausätze für Elektroautos. Das Vehikel verfügt über zwei Achsen, die über je einen Gleichstrommotor angetrieben werden. Alle vier Räder können einzeln gelenkt werden. Die low-level Steuerung übernehmen ein Servocontroller und zwei weitere Mikrocontroller, die über serielle Schnittstellen mit dem Zentralrechner verbunden sind. Der Hauptrechner ist ein Single-Board Industrie-PC der Pentium-Klasse mit geringer Leistungsaufnahme. Die Energieversorgung geschieht aus NC-Akkupacks (900g Gewicht und 60Wh) und einem effizienten Schaltregler. Die verbrauchte Energie und wichtige Systemspannungen werden kontinuierlich erfaßt. Die Ansteuerung der Motoren erfolgt über einen elektronischen Fahrtenregler, der beim Bremsen die kinetische Energie des Roboters in die Akkus zurückführt, unsere geschätzte Einsatzdauer beträgt in etwa vier Stunden.

An Sensoren sind Infrarot-Abstandssensoren, ein elektronischer Kompaß, ein Beschleunigungssensor sowie diverse Lichtschranken und eine Farbkamera vorhanden. Um die Kugel abzuschießen, wird sie in Eigenrotation versetzt, indem sie mit einem Servo gegen eine rotierende Walze gedrückt wird; nach Öffnen des Bügels beschleunigt die Kugel aus der Abschußvorrichtung. Die Rotationsgeschwindigkeit der Walze wird über einen Präzisionsmotor mit Impulsgeber exakt eingestellt.

Unser Team besteht aus Thomas Jaksch und Arnulf Heller, wir sind Telematik-Studenten kurz vor Studienabschluß.
 
 





created by hx
Heike Graf

2000-02-10