Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.10.1988 - 

Optische Sensoren reichen dem menschlichen Auge nicht das Wasser:

Der Weg zur Obiekterkennung ist noch weit

Bauteile zu vorprogrammierten Orten zu führen, ist für Industrieroboter nichts Neues. Schwieriger ist es, ungeordnete Teile aus einer Kiste zu greifen und lagerichti in die Produktion einzubinden. Die intelligente Maschine von morgen muß Bildinformationen nicht nur verarbeiten, sondern auch interpretieren können. Rainer Holzhäuser* beschreibt den Verlauf der Entwicklung.

Industrieroboter sind seit einigen Jahren in der Lage, Werkzeuge und Werkstücke entlang definierter Bahnen zu vorgegebenen Ortspunkten zu führen. Ihr Einsatz war bisher jedoch immer dann problematisch, wenn der Roboter Bauteile oder Werkzeuge nicht in der vorprogrammierten Position vorfand. Was das menschliche Auge mit einem kurzen Blick erfaßt - ob ein Werkstück Fehler hat und wie es zu greifen ist, damit es richtig im Werkzeug liegt -, das leisten die meisten Industrieroboter noch nicht im erforderlichen Umfang.

Die Roboter benötigen vor allem bei der aktuellen Bemühung, die Produktion flexibler zu gestalten, visuelle Sensoren. Diese erfassen die genaue Lage der Bauteile und können über ein geeignetes Steuerungsprogramm die Feinjustierung des eingesetzten Werkzeugs vornehmen.

2D-Bilder für 3D-Szenen

Seit einigen Jahren beschäftigen sich Forscher mit der menschlichen Denkfähigkeit. Dabei wird das Ziel verfolgt, Verstandesleistungen maschinell nachzuahmen (Künstliche Intelligenz-Forschung, siehe auch Serie Künstliche Intelligenz in der CW). Neben dem Verstehen der natürlichen menschlichen Sprache, dem automatischen Beweisen von Lehrsätzen (Deduktionssysteme), der Robotersteuerung und den sogenannten Expertensystemen, ist auch die automatische Bilderkennung ein Schwerpunkt dieses Gebietes.

Ein Hauptziel bei der Objekterkennung ist es, anhand von zweidimensionalen Bildern - zum Beispiel einer Folge von Fernsehbildern - eine dreidimensionale Szene zu rekonstruieren und zu deuten. Beim intelligenten Computersehen geht es daher nicht nur um die reine Bildverarbeitung, sondern darüber hinaus auch um das Erkennen und Bewerten von Bildinformationen. Dabei werden aus der Bewertung der visuellen Signale Folgerungen für die Robotersteuerung gezogen. Zum Beispiel ist es einem so konzipierten Roboter grundsätzlich möglich, durch die Bildinformation zu entscheiden, wie das identifizierte Werkstück individuell (anhand vorgegebener Programminformationen) zu bearbeiten ist.

Das bisher mangelnde "Sehvermögen" der Systeme führte dazu, daß Fertigungsprozesse nur starr ablaufen konnten. Das lag daran, daß Robotersysteme ohne visuelle Begabung "blind" auf vorgegebene Positionen griffen, unabhängig davon, ob das richtige Teil an der erwarteten Stelle lag oder nicht. Mit der Vervollkommnung der Robotertechnologie erhoben sich zwangsläufig Forderungen nach einer automatischen Lageerkennung und Identifizierung von Werkstücken und Werkzeugen. Nur eine verbesserte Technologie konnte dem Industrieroboter innerhalb minimaler Toleranzen einen sicheren Zugriff garantieren.

Es war also eine technische Neubeziehungsweise Weiterentwicklung der Sensortechnik notwendig. Ziel dieser Bemühungen war es, Sensorsysteme zu entwickeln, die einen Roboter in die Lage versetzen, in eine Kiste mit ungeordneten Werkstücken zu greifen und das erforderliche Teil so zu fassen, daß es ohne Probleme in den Fertigungsprozeß integriert werden kann.

Bei dieser Forschung stellte sich heraus, daß visuelle Sensoren für diese Aufgabenstellung spezifische Vorzüge gegenüber anderen Sensoren haben. So können optische Sensoren schnell und breit variierende Situationen ohne spezielle Anpassung erfassen. Hier sind sie taktilen und abstandsmessenden Sensoren überlegen. Zwar können diese "konventionellen" Sensoren Teile und Werkzeuge - mit relativ hohem Zeitaufwand - "erfühlen", aber diese Fähigkeiten reichen für die heutigen Produktionsanforderungen nicht mehr aus. Vielmehr benötigt ein flexibler Roboter ein Videosystem, um Objekte schnell zu identifizieren und mit diesen Informationen den Roboter auf die Fertigung der aktuellen Produktvariante umzurüsten. Auch bietet das optische System die Möglichkeit, die Lage von Werkstücken zu bestimmen und in Verbindung mit flexiblen Positioniereinrichtungen Teile aus jeder Lage zu greifen.

Als weitere Vorzüge visueller Sensoren werden in zunehmendem Umfang Sichtprüfungen zur Qualitätskontrolle sowie reine Kontrollaufgaben - beispielsweise hinsichtlich der Vollständigkeit eines Erzeugnisses - möglich sein.

Bei all diesen Anwendungen spiegelt sich die Intelligenz von Industrierobotern darin wieder, daß sie in der Lage sind, ein Abbild ihrer Umgebung nach verschiedenen Erfordernissen zu untersuchen und die gewonnenen Informationen auszuwerten.

Mit Hilfe von Werkstückerkennungssystemen ist daher der Industrieroboter in der Lage, gezielt auf ein vorgegebenes Objekt zuzugreifen, und die bis dahin blinde Ertastung zu substituieren. Solche Systeme bestehen aus optischen Sensoren - meist Videokameras - und leistungsfähigen Programmen, die aus Flächengröße, Lage der Konturen des Werkstückes und anderen geometrischen Daten die Zuordnung zu vorher abgespeicherten "Referenzobjekten" ermöglichen.

Auch erste Wege in Richtung eines räumlichen Sehens werden inzwischen beschritten. Während bislang Kameras Werkstücke nur zweidimensional erkennen, ermöglichen die heutigen Forschungsergebnisse für die Zukunft eine dreidimensionale Betrachtung des Arbeitsplatzes durch den Roboter.

Um dieses dreidimensionale "Augen-Hand"-System des Menschen für den Industrieroboter zufriedenstellend nachahmen zu können, ist jedoch ein aufwendiges Zusammenspiel optischer und taktiler Sensoren notwendig.

Eine Möglichkeit, die bisher fehlende dritte Dimension zu erfassen, bieten neuartige Kameras mit Autofokus. Werden sie direkt am Roboterarm befestigt, kann er so gesteuert werden, daß er im richtigen Abstand zu den Werkstücken in seinem Bewegungsablauf innehält oder Konturen im Raum folgt. Auf diese Weise ist es möglich, daß sich auch die von der horizontalen Lage abweichenden Werkstücke zuverlässig greifen lassen.

Eine weitere Möglichkeit, die dritte Dimension für ein punktgenaues Greifersystem einzubeziehen, bietet die derzeitige Forschung auf dem Gebiet der 3D-Bilderfassung. Dieses System sieht vor, dem Roboter die dritte Dimension dadurch zu vermitteln, daß entweder eine Stereokamera verwendet wird, oder indem eine normale Kamera ihre Aufnahmeposition zu einem Werkstück mehrmals wechselt, um dem Roboter aus der Summe der so übermittelten Informationen eine räumliche Vorstellung zu geben.

Autofokus und 3D-Bilderfassung sind damit ein weiterer Schritt, Roboter den unterschiedlichsten Anforderungen der Fertigungspraxis anzupassen. Besonders eignen sich diese Verfahren, um den Roboter Teile von einem bewegten Transportsystem greifen zu lassen. Dabei ist es erforderlich, Lage, Geschwindigkeit und oft auch verschiedene Typen einer Teilefamilie schnell zu erkennen und zu verarbeiten.

Die häufigste Aufgabe einer Bildverarbeitung in Verbindung mit visuell gesteuerten Industrierobotern dürfte jedoch der Griff in die Teilekiste sein. Grund dafür ist die Fertigungspraxis. Sie ist dadurch gekennzeichnet, daß Industrieroboter mit Bauteilen versorgt werden, die ungeordnet in Behältern angeliefert werden.

Grundlage dieser Fähigkeit sind große Mengen an bildhaften Informationen, die das System unter vorgegebenen Gesichtspunkten auswertet und interpretiert. Prinzipiell bieten sich für eine derartige Informationsverarbeitung zwei Verfahren an: die Binärbild- und die Grauwertbildauswertung.

Bei Binärbildsystemen werden die von der Kamera kommenden Signalen ein Schwarzweiß-Bildpunktraster umgesetzt. Dabei erscheinen diejenigen Bildteile unterhalb einer vorher eingestellten Grenzschwelle schwarz, und die darüberliegenden Bildteile weiß. Damit weisen Binärbilder lediglich zwei Helligkeitsstufen auf.

Nur die Konturen müssen gespeichert werden

Voraussetzung für die Anwendung des Binärbildverfahrens ist ein genügend großer Kontrast zwischen dem Werkstück und der Auflagefläche. Es muß also für eine gleichmäßige Ausleuchtung des Arbeitsplatzes gesorgt werden. Dieses Verfahren bietet jedoch gegenüber der Grauwertbildverarbeitung einen entscheidenden Vorteil: Es müssen lediglich die Konturlinien eines Objekts gespeichert werden. Damit wird zum einen der Speicherbedarf entscheidend reduziert, und zum anderen wirken sich Werkstückverunreinigungen nur dort störend aus, wo die Werkstückkontur betroffen ist. Adäquat zum verminderten Informationsgehalt der Binärbilder ist damit auch der Arbeitsaufwand geringer als bei Grauwertbildern, was sich auf die Verarbeitungsgeschwindigkeit und den Preis des Systems günstig auswirkt. Für Aufgaben, in denen die Geschwindigkeit des Handhabungssystems die Dauer des Arbeitszykluses bestimmt, sind demnach Bildverarbeitungssysteme mit Binärbildauswertung denen mit Grauwertbildauswertung überlegen.

Grauwertbilder beinhalten demgegenüber erhebliche Informationen. Entsprechend schwieriger ist die Bildauswertung. Hinzu kommt, daß Verschmutzungen, Rost und Reflexionen zu Verzerrungen führen.