learn more

Über Jahrzehnte war das menschliche Auge der einzig verfügbare »Sensor« für optische Koordinatenmessgeräte wie Messmikroskope und Messprojektoren. Das visuelle Messen führt zu subjektiv bedingten Messabweichungen. Dazu zählen die Parallaxenfehler (schräges Anvisieren) und Fehlmessungen von Hell-Dunkel-Übergängen (z. B. an Kanten) aufgrund der logarithmischen Lichtempfindlichkeit des menschlichen Auges. Trotz aller Nachteile stellt das visuelle Antasten auch bei modernen Geräten die letztmögliche Alternative dar. Sie wird eingesetzt, wenn die zu messenden Objektstrukturen sehr schlecht sichtbar sind und die geometrischen Merkmale nur noch intuitiv gefunden werden können.

<p>Abb. 6: Gliederung der Sensoren nach dem physikalischen Prinzip</p>

Optoelektronik ersetzt das Auge

Heute werden die Aufgaben des Auges beim Messen von optoelektronischen Sensoren übernommen. Diese wirken wie das Auge beim Messmikroskop entweder senkrecht zur optischen Achse in der Objektebene (laterale Sensoren – Bildverarbeitung) oder entlang der optischen Achse beim Fokussieren (axiale Sensoren – Abstandssensoren, Abb. 6). Lateral messende Sensoren bestimmen die Abweichung der Objektpunkte von der Sensorachse (Sensorkoordinaten x, y in der Objektebene). Hierfür wird meist das Messobjekt beleuchtet und mit einem Objektiv auf den Sensor abgebildet (Abb. 7).

Punktförmig abtastende Sensoren aus dieser Gruppe (z. B. Werth Tastauge) erlauben das automatisierte schaltende »Antasten« von Kanten und das Fokussieren bei gutem Kontrast. Sie sind somit praktisch nur im Durchlichtverfahren einsetzbar. Wegen dieser Einschränkung finden solche Sensoren kaum noch Anwendung. Es werden heute überwiegend flächenhaft messende Bildverarbeitungssensoren eingesetzt, die auch weniger kontrastreiche Bilder auswerten können. Bei Spezialanwendungen wird auch mit Verfahren gemessen, bei denen die Breite eines Objekts (z. B. Spaltmaß oder Wellendurchmesser) durch Auswertung eines Laserlichtvorhangs bestimmt wird.

Optoelektronik ersetzt das Auge
<p>Abb. 7: Prinzipieller Aufbau eines lateral messenden Sensors mit optischer Objektabbildung: a) Sensor, b) Objektiv, c) Messobjekt, d) Beleuchtung</p>

Laufzeit- oder Winkelmessung

Mit lateral messenden Sensoren können nur Messungen zweidimensionaler (2D) bzw. gestufter (2½D) Objekte durchgeführt werden. Um mit optischen Sensoren eine dreidimensionale (3D) Messung von Werkstücken ausführen zu können, benötigt man zusätzliche Verfahren zum Messen entlang der dritten Koordinatenachse. Da die hierfür verwendeten Sensoren den Abstand zwischen dem Sensor und der Werkstückoberfläche ermitteln, werden sie auch als Abstandssensoren oder axial messende Sensoren bezeichnet. Diese Abstandssensoren wirken nach unterschiedlichen physikalischen Prinzipien, die sich grob in laufzeitund winkelbasierende Verfahren einteilen lassen (s. Abb. 6). Die Laufzeit eines Lichtstrahls vom Sensor zum Objekt und zurück lässt sich für kurze Distanzen derzeit noch nicht direkt, sondern nur durch Interferometer bestimmen. Die Winkelbeziehungen zwischen Messstrahl und Sensor bzw. zwischen der Öffnung der Optik und dem Arbeitsabstand werden bei Triangulations- und Fokusverfahren zur Bestimmung des Abstands genutzt (Abb. 8).

Die Vorteile optischer Sensoren für die Anwendung liegen im berührungslosen Messen. Hierdurch können sowohl empfindliche Werkstücke als auch solche mit kleinen Merkmalen gemessen werden. Kunststoffteile, optische Funktionsflächen, biegsame Blechteile und Bauteile für die Mikromechanik (Implantate, Uhren) sind typische Messobjekte. Durch das berührungslose Messen kann das bei kleinen oder elastischen Teilen schwierige Aufspannen entfallen. Mit optischen Sensoren werden viele Messpunkte sehr schnell oder sogar gleichzeitig erfasst. Im Vergleich zu anderen Sensoren führt ihr Einsatz deshalb meist zu wesentlich kürzeren Messzeiten. Sie werden aus diesem Grund für verschiedenste Werkstücke in der Fertigungskontrolle eingesetzt.

Laufzeit- oder Winkelmessung
<p>Abb. 8: Abstandsmessverfahren: a) Interferometer (Laufzeit): Der Abstand zum Objekt kann durch Interferenz aus der Laufzeitdifferenz zwischen Referenz- und Messstrahl ermittelt werden. b) Triangulation (Winkel): Der Abstand zum Objekt kann aus der Lage des Lichtflecks im Messfeld und dem bekannten Triangulationswinkel bestimmt werden (Sensoranordnung nach Scheimpflug zur Vermeidung von Unschärfen). c) Fokusverfahren (Winkel): Der Abstand zum Objekt wird aus dem Fokuszustand bestimmt, die Defokussierung hängt vom Aperturwinkel ab</p>
Bildverarbeitungssensoren
Bildverarbeitungssensoren
Fokusvariationssensoren
Fokusvariationssensoren
Lasertriangulations- sensoren
Lasertriangulations- sensoren
Chromatische Fokussensoren
Chromatische Fokussensoren
Interferometrische Punktsensoren
Interferometrische Punktsensoren
Konfokale Flächensensoren
Konfokale Flächensensoren
Flächensensoren mit Musterprojektion
Flächensensoren mit Musterprojektion
Weißlichtinterferometer
Weißlichtinterferometer