Foto: Robin Rofallski

Neues Unterwasser- Kamerasystem für die Meeresforschung

TLDR:

3D-Abbildungen von der Unterwasserwelt sind schwieriger zu erstellen als an Land, denn Bildprojektionen verhalten sich unter Wasser anders als an der Luft. Robin Rofallski von der Jade Hochschule entwickelt ein neuartiges Kamerasystem, das eine kostengünstige dreidimensionale Erfassung und Positionierung von Objekten in der maritimen Forschung ermöglicht.

Lesedauer: 5 min Kategorien: Meeresforschung, Mobile Forschungsplattformen Datum: 4. November 2019

Das Meer ist ein wertvolles Ökosystem und dient uns Menschen zugleich als Infrastruktur und Wirtschaftsraum. Die Unterwasserwelt wird aus vielen Blickwinkeln wissenschaftlich untersucht: Die Meeresforschung zum Beispiel interessiert sich für Austritte von Süßwasser am Meeresboden oder analysiert Wasser auf (Gift-)Stoffe. Auch betrachtet sie Veränderungen von Bodenstrukturen über die Zeit, die Aufschluss über die Entwicklung bestimmter Gebiete wie zum Beispiel unseres Wattenmeeres geben können. Das Bundesamt für Schifffahrt und Hydrologie (BSH) wiederum, das für die Sicherheit der Schifffahrtsstraßen verantwortlich ist, ortet gesunkene Schiffe und bestimmt deren Zustand, damit alle fahrenden Schiffe sicher navigieren können. Unternehmen in der Windkraftindustrie inspizieren regelmäßig ihre Offshore-Anlagen, um Risse und andere Risiken zu entdecken.

Wer unter Wasser forscht, hat es mit anderen physikalischen Bedingungen zu tun. Methoden der Datenerhebung, die an Land funktionieren, müssen für die Meeresforschung erst einmal angepasst werden.  

Ein Ansatz in der maritimen Forschung ist es, Informationen am Meeresboden mittels Kameras zu sammeln. Um größere Gelände zu untersuchen ist es sinnvoll, diese Kameras an Unterwasserfahrzeuge zu koppeln, welche die optischen Informationen für die Navigation nutzt. Aber „bislang existiert kein Sensor, der ein an ihn angeschlossenes Unterwasserfahrzeug zentimetergenau verorten und die Sicherheit bieten könnte, dass das zu untersuchende Gelände und Objekte darin komplett und korrekt abgebildet sind“, erklärt Robin Rofallski vom IAPG (Institut für Angewandte Photogrammetrie und Geoinformatik der Jade Hochschule). „Über Wasser gibt es das GNSS für die genaue Verortung von Objekten.“ Aber die Technologie dieses Globalen Navigationssatellitensystems funktioniert unter Wasser nicht.

Ein Multisensorsystem für 3D-Abbildung, Ortung und Navigation

Rofallski hat sich vorgenommen, ein solches Sensorsystem zu entwickeln. Er ist Geodät, das heißt Vermessungsingenieur, mit Schwerpunkt Photogrammetrie (Bildmessung) und kann genaue Messbilder von Objekten erstellen sowie deren genaue globale räumliche Lage ermitteln. Ziel seiner Arbeit ist ein „Multisensorsystem mit drei Kameras, mit dem ein ferngesteuertes Unterwasserfahrzeug ausgerüstet werden soll“, wie er erklärt. Das Fahrzeug, auch ROV (Remotely Operated Vehicle) genannt, soll unbekanntes Gelände unter Wasser durchfahren, während die daran befestigten Kameras Informationen über das Gelände und insbesondere über Hindernisse und Objekte erfassen. Aus den Bildinformationen des Systems erstellt Rofallski interpretierbare 3D-Modelle, die georeferenziert sind. Das heißt jeder erfasste Bildpunkt lässt sich im globalen Koordinatensystem zum Beispiel über den Längen- und Breitengrad lokalisieren. Dies ermöglicht die genaue Ortung der Informationen und auch die Navigation des Fahrzeugs. „Da wir mit dem Kamerasystem bis zu einer Tiefe von 100 Metern den Meeresboden untersuchen können, wäre eine Anwendung unserer Methode zum Beispiel die Inspektion von Offshore-Anlagen. Risse oder andere Unregelmäßigkeiten lassen sich damit ermitteln und zentimetergenau orten.“

Den Prototypen seines Mehrkamerasystems hat der Doktorand bereits gebaut:

Das Mehrkamerasystem besteht aus drei Kameras, die zum Schutz vor Wasser und Druck jeweils in ein Gehäuse aus Glas eingeschlossen sind. Die Kameras sind parallel angeordnet, die äußeren nach vorn, die mittlere nach hinten gerichtet.
Foto: Robin Rofallski

„Punktwolken“ als 3D-Abbildung von Objekten unter Wasser

Das Kamerasystem verfügt nicht über einen Datenträger unter Wasser, sondern übermittelt seine Bilddaten direkt über Kabel an einen Rechner auf einem Begleitfahrzeug. Der Rechner soll anhand der Bilddaten eine dreidimensionale Punktwolke erstellen, die die unter Wasser aufgenommenen Objekte und Strukturen abbildet.

Ein unter Wasser aufgenommenes Schiffswrack. Oben die Punktwolke aus Rofallskis Kameras; Unten: Die Punktwolke überlagert mit anderen Messdaten
Foto: Robin Rofallski

Wie funktioniert die Auswertung der Kameradaten? Folgende Videos verdeutlichen das Prinzip der 3D-Punktwolken. Die obere Bildsequenz bildet die Grundlage für die darunter dargestellte Punktwolke. Deren Berechnung können Sie am besten nachvollziehen, wenn Sie beide Videos zeitgleich abspielen:

Herausforderungen der Photogrammetrie unter Wasser

Die Erstellung von dreidimensionalen Punktwolken aus Bilddaten ist in der Photogrammetrie eine übliche Aufgabe. Aber unter Wasser wird es schwieriger, die Bilddaten hierfür zu erfassen: Denn hier verhalten sich Bildprojektionen anders als an der Luft. Grundsätzlich geht die Photogrammetrie davon aus, dass der Strahlenverlauf von Licht geradlinig ist, während die Bildprojektion unter Wasser durch das Glasgehäuse anders gebrochen wird und in einem anderen Winkel auf die Kamerasensoren trifft, als dies an der Luft der Fall wäre. Diesen Effekt muss Rofallski als Einflussfaktor in die Berechnungen des Computers integrieren, damit die 3D-Abbildung den abgebildeten Objekten unter Wasser entspricht.

Die rückwärts gerichtete Kamera dient dazu, ein anderes Problem zu lösen, wie der Doktorand erklärt: „Unter Wasser haben wir eine minimale Ungenauigkeit in den aufgenommenen Bilddaten, die sich mit jeder Bewegung des Kamerasystems fortsetzt. Die Ungenauigkeit in den vorwärts gerichteten Kameras lässt sich mithilfe der rückwärtigen Kamera überprüfen und mathematisch definieren. Das Ergebnis fließt in die Berechnungen des Computers ein, sodass wir die 3D-Abbildung um den Fehler bereinigen.“

Zudem muss technisch gewährleistet sein, dass die Position der Kameras innerhalb des Sensorsystems jederzeit stabil bleibt – es darf nichts verrutschen oder wackeln. „Da auch die Winkel der Sensoren zueinander in die Berechnung der 3D-Abbildung eingehen, wäre die Kalibrierung der Kameras umsonst, wenn sich innerhalb des Systems irgendetwas verändern würde – es würde das Ergebnis verfälschen“, sagt Rofallski.

Erster Unterwassertest in der Ostsee

„Gemeinsam mit dem Bundesamt für Schifffahrt und Hydrographie haben wir Mitte September einen ersten Test gemacht und mit dem Kamerasystem ein gesunkenes Seeschiff in der Ostsee untersucht“, berichtet Rofallski. In der Regel werden Taucher in die Tiefe geschickt, um Informationen zu erheben und Fotos der Wracks zu machen. Ist das Gelände jedoch zu gefährlich oder schwer erreichbar für einen Menschen, könnten in Zukunft unbemannte Fahrzeuge die Taucher unterstützen.

Zur Person

Robin Rofallski promoviert im Rahmen des interdisziplinären Projekts EITAMS (Entwicklung innovativer Technologien für autonome maritime Systeme). Ziel von EITAMS ist die Entwicklung kostengünstiger Systemkomponenten für flexibel konfigurierbare Fahrzeuganwendungen unter Wasser – mit der Perspektive, diese Institutionen, Wirtschaft und Wissenschaft für die Erfüllung autonomer Aufgaben im maritimen Bereich zur Verfügung zu stellen.

Portaitfoto: Piet Meyer

Haben Sie Fragen? Oder beschäftigen Sie sich mit Photogrammetrie und suchen den Austausch zum Thema? Schreiben Sie uns:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Sie auch interessieren:
Was verrät uns 1666 Jahre altes Wattsediment?
Letzte Woche durfte ich Studierende am ICBM bei ihrem Praktikum im Labor begleiten. Im Rahmen des Studiengangs mikrobielle Ökologie untersuchten sie zwei Wochen lang einen Sedimentkern vom Janssand vor Spiekeroog
[…] weiterlesen
Autonome Fahrzeuge für die Meeresforschung nach Vorbildern in der Tierwelt programmieren: ein Forschungsprojekt
Im Rahmen seiner Doktorarbeit entwickelt Christoph Tholen von der Jade Hochschule den Suchalgorithmus für eine Gruppe autonomer Unterwasserfahrzeuge, die Süßwasseraustrittsstellen am Meeresgrund finden sollen. Dabei dient das Schwarmverhalten von Tieren
[…] weiterlesen