In diesem Beitrag soll ein Softwarepaket, das während der Forschung am Thema ,,Markscheiderisch-Geologische Komplexauswertung`` im Institut für Markscheidewesen und Geodäsie Freiberg entwickelt wurde, vorgestellt werden. In den programmierten Algorithmen werden zum großen Teil statistische bzw. stochastische Verfahren verwendet, um die aus der Interpretation, Modellierung und Visualisierung von Geodaten resultierenden Aufgabenstellungen zu realisieren. Auf eine Erläuterung der zugrunde liegenden Methoden wird hier jedoch verzichtet. Es wird sich auf die Darstellung der Funktionalität, der Schnittstelle zu den Algorithmen und der Benutzeroberfläche beschränkt. Bei tiefgehenden Interesse an den jeweiligen theoretischen Grundlagen sei auf die an entsprechender Stelle genannte Literatur verwiesen.

Weitere oder erweiterte Geostatistik-Software?

Dem an der Geostatistik interessierten Leser stellt sich natürlich sofort die Frage, welchen Nutzen bzw. welchen Neuigkeitswert ein weiteres neben den schon in genügender Anzahl existierenden Softwarepaketen haben soll. Darüber hinaus ist die Anwendung von geostatistischen Methoden in allen großen Softwaresystemen, die ein Vorhersagemodul besitzen, bereits selbstverständliche Praxis.

Der Antrieb, eine Eigenentwicklung zu betreiben, ist im ursprünglichen Zweck der Software zu suchen. Sie sollte in der Forschung vor allem dem Test und zur Untersuchung der Anwendbarkeit von neuen Algorithmen und Verfahren dienen. Hervorgehoben seien an dieser Stelle:

Da mit der Software auch immer reale Fallbeispiele zu bearbeiten waren, machten sich viele Erweiterungen zur Lösung von Problemen, die sich aus der Anwendungspraxis ergaben, notwendig. Die vorliegende Software war also Voraussetzung und ist aber auch zugleich Ergebnis der in diesem Heft dargestellten Forschungsarbeiten zum obengenannten Thema.

Durch die bereits hier angedeutete Komplexität der Lösungen machte sich im Interesse einer breiten Nachnutzung der Ergebnisse die Gestaltung einer sich mehr oder minder selbsterklärenden und vor allem einheitlichen, grafischen Oberfläche notwendig. Sie präsentiert sich vorerst in deutscher Sprache. Die Software wird über das Internet im Quellcode frei verfügbar gemacht. Die Schnittstellen werden zum großen Teil ebenfalls über dieses Medium publiziert, so daß spezifische Anpassungen und Erweiterungen im Gegensatz zu kommerziellen, geschlossenen Systemen mit hoffentlich vertretbaren Aufwand möglich sein sollten. Aufgrund der Neuartigkeit einiger Verfahren, der oft detaillierten Möglichkeiten zur Programmsteuerung und der Integration unter einer einheitlichen Oberfläche hoffen die Autoren, daß diese Software besonders in Anbetracht der freien Verfügbarkeit das Attribut ,,erweitert`` für sich in Anspruch nehmen darf.

Funktionalität

Naturgemäß unterscheidet sich diese Software in ihrem grundlegenden Aufbau von dem verwandter Systeme nicht wesentlich. Der Nutzer wird viele Funktionen und Bezeichnungen, die ihm aus der einschlägigen Literatur sowie aus schon angewendeten Geostatistikprogrammen vertraut sind, wiederfinden. Das Hauptmenü erscheint mit acht grundsätzlichen Menüpunkten, unter denen Funktionen mit ähnlichem Aufgabengebiet zusammengefaßt sind. Sie seien im folgenden kurz genannt und in den Unterabschnitten ausführlicher erläutert:

  1. Projektverwaltung
  2. Datenaufbereitung
  3. deskriptive Statistik
  4. Simulation
  5. Bestimmung der Modellparameter der Kovarianzfunktion
  6. Vorhersage
  7. Massen- und Volumenberechnung mit Genauigkeitsanalyse
  8. Visualisierungen
Das Dateiformat der Eingangsdaten lehnt sich an das Format der Programmsammlung GS-LIBgif bzw. GEO-EASgif an, d. h. Dateien in jenen Formaten können ohne Veränderungen gelesen werden.

Projektverwaltung

Es wird davon ausgegangen, daß für ein reales Untersuchungsgebiet die meisten der zur Verfügung stehenden Funktionen in einer gewissen zeitlichen Reihenfolge benötigt werden. Diesem Ansatz trägt der Aufbau einer Projektdatei Rechnung. In ihr ist jeweils der aktuelle Stand der Bearbeitung gesichert. Die Verwaltung der Eingangs-, Ergebnis- und modulspezifischer Projektdateien geschieht in dem in Rede stehenden Menüpunkt. Hier werden prinzipielle Entscheidungen für die Bearbeitung eines Projektes und dem damit verbundenen Datenfluß getroffen.

Datenaufbereitung

Hier ist das numerische Editieren und Betrachten von Stützpunkt-, Gradienten und Gridfiles vorgesehen. Außerdem sind Konvertierungen durch mathematische Operationen und zwischen verschiedenen Datenformaten implementiert. Im weiteren wird zur Verkürzung der Begriff Merkmalswert benutzt. Ein Merkmalswert kann ein Stützpunkt oder Gradient des zu untersuchenden (interessierenden, schätzenden) Naturmerkmals (z. B. Schichtgrenze) sein. In SAFARI wird sich bei der Eingabe auf die Datentypen Merkmalswerte in Spaltenform, Griddateien im SURFER-Format [Surfer 1991] und Grenzpolygone im Spaltenformat beschränkt. Aufgeschlüsselt umfaßt die Datenaufbereitung folgende Funktionen:

Deskriptive Statistik

Mit dem Modul deskriptive Statistik werden einige gebräuchliche, doch gleichwohl sehr nützliche und informative Berechnungen statistischer Maßzahlen und Darstellungsarten geliefert [ISAAKS . SRIVASTAVA 1989]. Die meisten dieser Routinen sind in der sehr mächtigen Makrosprache des Systems IDL (siehe Abschnitt 3 und [IDL 1995]) geschrieben. Somit sind, für wichtig erachtete, weitere Kriterien mit sehr geringem Aufwand implementierbar, da diese Sprache viele komplexe Funktionen schon mit einem einzigen Aufruf bereitstellt. Bisher ist folgendes in die Oberfläche integriert:

Simulation

Bei der geostatistischen Simulation, werden Werte für ein ortsabhängiges Merkmal generiert. Simulierte Werte unterscheiden sich von den Schätzwerten geostatistischer Vorhersageverfahren dadurch, daß sie die Rauhigkeit (Variabilität) des betrachteten Merkmals widerspiegeln.

Bei dem von TONN implementierten Verfahren handelt es sich um die sequentielle GAUSS'sche Simulation, einem Verfahren zur Durchführung bedingter und nichtbedingter Simulationen. Es können also auch reale Werte als Stützwerte benutzt werden. Die Simulation von Werten erfolgt unter Berücksichtigung der Nachbarschaftsbeziehungen zu bisher simulierten Punkten und Stützwerten. Die Formulierung der Nachbarschaftsbeeinflussung zwischen simulierten Werten und Stützwerten erfolgt durch die Angabe von Autokovarianzfunktionen, wobei neben dem isotropen Fall auch einfache geometrische Anisotropien berücksichtigt werden. Sind die Stützwerte trendbehaftet, so ist eine Beschreibung des Trends durch ein Polynom dritten Grades möglich. Routinen zur Trendschätzung und Optimierung des Trendpolynoms sind ebenfalls implementiert.

Zur Durchführung geostatistischer Simulationen werden die Stützwerte programmintern in eine Normalverteilung überführt. Die Reihenfolge der Simulation von Werten wird zufallsgesteuert festgelegt. Zur Beschleunigung des Rechenablaufs enthält die Software einige Optimierungen; z. B. wird der Suchbereich für Stützwerte und bereits simulierte Werte mit zunehmender Punktdichte verringert, so daß sich - ,,stochastisch`` gesehen - stets gerade noch eine Mindestanzahl bereits simulierter Werte im Suchbereich befindet. Nach erfolgter Simulation werden die generierten Werte in Ihre ursprüngliche Verteilung zurücktransformiert. Die Simulation kann ein- oder zweidimensional erfolgen und bietet zusammenfassend die folgenden Möglichkeiten:

Die von TONN entwickelte Simulationssoftware umfaßt außerdem Module zur Berechnung und Visualisierung statistischer Angaben sowie zur 3D-Visualisierung simulierter Werte. Diese Software ist jedoch noch nicht in der Oberfläche integriert, aber sie ist ausführlich dokumentiert und kann im Internet über die WWW-Adresse http://zappa.mabb.tu-freiberg.de/tonn/sgs.html bezogen werden. Zum Algorithmus und zur Software sei [DEUTSCH . JOURNEL 1992] und [TONN 1995] als Literatur empfohlen.

 

Schätzung von Parametern des Kovarianzmodells

Für eine erfolgreiche geostatistische Vorhersage ist die Bestimmung der Modellparameter der Kovarianzfunktion von entscheidender Bedeutung. Üblicherweise werden empirische Variogramme berechnet, deren Verlauf durch eine über Parameter anzupassende Funktion approximiert wird. SAFARI benutzt die äquivalenten Kovarianzfunktionen, da bei ihnen der mitunter unsymmetrische Verlauf der Kreuzkovarianzen als Information erhalten bleibt. Die Kovarianzen können in bis zu acht Richtungen bestimmt werden. Die Werte haben dadurch eine sternförmige Anordnung, aus der im Anschluß zur Darstellung der zweidimensionalen empirischen Kovarianzfunktion auf ein regelmäßiges Gitter interpoliert wird. Um die Interpolation zu umgehen, bietet SAFARI auch die Variante, ein Gitter über das Untersuchungsgebiet zu verschieben, und für jede Gittermasche die mittlere Kovarianz zu berechnen. Diese Methode erlaubt zudem bei regelmäßiger Punktanordnung Einsparung von Rechenzeit.

Die Modelle, mit denen in der Simulation und der Vorhersage gearbeitet werden kann, sind geschachtelte Strukturen, deren allgemeiner Ansatz für den zweidimensionalen Fall wie folgt lautet:

σ(x,y)={{ σ2gesamtfürx2+y2=0 σ2gesamt-σ2nugget(v1f1(x,y,α,ν)g1(x,y,β) + v2f2(x,y,α,ν)g2(x,y,β) + v3f3(x,y,α,ν)g3(x,y,β) + v4f4(x,y,α,ν)g4(x,y,β))fürx2+y2=0 }

Die Funktionen fi(x,y,α,ν) können lineare, exponentielle, GAUSS'sche, sphärische, HIRVONEN-, verallgemeinerte exponentielle, verallgemeinerte HIRVONEN-Modelle oder die Konstante Eins sein. Der Parameter α ist das Maß für die Abnahme der Nachbarschaftsbeeinflussung und ν ein Exponent bei den verallgemeinerten Modellen [TTIG 1997]. Mit den Funktionen gi(x,y,β) lassen sich den obengenannten Modellen Schwingungen aufprägen, deren Wellenlänge λ über den Parameter β=2π/λ eingeht. Die vi sind Verhältniszahlen, deren Summe Eins ergeben muß. Es ist also die Spezifizierung von einfachen bis hin zu komplizierten Modellen, die jedoch sicher nur von akademischen Interesse sind, möglich. Die Anpassung der Modelle erfolgt grafisch-interaktiv; bei den einfachen ist sie auch automatisch durchführbar.

SAFARI bietet neben der Berechnung der empirischen Kovarianzfunktion eine alternative bzw. eine ergänzende Methode zur Bestimmung der Modellparameter. Bei der von MENZ entwickelten Methode werden durch schrittweises sinnvolles Verändern der Modellparameter eine theoretische und eine empirische Fehlerkurve angenähert. Der Vorteil dieses Vorgehens liegt in seinem robusten Verhaltens gegenüber Trends und daß es auch bei kleinen Stichproben noch zufriedenstellende Resultate liefert. Ausführliche Erklärungen und Untersuchungen dazu findet der Leser in diesem Heft mit dem Beitrag von HILLMANN.

Zur Verifizierung des Modells gibt es die Möglichkeit der Crossvalidation, wobei hier ausdrücklich darauf hingewiesen wird, daß die Ergebnisse dieser Methode in jedem Fall einer kritischen Auseinandersetung bedürfen und keinesfalls oberstes Entscheidungskriterium sein sollten [DAVIS 1987].

Wie schon im vorangegangenen Abschnitt zur Simulation angedeutet, sind Schätzungen des Trends sowie dessen Abspaltung bzw. Addition für bestimmte Untersuchungen und Berechnungen notwendig. Im Programm sind diese drei Operationen mit linearem, quadratischen und kubischen Ansatz sowohl für Merkmalswert- als auch für Griddateien vorgesehen. Die Visualisierung des Trends mit seinen konkreten Parametern erfolgt sofort.

 

Vorhersage

Im Vorhersagemodul stehen dem Nutzer verschiedene Interpolationsmethoden zur Verfügung:

  1. traditionelles Kriging,
  2. BAYES'sches Kriging,
  3. Kollokation,
  4. arithmetisches und gewichtetes Mittel,
  5. Tiefpaßfilter sowie
  6. Multiquadratik.
Unter traditionellen Kriging wird hier die Lösung nach dem bekannten Krigingansatz mit seinen Erweiterungen verstanden. Dazu zählen das gewöhnliche Kriging, das Co-Kriging und das universelle Kriging. Das Ergebnis sind Dateien, in denen verzeichnet sind.

In [MENZ . PILZ 1994] wird gezeigt, daß die Ansätze des Krigings und der Kollokation identische Ergebnisse liefern. Aus der Ableitung der Kollokation ergeben sich jedoch die Angaben zum Signal- und Trendanteil im Gegensatz zum Kriging separat. Die Kollokation geht aber mit einem erhöhten Rechenaufwand einher. Das Ergebnis der Kollokation sind Dateien, in denen folgende Werte stehen:

Einen erweiterten Rahmen, in den sich die erwähnten Verfahren einordnen lassen, bietet der BAYES'sche Zugang. ,,Das Ziel besteht darin, a-priori-Kenntnisse objektiver Art (historische Daten, zusätzliche Daten, physikalische bzw. technologische Restriktionen) bzw. subjektiver Art (Expertenwissen, a-priori-Schätzungen etc.) zur Vorhersage heranzuziehen und mit den aktuell verfügbaren Daten Z zu kombinieren``[PILZ 1992]. Die a-priori-Kenntnisse fließen über Trendparameter und deren Genauigkeit in die Schätzung ein. Die Vorkenntnisse können sehr verschiedenartig sein. Deshalb wird der Schätzwert vor allem in Interesse der Erweiterbarkeit in zwei voneinander unabhängigen Stufen berechnet. Zuerst werden an jedem Schätzpunkt die Trendparameter sowie die zugehörige Kovarianzstruktur aus den Vorkenntnissen bestimmt und in einer temporären Datei abgelegt. Im zweiten Schritt werden die Strukturen (Kovarianzmatrix, Designmatrix) für die aktuellen Daten aufgebaut und mit den vorigen verknüpft. Da sich die Algorithmen im zweiten Teil nicht ändern, braucht mit jeder Erweiterung der Software nur der erste Teil ausgetauscht werden. Die Trendparameter können sogar aus anderen Programmen stammen, wenn das Format der temporären Datei eingehalten wird. Sollten an einem Schätzpunkt keine a-priori-Kenntnisse vorliegen, wird automatisch auf die Kollokation aus den aktuellen Daten umgeschaltet. Derzeit sind die im Anschluß aufgezählten Varianten, die Trendparameter zu bestimmen, realisiert:

Die Ergebnisdatei hat den gleichen Inhalt wie bei der Kollokation. Aber durch die Berücksichtigung von Vorkenntnissen verbessert sich die theoretische Schätzvarianz. Aus der Differenz zwischen Varianz und der Summe aus Trend- und Signalanteil der Varianz läßt sich die BAYES-Verbesserung der Schätzvarianz berechnen.

Jede der anfangs aufgezählten Methoden ist ähnlich aufgebaut, und bei jeder sind zahlreiche Spezifikationen möglich. In diesem Abschnitt wird deshalb versucht, eine kurze systematische Übersicht zu geben. Der entscheidende Unterschied zu anderer Software ist die Möglichkeit, bei den Methoden A) bis C) neben den Stützpunkten (absolute Meßwerte) auch Gradienten (relative Meßwerte) zu berücksichtigen. Außerdem können bei ihnen auch kreuzkorrelierte Stützpunkte und Gradienten von mehreren Merkmalen einbezogen werden. Da alle Programme ihren benötigten Hauptspeicher dynamisch allozieren, begrenzt nur die jeweilige zur Verfügung stehende Hardwarekonfiguration die Anzahl der einzubeziehenden Merkmale, den Umfang der Ausgangsdaten bzw. die Größe der zu lösenden Gleichungssysteme. Aus Definitionsgründen ist derzeit die Anzahl für Stützpunkt- und Gradientendateien auf jeweils fünfzig begrenzt worden. Ein weiteres Spezifikum wird dadurch gewährt, daß jedem Stützpunkt und jedem Gradient eine eigene Streuung zugeordnet werden kann. Damit sind Wichtungen, z. B. infolge unterschiedlicher Meßgenauigkeiten, während der Schätzung möglich. Oftmals gewinnt man Erkenntnisse aus der Ansicht der aufgebauten Matrizen, deshalb wurde eine Option vorgesehen, die diese Matrizen in den Algorithmen als farbiges Rasterbild visualisieren läßt. Die Visualisierung erlaubt darüber hinaus Interaktionen, wie das Streichen von Zeilen und Spalten, Ein- und Ausblenden der Zahlenwerte oder das Ändern der Farbskala bzw. der angezeigten Stellen. Die Spezifizierung der Kovarianzfunktion der einzelnen Merkmale und die Kreuzkovarianzfunktionen zwischen ihnen folgt dem im vorigen Abschnitt dargelegten Schema. Es können isotrope und anisotrope Modelle verarbeitet werden, wobei auch beim Co- selbst diese nebeneinander spezifizierbar sind. Die Anisotropien werden wie bekannt über eine Ellipse bzw. ein Rotationsellipsoid berechnet. Sollte geometrische Anisotropie vorliegen, wird dieser Fall durch eine Koordinatentransformation auf den isotropen Fall zurückgeführt, um Rechenzeit zu sparen.

Die Schätzung kann für alle Methoden

durchgeführt werden.

Die anfangs aufgeführten Vorhersagemethoden können in unterschiedlichem Kontext aufgerufen werden. Dabei zeigt sich, daß es sich jeweils nur um den ein- oder mehrmaligen Aufruf der Vorhersage an einem bestimmten Ort handelt. Deshalb verzweigt sich jede Methode nach unterschiedlichen Vorhersageorten:

  1. regelmäßiges Gitter (Punkt, Gerade, 2D- und 3D-Netz),
  2. unregelmäßige Punktanordnung,
  3. Crossvalidation,
  4. Modellanpassung nach MENZ,
  5. Differentiation am Meßwert und
  6. Differentiation im Gitter.
Der Unterschied zwischen b) und c) liegt im Weglassen der Schätzstelle selbst bei der Crossvalidation sowie in der Ausgabe des Residuums in der Ergebnisdatei. Der Aufruf erfolgt im Modul Parameterschätzung. Das gleiche gilt für die schon erwähnte Modellanpassung nach MENZ. Zu ihr sei noch hinzugefügt, daß die empirischen Fehler nicht nur durch die Krigingschätzung ermittelt werden müssen; sondern daß, wenn ein Kovarianzmodell spezifiziert worden ist, auch die multiquadratische Methode und der Mittelwert dazu verwendet werden können. Mit der Vorgabe eines Kovarianzmodells ergibt sich auch, daß sich durch die Benutzung einer allgemeineren Formel zur Varianzberechnung bei Bedarf auch für Mittelwert bzw. für die Multiquadratik eine Schätzvarianz angeben läßt. Bei der numerischen Differentiation eines Merkmals werden Hilfspunkte zur Berechnung der jeweiligen Differenzenquotienten durch eine der Interpolationsmethoden bestimmt. Der Abstand der Hilfspunkte ist frei wählbar. Es können die ersten und zweiten sowie die gemischt partiellen Ableitungen berechnet werden. Die Differentiation am Meßwert entspricht im Grunde der unregelmäßigen Punktanordnung und f) ist das Äquivalent zu a).

Bei allen Kombinationen aus A) bis F) und a) bis f) wird eine einheitliche Suchstrategie zur Auswahl der Punkte bzw. Gradienten an der jeweils aktuellen Schätzstelle angewendet, die durch folgende Merkmale gekennzeichnet ist:

Mit den Punkten Suchradius innen/außen lassen sich Suchringe festlegen. In Gebieten mit unregelmäßig verteilten Stützstellen wird es sogenannte ,,Datenlöcher`` geben. Um dort ebenfalls Schätzungen zu erhalten, obwohl an den dortigen Schätzstellen keine Stützpunkte gefunden wurden, kann ein erweiterter Suchradius festgelegt werden. Dieser wird immer dann benutzt, wenn mit dem normalen Suchradius eine Mindestanzahl von Stützstellen unterschritten wird. Es kann nach den am nächsten zur Schätzstelle gelegenen Stützstellen ohne Richtungspriorität oder nach den nächsten in gewissen Sektoren gesucht werden. Mit der Option gemischte Priorität werden diese zwei Arten zweistufig verknüpft. Zuerst wird ohne Richtungspriorität nach der maximalen Anzahl nächster Punkte gesucht. Danach wird getestet, ob mit diesen Punkten die Sektoren mit ihrer Mindestanzahl besetzt sind. Ist das nicht der Fall, werden die Unterbesetzten aufgefüllt, wobei zu diesem Zweck ebenfalls ein erweiterter Suchbereich festgelegt sein kann. Zu nah beieinander liegende Punkte können das Gleichungssystem numerisch singulär machen. Um dies zu verhindern, kann man solche Punktpaare zusammenfassen, indem die Koordinaten und die Merkmalswerte gemittelt werden. Derzeit sind zwei Algorithmen programmiert. Beim ersten werden alle Stützstellen, die unterhalb einer festen Schranke liegen, gemittelt. Dies geschieht einmal vor der eigentlichen Schätzung mit dem gesamten Datensatz. Ein zweite Möglichkeit ist das Zusammenfassen von Stützstellen unterhalb einer Schranke, die mit dem Abstand zur aktuellen Schätzstelle variiert. Dieser Algorithmus wird an jeder Schätzstelle durchgeführt und ist dementsprechend zeitaufwendig. Die Suchstrategie kann in SAFARI für jedes Merkmal, ob Stützpunkt- oder Gradientendatensatz, spezifiziert werden. Die Suchstrategie kann noch um eine weitere Vorgabe modifiziert werden. Wenn spezifische Streuungen existieren, dann kann man festlegen, daß eine Stützstelle mit einer Streuung unter einem bestimmten Schwellwert (oder gleich Null) unabhängig von ihrer Entfernung zur Vorhersage herangezogen wird. Voraussetzung ist natürlich, daß sie sich im Suchbereich befindet.

Bei der Berücksichtigung von Gradienten ergeben sich einige Probleme. Gradienten sind Vektoren in Richtung der maximalen Änderung eines Skalarfeldes und vom Betrage des maximalen Anstiegs. Das Verfahren verlangt solche Größen. In der praktischen Arbeit werden die Änderungen jedoch oft nur in bestimmte Richtungen gemessen (z. B. beim Messen in Profilen). Einen Ausweg bietet die Software durch die Drehung des Koordinatensystems, wobei der Drehwinkel vorgegeben oder aus den Daten selbst berechnet werden kann. Es sind die einmalige Drehung des Datensatzes oder wiederholend an jeder Schätzstelle vorgesehen. Ein weiteres Problem ist die Diskrepanz zwischen der Notwendigkeit eines differenzierbaren Modells und der Verwendung von Modellen mit Nuggeteffekt infolge von Mikrovariabilität. Um dennoch diese Einflüsse berücksichtigen zu können, werden die Gradienten auf Flächenelemente bezogen. Die Größe der Flächenelemente muß in einer Datei angegeben sein. Mit diesen wird intern die Auswirkung als Nuggetfaktor in der Autokovarianzfunktion der Gradienten berechnet. Der Nuggeteffekt infolge der Meßfehler bei Gradienten kann abhängig von der Größe des Anstieges oder davon unabhängig festgelegt werden. Wie bei Stützpunkten auch sind spezifische Genauigkeitsangaben für jeden Gradienten möglich. Die entsprechenden Formeln zu den in diesem Abschnitt kurz angerissenen Problemen findet man in [TTIG 1997].

Volumen- und Massenberechnung

Die Volumen- und Massenberechnungen beruhen auf regelmäßigen Gittern, wie sie beispielsweise im Vorhersagemodul erzeugt werden. Das zu verarbeitende Format ist das Gridformat des SURFERs. Man geht von der Vorstellung aus, daß sich jede topografische Fläche mit solchen Grids erfassen läßt. Als topografische Fläche werden Böschungen, die Geländeoberfläche, Schichtgrenzen oder auch gedachte Ebenen angesehen. Körper lassen sich durch eine obere und untere Begrenzung (jeweils Grids) sowie mit einem Polygon, das den Verlauf der seitlichen, senkrechten Begrenzung festlegt, definieren. Zur Volumenbestimmung dieses Körpers wird die mittlere Mächtigkeit der innerhalb des Polygons liegenden Gridpunkte mit dem Flächeninhalt desselben multipliziert. Die Genauigkeit des ermittelten Volumenwertes hängt von der Maschenweite des Grids ab. Man kann im Programm eine Genauigkeitsschranke, die unterschritten werden soll, vorgeben. Die Genauigkeitsschranke ergibt sich aus der Differenz zwischen den Volumina mit einer großen und einer nachfolgend um die Hälfte kleineren Maschenweite. Zur Netzverdichtung wird die bilineare Interpolation benutzt. Voraussetzung dafür ist allerdings, daß die Maschenweite in der geostatistischen Vorhersage so dicht gewählt wurde, daß eine lineare Interpolation ohne Informationsverlust möglich ist.

Jeder komplexe Körper läßt sich aus solchen elementaren Körpern zusammensetzen. Die Volumenberechnung ist dann nur noch eine Frage der Organisation des Rechenablaufs. In der Oberfläche werden jedem für das Gebiet relevanten Grid Begrenzungspolygone zugeordnet. Sie müssen dort als ein- oder ausschließend gekennzeichnet werden. Die Grenzpolygone lassen sich leicht aus Grundrissen entnehmen. Den Teilkörpern werden positive und negative Vorzeichen zugeordnet. Nachdem in der Oberfläche ein Gesamtkörper entsprechend den Vorgaben definiert wurde, läuft nach der Aktivierung die Berechnung automatisch ab.

In einem internen Bericht ist in einem Beispiel ausführlich gezeigt, welcher Systematik man folgen sollte. Mit dem Beispiel wird klar, daß es sich um ein einfaches und effektives Verfahren handelt. Bereits getestet wurden Genauigkeitsanalysen zu diesem Verfahren. Sie sind jedoch noch nicht über die Oberfläche verfügbar.

Zur Massenberechnung kann jeder Körper mit einer Dichte multipliziert werden. Ist die Dichte ortsabhängig, so kann die Berechnung mit einem Dichtegrid erfolgen. Außerdem lassen sich cut-off-Werte festlegen. Stellen, an denen diese Werte über- oder unterschritten werden, gehen nicht in die Berechnung ein.

Visualisierung

Neben den grafischen Ausgaben bei der Datenaufbereitung, der Trendberechnung, der Modellanpassung nach MENZ und der Matrixdarstellung in den Vorhersagen stellt SAFARI eine eigenständige Visualisierung der Eingangs- und Ergebnisdaten bereit. Sie ist fast ausschließlich mit den Möglichkeiten, die IDL bietet, realisiert worden. Da die Forschung nicht die Visualisierung von Daten zum Gegenstand hatte, ist die Leistungsfähigkeit dieses Moduls natürlich nicht mit der von kommerziellen Systemen zu vergleichen. Da aber IDL die Grundlage bildet, sind Verbesserungen bzw. die Integration von ausgereifteren Lösungen, sofern sie in IDL implementiert sind, unabhängig von der hier vorgestellten Lösung möglich.

In dem Modul werden Griddateien im SURFER-Format visualisiert. Wahlweise können die zur Vorhersage benutzten Stützpunkte und Gradienten eingeblendet werden. Die zweidimensionale Darstellung läßt folgende Präsentationsarten zu:

Die dreidimensionale Darstellung erlaubt die Betrachtung aus beliebigen Sichten und Maßstabänderungen.

Die Software offeriert die Visualisierung eines Profils zwischen zwei beliebigen Punkten innerhalb der Fläche, wobei hier ebenfalls wahlweise in der Nähe der Profillinie liegende Punkte und Gradienten eingeblendet werden können. Eine zweite Möglichkeit die Profillinie festzulegen, besteht darin, einen Gradienten als Trägergerade zu benutzen.

Zur Unterstützung der Lesbarkeit wird eine Zoom-Funktion unterstützt. Der durch den Cursor begrenzte Bereich wird jeweils in das volle zur Verfügung stehende Fenster vergrößert. Außerdem lassen sich verschiedene Farbtafeln auswählen sowie Darstellungen löschen und neuzeichnen. Es wird eine einfache Druckerausgabe angeboten.

Wie in dem Abschnitt Datenaufbereitung vermerkt, existiert im Visualisierungsmodul eine Dateneditierfunktion. Sie benutzt alle soeben aufgezählten Fähigkeiten, um Stützpunkte und Gradienten an bestimmten Stellen zu verändern. Die Objekte können mit dem Cursor angesprochen werden. Zum Editieren zählt:

Diese Funktion dient vor allem dazu, sich die Wirkungsweise der Verfahren verdeutlichen zu können.

 

Schnittstellen

An dem Projekt waren verschiedene Mitarbeiter beteiligt, die weitesgehend in sich abgeschlossene Aufgabengebiete bearbeitet hatten. Das Resultat der Arbeiten waren ebenfalls autark laufende Programme. Ziel der angestrebten einheitlichen grafischen Nutzeroberfläche war es, diese Programme in ein modular aufgebautes Gesamtsystem zu überführen. Da die Entwicklung unter verschiedenen Betriebssystemen erfolgte, wurde zur Gewährleistung der Portabilität durchgängig die Programmiersprache C im ANSI-Standard oder die IDL-Makrosprache benutzt. Diese einzelnen Programme sind umfangreichen Tests unterworfen worden und arbeiten inzwischen weitgehend robust. Für die Gestaltung der Oberfläche kam nur eine Software in Frage, die dem Entwickler eine komfortable Schnittstelle zu den Grafikbibliotheken bereitstellt. Da IDL neben der Unterstützung zum schnellen Erstellen von grafischen Oberflächen auch umfangreiche Visualisierungs- und Berechnungsfunktionen anbietet, wurde sich für diese Software entschieden. Da in einer Makrosprache programmiert wird, sollten die erstellten Programme auf jeder Plattform, auf die IDL portiert wurde, mit dem jeweiligen plattformspezifischen Aussehen und Verhalten lauffähig sein.

Durch die Trennung von Oberfläche und eigentlichen Berechnungsprogrammen wurde sich für den Informationsaustausch zwischen den Modulen sowie zwischen Modulen und Oberfläche auf Dateien geeinigt. Das Format dieser Dateien liegt offen. Für jedes Projekt wird eine Hauptprojektdatei sowie zu jedem Hauptmodul eine modulspezifische Projektdatei angelegt. Die gesamte Kommunikation und Steuerung erfolgt über die Oberfläche. Dort werden die Spezifika der jeweiligen Aufgabe festgelegt. Außerdem erfolgen ebenda die Prüfungen zur Zuverlässigkeit der Menüauswahl und der im Dialog eingegebenen Werte sowie des Aufbaus der Eingangsdateien. Von der Oberfläche werden die entsprechenden C- oder IDL-Programme mit der Hauptprojektdatei als Aufrufparameter im Hintergrund aufgerufen. Mit gewissen Restriktionen, die der Datenkonsistenz geschuldet sind, können währenddessen andere Aufgaben durchgeführt werden. Die Ergebnisse der Berechnungen werden an das Oberflächenmodul übergeben und dieser sorgt für die Ausgabe, gegebenenfalls einschließlich einer Visualisierung. Bei auftretenden Fehlern wird ebenfalls grundsätzlich zur Oberfläche zurückgegangen.

Aus der Arbeit mit Projektdateien ergibt sich, daß die einzelnen Programme auch ohne der Oberfläche benutzt werden können. Da diese Dateien im ASCII-Code erstellt werden, kann man sie auch mit einem beliebigen Editor erzeugen. Es muß lediglich das Dateiformat eingehalten werden. So können die Algorithmen auch in anderer Software verwendet werden, da von dieser nur die Projektdateien erzeugt werden müßten.

Die Schnittstellen der C-Funktionen sind zum großen Teil ebenfalls dokumentiert. Die Dokumentationen liegen gedruckt vor. Außerdem sind sie teilweise als Onlinetext bzw. als Postscriptfile über das Netz verfügbar.

Resümee

Es wurde ein erweitertes geostatistisches Softwarepaket vorgestellt. Die Software ist ab Januar 1998 als Freeware über das Internet zu beziehen. Die Adresse lautet http://zappa.mabb.tu-freiberg.de/agmenz/software/safari.html. Dokumentationen, Forschungsberichte und Dissertationen über die Algorithmen und zu den dazugehörigen Untersuchungen werden dort ebenfalls publiziert. Die Autoren wollen die Software im Rahmen ihrer Möglichkeiten weiterhin betreuen und verbessern. Sie sind daher über jede Anregung und Zusammenarbeit erfreut. Das Zusammenspiel von Oberfläche und Berechnungsalgorithmen konnte leider bis zum jetzigen Zeitpunkt noch nicht ausreichend getestet werden. Gefundene Fehler sollten deshalb sofort per Email angezeigt werden, um sie so schnell wie möglich auszumerzen und andere Nutzer davon zu informieren.

Literatur

DAVIS 1987
DAVIS, BRUCE M. (1987). Uses and Abuses of Cross-Validation in Geostatistics. Mathematical Geology, 19(3):241-248.

DEUTSCH . JOURNEL 1992
DEUTSCH, CLAYTON V. . A. G. JOURNEL (1992). GSLIB - Geostatistical Software Libary and User's Guide. Oxford University Press, New York, Oxford.

Geo-Eas 1993
GEO-EAS (1993). Geo-Eas Documentation. Department of Mathematics, University of Arizona, Tucson, Arizona 85721. UNIX-Dokumentation als Postscriptfile.

IDL 1995
IDL (1995). IDL Reference Guide. Research Systems, Inc., 2995 Wilderness Place, Suite 205, Boulder CO 80301.

ISAAKS . SRIVASTAVA 1989
ISAAKS, EDWARD H. . R. M. SRIVASTAVA (1989). Applied Geostatistics. Oxford University Press, New York, Oxford.

MENZ . PILZ 1994
MENZ, JOACHIM . J. PILZ (1994). Kollokation, Universelles Kriging und BAYES'scher Zugang. Das Markscheidewesen, 101(2):62-66.

PILZ 1992
PILZ, JüRGEN (1992). Zur Verwendung von a-priori-Kenntnissen in geostatistischen Modellen. Beiträge zur Mathematischen Geologie und Geoinformatik, 3:2-11. Anwendung geostatistischer Verfahren.

TTIG 1997
TTIG, ANDREE (1997). Gradientenkriging - eine integrierende geostatistische Methode zur einheitlichen Auswertung von absoluten und relativen Meßdaten. ., TU Bergakademie Freiberg.

Surfer 1991
SURFER (1991). SURFER Version 4, Reference Manual. Golden Software, Inc.

TONN 1995
TONN, FRIEDER (1995). Anwendung der geostatistischen Simulation zur computergestützten Generierung praxisnaher Erkundungsdaten. ., TU Bergakademie Freiberg.
...GS-LIB
Sammlung von Geostatistik- und Numerikprogrammen, die mit Parameterfiles gesteuert werden; bedienerunfreundlich; auf MS-DOS und allen UNIX Plattformen leicht compilierbar (FORTRAN-Quellen); in der Lage, sehr große Datenmengen zu verarbeiten; sehr gut durch ein Buch von DEUTSCH/JOURNEL beschrieben [DEUTSCH . JOURNEL 1992]
...size=-1>AS
 Geostatistikprogramm unter MS-DOS und UNIX (dreidimensionale Vorhersagen), das Dateiformat ist in [Geo-Eas 1993] beschrieben
 


Andree Roettig
Mon Aug 24 14:52:29 CLT 1998