Portable XRF-Scanner – ein bisschen Star-Trek-Flair in der Archäologie

Auf den ersten Blick mutet es schon etwas sehr wie Science-Fiction an. Ein Archäologie hockt im Grabungsschnitt und zielt mit einem Gerät, dass aussieht wie die Space-Invader-Pistole seines Sohnes, auf ein Artefakt. Er drückt einen Knopf und „BING“, bekommt ein Ergebnis angezeigt.

Portabler XRF-Scanner im Einsatz  (Screenshot - Quelle: http://www.elleryfrahm.com/marie_curie_courses.html; 4.10.2013)

Portabler XRF-Scanner im Einsatz (Screenshot – Quelle: http://www.elleryfrahm.com/marie_curie_courses.html; 4.10.2013)

Portable XRF-Scanner werden immer beliebter in der Archäologie und auch im Museumsbereich. Ein Grund sich diese Geräte einmal näher anzuschauen. Was bedeutet eigentlich XRF? XRF steht für „X-ray fluorescence“, zu deutsch „Röntgenfluoreszenzanalyse“. Es handelt sich um eine zerstörungsfreie Methoden, mit der die qualitativen und quantitativen elementare Zusammensetzung einer Probe analysiert werden kann. Eine ganze Reihe an Materialen können untersucht werden, wie z.B. Metalle, Keramik, Feuerstein, Glas, Sedimente. Eine Einführung zur Anwendung der XRF-Analyse in der Archäologie gibt es hier.

Somit liegen die Vorteile eines portablen XRF-Scanners auf der Hand. Der portable Einsatz im Feld ermöglicht nun schon während der Grabung neue Erkenntnisse zu gewinnen, die möglicherweise z.B. den Verlauf oder den Schwerpunkt der Grabung beeinflussen können. Zerstörungsfreie Untersuchungsmethoden sind uns Archäologen immer willkommen, schließlich sind die Artefakte oft Unikate. Andere Vorteile sind die einfache Anwendung (kein Spezialist nötig, nur kurze Einarbeitungszeit) und die geringen Kosten im Vergleich zu anderen Geräten, Laboranalysen etc. Natürlich hat diese Methode auch Schwächen. Die Probe muss größer als 10 mm und dicker als 2 mm sein, anderenfalls sind die Ergebnisse weniger exakt. Bei der portablen Methoden können nur Elemente von Titan (Ti) bis Niob (Nb) analysiert werden (s. Periodensystem). Kleine Mengen von Elementen können nicht charakterisiert werden.

Anwendungsmöglichkeiten bieten sich zum Beispiel bei der Analyse von Keramik und der dazugehörigen geologischen (Ton-)Schichten, wo z.B. Anhand der Informationen zur Magerung die Herstellungsorte unterschieden werden können. Eine deutsche Studie zu Anwendbarkeit der p-XRF-Methode bestätigt die Einsatzmöglichkeiten am Beispiel der Herkunftsbestimmung von römischer Keramik.

Bei der Anwendung des p-XRF-Scanners im Bereich der Feuerstein-Analyse sehe ich noch großes Potential. Die Zusammensetzung von Feuerstein gleicht einem Fingerabdruck, anhand dessen man den Ursprungsort des Rohmaterials eines Artefakts bestimmen kann. Mit dem Handscanner können nun im Feld in sehr kurzer Zeit große Mengen an Informationen gesammelt werden. Die sehr zeitaufwendigen und auch in der Quantität beschränkten Auswertungen im Labor entfallen.

p-XRF-Scanner bei der Aufnahme der geologischen Zusammensetung eines archäologischen Befundes (Screenshot - Quelle: http://blogs.oregonstate.edu/coopersferryarchaeology/2010/07/26/coopers-ferry-in-the-news-and-a-new-feature/ ; 4.10.2013)

p-XRF-Scanner bei der Aufnahme der geologischen Zusammensetzung eines archäologischen Befundes (Screenshot – Quelle: http://blogs.oregonstate.edu/coopersferryarchaeology/2010/07/26/coopers-ferry-in-the-news-and-a-new-feature/ ; 4.10.2013)

Interessant ist auch eine Arbeit zur Anwendung der p-XRF-Methode bei Moorleichen, wo wertvolle Informationen zum konservierten Körper und seiner Umgebung gesammelt werden können, die auch für die Konservierung der Moorleiche wichtig sind.

Im Museumsbereich können p-XRF-Scanner z.B. für den Nachweis von Pestiziden oder anderen Chemikalien verendet werden. Gerade die Konservierungsmethoden zu Beginn des 20. Jahrhundert bereiten heute im wahrsten Sinne des Wortes Kopfschmerzen, wie ich selber schon mit DDT an organischen Objekten  erleben „durfte“. Damals wurden Chemikalien verwendet, die heute immer noch toxisch sind oder nach fast 100 Jahren instabil werden und ihre Giftstoffe freisetzen (Einsatz eines p-XRF-Scanners in diesem Zusammenhang z.B. hier).

Links zu Artikeln und weiteren Informationen:

Hinweis zur Werbung:
Die Anzeigen, die in diesem Blog möglicherweise Sichtbar sind, wurden nicht vom Blogbetreiber geschaltet, sondern von WordPress. Ein werbefreier Blog kann nur durch ein kostenpflichtiges Upgrade des Blogs „Archäologie 2.0“ ermöglicht werden, was aber z.Zt. außerhalb der Möglichkeiten des Blogbetreibers liegt.
 

Zusammenstellung von freien GIS Programmen – Teil 4

Hier der vierte Teil der Zusammenstellung von freien GIS Programmen
(Quelle: Wikimedia - http://en.wikipedia.org/wiki/File:Mapnik-logo.png / GNU General Public License)

(Quelle: Wikimedia – http://en.wikipedia.org/wiki/File:Mapnik-logo.png / GNU General Public License)

Mapnik ist ein Open Source Mapping Toolkit für die desktop- und serverbasierte Kartendarstellung. Unter anderem wird Mapnik auch im OpenStreetMap Projekt eingesetzt. Mapnik unterstützt durch entsprechende Plugins eine Anzahl an verschiedenen Datenformaten, wie z.B. Shapefile, PostGIS, geoTIFF. Z.Zt. werden u.a. Plugins verwendet die OGR  (OGR Simple Features Library) und GDAL (Geospatial Data Abstraction Library) nutzen. Lauffähig ist es unter Mac OS, Windows und Unix-Systemen wie Linus oder Solaris. Außerdem existiert ein Tool (osm2pgsql), dass OpenStreetMap Daten konvertiert um sie in PostgreSQL Anwendungen zu importieren.

(Quelle: Screenshot - http://gvsigce.sourceforge.net/joomla/; 18.2.2013)

(Quelle: Screenshot – http://gvsigce.sourceforge.net/joomla/; 18.2.2013)

gvSIG ist ein sehr umfangreiches freies Desktop-GIS. Die mittlerweile schon drei Jahre alten Version gvSIG OADE (2010) von Oxford Archaeology stellt die Vorgängerversion der erweiterten und offen entwickelten Version gvSIG CE dar. Besonders interessant ist die Integration von Tools bzw. GIS-Programmen wie SAGA, GRASS GIS und Sextante. Insgesamt stehen über 700 Tools zur Geodatenprozessierung und -verwaltung, Gestaltung von Karten und der Vektor- sowie Rasterdatenverarbeitung zur Verfügung. Äußerst praktikabel ist die portable Nutzungsmöglichkeit von gvSIG CE, z.B. auf einem USB-Stick, und seine Lauffähigkeit unter verschiedenen Betriebssystemen wie Mac OS X, Windows und Linux. In der Anwendung ist gvSIG komplexer als andere freie GIS-Systeme, ist aber von seinem Funktionsumfang durchaus mit kommerziellen GIS-Programmen vergleichbar.

Gemeinsame Herbsttagung der AG DANK und der AG CAA

Am 5. und 6. Oktober 2012 fand in den Räumen des LVR-Amts für Bodendenkmalpflege im Rheinland die gemeinsame Herbsttagung der AG DANK (AG Datenanalyse und Numerische Klassifikation ) und der AG CAA (AG Computeranwendungen und Quantitative Methoden in der Archäologie) statt. Einige Beiträge der AG DANK sind bereits für einen Web-Veröffentlichung freigegeben worden.

Die Schwerpunkte der Tagung waren Datenanalysen und Klassifikationsmethoden in der Archäologie. Beide AGs weisen Überschneidungen in ihren Tätigkeitsfeldern auf, wie z.B.:

  • die Erstellung einer Klassifikation von Objekten mit ‚homogenen‘ Objektclustern oder Typen (Typologien)
  • die automatische Zuordnung von Objekten zu Klassen aufgrund erhobener Merkmale und Eigenschaften
  • die grafische Repräsentation von Daten, Ähnlichkeitsbeziehungen und Relationen zwischen Objekten (z.B. Funden, Befunden) in Form von Punktediagrammen, Liniendiagrammen, Abhängigkeitsnetzen, Hierarchien etc.
  • die quantitative Analyse zeitlicher und räumlicher Vorgänge, auch im Rahmen von geographischen Informationssystemen (GIS)
  • die Auswertung unscharfer oder vager Informationen (z.B. ungenauer Datierungen)
  • Kausal- und Zusammenhangsanalyse
  • die Realisierung von Klassifikations- und Datenanalyse-Methoden mittels geeigneter Software.

(Quelle: Tagungsankündigung auf der Homepage der AG CAA)

Freitag, 5. Oktober

Den Vorsitz des ersten Tages hatte Frau Irmela Herzog. Prof. Dr. Jürgen Kunow, Leiter des LVR-Amts für Bodendenkmalpflege, begrüßte die Tagungsteilnehmer und stellte kurz die Aufgabenbereiche des Amts vor.  Frau Herzog stellte die AG CAA und Herr Hennig die AG DANK vor. Direkt im Anschluss begann der erste Vortrag.

Nakoinz, Oliver – Die Rekonstruktion kultureller Räume mittels Clusteranalyse

Anhand der Fürstensitze der älteren Eisenzeit demonstrierte Hr. Nakoinz die Anwendung der Cluster-Analyse, wobei er die Frage nach der Größe der Territorien nicht durch die Verwendung von Leitmotiven, sondern durch sog. „kulturelle Fingerprints“ ermittelte. Diese Fingerprints enthalten die relative Anzahl der versch. Artefakt-Typen. Grundlage ist die Annahme, dass eine archäologischen Kultur einen Cluster  räumlicher Analyseinheiten im Typenspektrum darstellt. so können Cluster von Typenspektren aus geografischen Einheiten erzeugt werden. Fazit des Vortrags: Universelle Methoden gibt es nicht, für jede Aufgabe existieren mehr oder weniger geeignete Methoden. E-Publikation zum Vortrag hier.

Herzog, Irmela – Ansätze zur Rekonstruktion von mittelalterlichen Verkehrsnetzen

Frau Herzog stellte eine neue Methode vor, bei der der „erlebte Raum“ nachvollzogen wird, im allgemeinem handelt es sich um einen least-cost-path Analyse. Grundlage der Auswertung stellt ein mittelalterliches Verkehrsnetz dar. Hierfür wurde eine Kostenmodell erstellt für das Distanzmaße erzeugt, eine für Wagen kritische Hangneigung einbezogen, feuchte Böden vermieden und Furten bevorzugt wurden. anschließend wurden versch. Modelle (Triangulation, kostenbasiertes minimum spanning tree, kostenbasiertes Basin Cluster-Verfahren, radiale Netzwerke)   durchgerechnet und vorgestellt. Fazit des Vortrags: Es gibt versch. Modelle zu kosten-basierten Netzwerkberechnung, aber hier besteht noch großer Forschungsbedarf.

Eckmeier, Eileen – PLS-Regression spektroskopischer Daten zur Analyse archäologischer Bodenrelikte

Basis dieser Analyse sind die Eigenschaften des ehemaligen Oberbodens die in Grubenverfüllungen gefunden werden. Es stellte sich die Frage ob die Farbe des Füllmaterials/Bodens mit dem Alter der Grube korreliert. Hierzu wurde die Spektrophotometrie angewendet und die Daten mit Hilfe der PLS (Partial Least Squares Regression), einem Multivarianten Analyseverfahren ausgewertet. Fazit des Vortrags: Es gibt keinen kausalen Zusammenhang zw. Farbe und organischer Zusammensetzung des Bodens und auch keinen Zusammenhang zw. Kohlenstoff und Farbhelligkeit für versch. Zeitstellungen. Möglicherweise gibt es aber einen Zusammenhang zw.  der Rotfärbung und der chronologischen Stellung des Bodens. hierzu müssen die weiteren Ergebnisse noch ausgewertet werden. E-Publikation zum Vortrag hier.

Hennig, Christian – Zeitliche Unsicherheit und Chronologien von Artefakten

Christian Hennig ging auf die Probleme bei der Datierung von Artefakten ein. Datengrundlage sind die Artefakttypen eines Surveys. Hierbei geht es unter anderem um die  Unsicherheit der Datierung, die man dadurch in den Griff bekommt, dass man z.B. einen Datierungs-Invervalle angibt (z.B. 70% römisch, 30%  hellenistisch). Es wurde eine Gesamtübersicht mit den Perioden als numerischer Ausdruck errechnet, aus der man entnehmen kann wie wahrscheinlich es ist das Typ X in einer bestimmten Periode auftritt. Eines der größten Probleme bei solchen Analysen ist die Sicherheit der Artefaktbestimmung durch einen Wissenschaftler bzw. durch ein ganzen Team. E-Publikation zum Vortrag hier.

Der Freitag wurde durch die Mitgliederversammlung AG DANK abgeschlossen

Samstag, 6. Oktober

Vorsitz: Christian Hennig

Mucha, Hans- Joachim – Visualisierung und Clusteranalyse

Anhand der Daten zu römischen Ziegeln (Spempel und Localität) von Jens Dolata wurden verschiedenen Arten der Visualisierung (hierarchisches und partielles Clustering, multivariante Projektion, Dendrogramme, Mapping findspots) von Daten vorgestellt und analysiert. E-Publikation zum Vortrag hier.

Interessant war auch die anschließende Präsentation der Analyseergebnisse eines Steinartefakt-Datensatzes zu älterpaläolithischen Steinartefakten aus Mitteldeutschland, Mitteleuropa und Europa aus dem Mittel- und Jungpleistozän von Thomas Weber, der im Vorfeld der Tagung zur Verfügung gestellten wurde. Hierbei sollte mit den Daten „gespielt“ und eigene und/oder neue Analyseansätze (z.B. Heteroskedastische Diskriminanzanalyse, Clusteranalyse von POPRDI4Y, Parallelkoordinatenplot, Quick cluster analysis etc.) ausprobiert werden. E-Publikationen der verschiedenen Auswertungen sind hier zu finden.

Nowak, Kathrin – Die Untersuchung mittelneolithischer Silexinventare unter Anwendung einer Faktorenanalyse

Kathrin Nowak ging mittels einer Faktorenanalyse der Aufnahmedaten von mittelneolithischer Silexartefakten der Frage nach, wie sich die Menschen mit Silex versorgt haben. Mit Hilfe der Faktorenanalyse wurden die Daten nach inhaltlichen und nach statistischen Kriterien strukturiert. Zum Einsatz kamen z.b. die Anti-Image-Korrelations-Matrix, das Kaiser-Meyer-Olkin-Kriterium, die Rotation nach Varimax und die Measure of sampling adequacy (MSA).

Röser, Christian – Zur Entwicklung eines deduktiven Klassifikationssystems für hochmittelalterliche bis neuzeitliche Keramik im Rheinland

Thema dieses Vortrags war die Frage, wie man für die Analyse einen sauberen Datensatz zu Funden einer Ausgrabung erstellt. Das Problem besteht im vorliegenden Fall darin, dass ein kein homogenes Klassifikationssysten für verschiedene Zeitstufen (z.B. Mittelalter bis frühe Neuzeit) gibt. Die Publikationen zu diesem Thema stammen größtenteils aus den 80er Jahren des vorangegangenen Jahrhunderts. Die Verfahren der induktiven und der deduktiven Klassifikation weisen, je nach Fragestellung, Vor- und Nachteile auf. Ziel ist die Entwicklung eines deduktiven Klassifikationssystems, da dieses Verfahren für homogene Fundspektren von verschiedenen Fundplätzen besser geeignet scheint. Das Konzept hierzu wurde am Beispiel der Randformen von Keramikgefäßen vorgestellt.

Abschlussdiskussion der Vorträge und der Tagung

Kleine Anekdote zum Schluss: Hans-Joachim Mucha nutze zum Testen von Analyseverfahren durch Microsoft Excel erzeugte Zufallszahlen….und stellte dabei erstaunt fest, dass diese „Zufallszahlen“ gar keine sind und einen feststellbaren System unterliegen.

Erkenntnis des Tages: Der Zufallsgenerator von Excel sollte für ernsthafte Untersuchungen und Testverfahren nicht verwendet werden.

%d Bloggern gefällt das: