• Guido Nockemanns ist Archäologe, Sammlungsleiter, Museumsmensch und obwohl vor 1980 geboren irgendwie doch ein "Digital Native".
    Sein Forschungsinteresse gilt neben dem Neolithikum und der Museums- und Sammlungsarbeit auch den Einsatzmöglichkeiten der IT sowie den Nutzungsmöglichkeiten des Web 2.0 und von Social Media in der archäologischen Forschung als auch im Museumsbereich.

  • Netzwerke

  • Tweets

    Fehler: Twitter hat nicht geantwortet. Bitte warte einige Minuten und aktualisiere dann diese Seite.

Beiträge der CAA Proceedings online

Die Proceedings der CAA (Computer Applications in Archaeology) sind bzw. werden online gestellt.

Bisher sind 627 Beiträge aus den Jahrgänge 1973 bis 1998 als PDF online, die folgenden sollen im Laufe des Jahres folgen.

CAA-Workshop am 15.-16. Februar in Berlin

Der vierte CAA-Workshop der AG Computeranwendungen und Quantitative Methoden in der Archäologie (AG CAA) findet diesmal am 15. und 16. Februar im Excellenz-Cluster TOPOI der Freien Universität Berlin statt-

Im Rahmen des Workshops haben Wissenschaftler der verschiedenen archäologischen Disziplinen die Möglichkeit, die in ihren Projekten verwendeten quantitativen Methoden und computerbasierten Problemlösungen vorzustellen. Außerdem finden am Samstagnachmittag im Anschluss an die Tagung im Computerpool von TOPOI noch zwei Softwaretutorials statt. Angeboten werden Tutorials zu den Themen „Structure from Motion (SFM)“ und „LiDAR-Toolbox“.

Themen des Workshops sind unter anderem das Forschungsdatenzentrum IANUS, Structure from Motion und Laserscanning in der Grabungspraxis, die Rekonstruktion des Zeustempels von Olympia, die automatische Vektorzeichnung von Keilschrifttafeln aus 3D-Messdaten, ein mobiles GIS zur Dokumentation einer archäologischen Oberflächenbegehung, die freie GIS-Software gvSIG, die Evaluation einer GIS-basierter Methodik zur Rekonstruktion altneolithischer Besiedlungsstrukturen und die vollphotogrammetrische 3D-Entzerrung historischer Luftbilder.

Das Programm des Workshops ist bereits online. Infos zum Workshop finden sie hier.

Zur Teilnahme sind besonders Studierende und Doktoranden aufgefordert.

Gemeinsame Herbsttagung der AG DANK und der AG CAA

Am 5. und 6. Oktober 2012 fand in den Räumen des LVR-Amts für Bodendenkmalpflege im Rheinland die gemeinsame Herbsttagung der AG DANK (AG Datenanalyse und Numerische Klassifikation ) und der AG CAA (AG Computeranwendungen und Quantitative Methoden in der Archäologie) statt. Einige Beiträge der AG DANK sind bereits für einen Web-Veröffentlichung freigegeben worden.

Die Schwerpunkte der Tagung waren Datenanalysen und Klassifikationsmethoden in der Archäologie. Beide AGs weisen Überschneidungen in ihren Tätigkeitsfeldern auf, wie z.B.:

  • die Erstellung einer Klassifikation von Objekten mit ‚homogenen‘ Objektclustern oder Typen (Typologien)
  • die automatische Zuordnung von Objekten zu Klassen aufgrund erhobener Merkmale und Eigenschaften
  • die grafische Repräsentation von Daten, Ähnlichkeitsbeziehungen und Relationen zwischen Objekten (z.B. Funden, Befunden) in Form von Punktediagrammen, Liniendiagrammen, Abhängigkeitsnetzen, Hierarchien etc.
  • die quantitative Analyse zeitlicher und räumlicher Vorgänge, auch im Rahmen von geographischen Informationssystemen (GIS)
  • die Auswertung unscharfer oder vager Informationen (z.B. ungenauer Datierungen)
  • Kausal- und Zusammenhangsanalyse
  • die Realisierung von Klassifikations- und Datenanalyse-Methoden mittels geeigneter Software.

(Quelle: Tagungsankündigung auf der Homepage der AG CAA)

Freitag, 5. Oktober

Den Vorsitz des ersten Tages hatte Frau Irmela Herzog. Prof. Dr. Jürgen Kunow, Leiter des LVR-Amts für Bodendenkmalpflege, begrüßte die Tagungsteilnehmer und stellte kurz die Aufgabenbereiche des Amts vor.  Frau Herzog stellte die AG CAA und Herr Hennig die AG DANK vor. Direkt im Anschluss begann der erste Vortrag.

Nakoinz, Oliver – Die Rekonstruktion kultureller Räume mittels Clusteranalyse

Anhand der Fürstensitze der älteren Eisenzeit demonstrierte Hr. Nakoinz die Anwendung der Cluster-Analyse, wobei er die Frage nach der Größe der Territorien nicht durch die Verwendung von Leitmotiven, sondern durch sog. „kulturelle Fingerprints“ ermittelte. Diese Fingerprints enthalten die relative Anzahl der versch. Artefakt-Typen. Grundlage ist die Annahme, dass eine archäologischen Kultur einen Cluster  räumlicher Analyseinheiten im Typenspektrum darstellt. so können Cluster von Typenspektren aus geografischen Einheiten erzeugt werden. Fazit des Vortrags: Universelle Methoden gibt es nicht, für jede Aufgabe existieren mehr oder weniger geeignete Methoden. E-Publikation zum Vortrag hier.

Herzog, Irmela – Ansätze zur Rekonstruktion von mittelalterlichen Verkehrsnetzen

Frau Herzog stellte eine neue Methode vor, bei der der „erlebte Raum“ nachvollzogen wird, im allgemeinem handelt es sich um einen least-cost-path Analyse. Grundlage der Auswertung stellt ein mittelalterliches Verkehrsnetz dar. Hierfür wurde eine Kostenmodell erstellt für das Distanzmaße erzeugt, eine für Wagen kritische Hangneigung einbezogen, feuchte Böden vermieden und Furten bevorzugt wurden. anschließend wurden versch. Modelle (Triangulation, kostenbasiertes minimum spanning tree, kostenbasiertes Basin Cluster-Verfahren, radiale Netzwerke)   durchgerechnet und vorgestellt. Fazit des Vortrags: Es gibt versch. Modelle zu kosten-basierten Netzwerkberechnung, aber hier besteht noch großer Forschungsbedarf.

Eckmeier, Eileen – PLS-Regression spektroskopischer Daten zur Analyse archäologischer Bodenrelikte

Basis dieser Analyse sind die Eigenschaften des ehemaligen Oberbodens die in Grubenverfüllungen gefunden werden. Es stellte sich die Frage ob die Farbe des Füllmaterials/Bodens mit dem Alter der Grube korreliert. Hierzu wurde die Spektrophotometrie angewendet und die Daten mit Hilfe der PLS (Partial Least Squares Regression), einem Multivarianten Analyseverfahren ausgewertet. Fazit des Vortrags: Es gibt keinen kausalen Zusammenhang zw. Farbe und organischer Zusammensetzung des Bodens und auch keinen Zusammenhang zw. Kohlenstoff und Farbhelligkeit für versch. Zeitstellungen. Möglicherweise gibt es aber einen Zusammenhang zw.  der Rotfärbung und der chronologischen Stellung des Bodens. hierzu müssen die weiteren Ergebnisse noch ausgewertet werden. E-Publikation zum Vortrag hier.

Hennig, Christian – Zeitliche Unsicherheit und Chronologien von Artefakten

Christian Hennig ging auf die Probleme bei der Datierung von Artefakten ein. Datengrundlage sind die Artefakttypen eines Surveys. Hierbei geht es unter anderem um die  Unsicherheit der Datierung, die man dadurch in den Griff bekommt, dass man z.B. einen Datierungs-Invervalle angibt (z.B. 70% römisch, 30%  hellenistisch). Es wurde eine Gesamtübersicht mit den Perioden als numerischer Ausdruck errechnet, aus der man entnehmen kann wie wahrscheinlich es ist das Typ X in einer bestimmten Periode auftritt. Eines der größten Probleme bei solchen Analysen ist die Sicherheit der Artefaktbestimmung durch einen Wissenschaftler bzw. durch ein ganzen Team. E-Publikation zum Vortrag hier.

Der Freitag wurde durch die Mitgliederversammlung AG DANK abgeschlossen

Samstag, 6. Oktober

Vorsitz: Christian Hennig

Mucha, Hans- Joachim – Visualisierung und Clusteranalyse

Anhand der Daten zu römischen Ziegeln (Spempel und Localität) von Jens Dolata wurden verschiedenen Arten der Visualisierung (hierarchisches und partielles Clustering, multivariante Projektion, Dendrogramme, Mapping findspots) von Daten vorgestellt und analysiert. E-Publikation zum Vortrag hier.

Interessant war auch die anschließende Präsentation der Analyseergebnisse eines Steinartefakt-Datensatzes zu älterpaläolithischen Steinartefakten aus Mitteldeutschland, Mitteleuropa und Europa aus dem Mittel- und Jungpleistozän von Thomas Weber, der im Vorfeld der Tagung zur Verfügung gestellten wurde. Hierbei sollte mit den Daten „gespielt“ und eigene und/oder neue Analyseansätze (z.B. Heteroskedastische Diskriminanzanalyse, Clusteranalyse von POPRDI4Y, Parallelkoordinatenplot, Quick cluster analysis etc.) ausprobiert werden. E-Publikationen der verschiedenen Auswertungen sind hier zu finden.

Nowak, Kathrin – Die Untersuchung mittelneolithischer Silexinventare unter Anwendung einer Faktorenanalyse

Kathrin Nowak ging mittels einer Faktorenanalyse der Aufnahmedaten von mittelneolithischer Silexartefakten der Frage nach, wie sich die Menschen mit Silex versorgt haben. Mit Hilfe der Faktorenanalyse wurden die Daten nach inhaltlichen und nach statistischen Kriterien strukturiert. Zum Einsatz kamen z.b. die Anti-Image-Korrelations-Matrix, das Kaiser-Meyer-Olkin-Kriterium, die Rotation nach Varimax und die Measure of sampling adequacy (MSA).

Röser, Christian – Zur Entwicklung eines deduktiven Klassifikationssystems für hochmittelalterliche bis neuzeitliche Keramik im Rheinland

Thema dieses Vortrags war die Frage, wie man für die Analyse einen sauberen Datensatz zu Funden einer Ausgrabung erstellt. Das Problem besteht im vorliegenden Fall darin, dass ein kein homogenes Klassifikationssysten für verschiedene Zeitstufen (z.B. Mittelalter bis frühe Neuzeit) gibt. Die Publikationen zu diesem Thema stammen größtenteils aus den 80er Jahren des vorangegangenen Jahrhunderts. Die Verfahren der induktiven und der deduktiven Klassifikation weisen, je nach Fragestellung, Vor- und Nachteile auf. Ziel ist die Entwicklung eines deduktiven Klassifikationssystems, da dieses Verfahren für homogene Fundspektren von verschiedenen Fundplätzen besser geeignet scheint. Das Konzept hierzu wurde am Beispiel der Randformen von Keramikgefäßen vorgestellt.

Abschlussdiskussion der Vorträge und der Tagung

Kleine Anekdote zum Schluss: Hans-Joachim Mucha nutze zum Testen von Analyseverfahren durch Microsoft Excel erzeugte Zufallszahlen….und stellte dabei erstaunt fest, dass diese „Zufallszahlen“ gar keine sind und einen feststellbaren System unterliegen.

Erkenntnis des Tages: Der Zufallsgenerator von Excel sollte für ernsthafte Untersuchungen und Testverfahren nicht verwendet werden.

%d Bloggern gefällt das: