Think big about data: Archaeology and the Big Data challenge

  • Gabriele Gattiglia (Autor/in)

Identifier (Artikel)

Identifier (Dateien)

Abstract

Üblicherweise als Hochgeschwindigkeitsdaten (high volume, high velocity und/oder high variety data) bezeichnet, machen es Big Data möglich, dank dem Einsatz von Software, Hardware und Algorithmen historische Prozesse zu studieren, die man anhand kleinerer Datenmengen nicht verstehen kann. Big Data setzt einen neuen archäologischen Ansatz voraus: Die Bereitschaft, Massen von Daten zu nutzen, ungeordnete und heterogene Daten zu übernehmen, und Korrelation statt Kausalität zu akzeptieren. Kann die Unvollständigkeit archäologischer Daten einen solchen Ansatz verhindern? Oder sind archäologische Daten geradezu dafür prädestiniert, eben weil sie ungeordnet und unstrukturiert sind? Normalerweise handelt Archäologie mit großen und komplexen Mengen von Daten, oft fragmentarisch, und oft solchen, die aus verschiedenen Quellen und Disziplinen kommen und die selten im gleichen Format oder in der gleichen Skala vorliegen. Ist Archäologie bereit, mehr mit solchen Methoden zu arbeiten, die auf Daten basieren, und prädiktive und probabilistische Techniken zu akzeptieren? Big Data erklärt nicht, sondern informiert, bietet ein Modell für eine archäologische Interpretation an, ist eine Ressource und ein Werkzeug: Data Mining, Datenvisualisierung, Bildverarbeitung und quantitative Methoden können gemeinsam dazu beitragen, komplexe archäologische Informationen zu verstehen. So verführerisch Big Data auch sein mag, man sollte die Probleme nicht leugnen: Es besteht die Gefahr, Daten als absolute Wahrheit zu betrachten, zudem bestehen Fragen verbunden mit intellektuellen Rechten und Ethik. Wir können diese Technologie adaptieren, aber wir sollten ihre Stärken und Grenzen erkennen.

Statistiken

loading

Kommentare zu diesem Artikel

Veröffentlicht
2015-12-07
Sprache
en
Schlagworte
Big Data, Datenerfassung, datengeführte Forschung, Korrelation, Vorhersagemodelle, Open Data, EAA 2014