Samstag, 26. September 2015

Big data, Little Data, No Data (Christine Borgman)

Von Ralf Keuper

Die amerikanische Informationswissenschaftlerin Christine Borgman wurde mit ihrem Buch Big Data, Little Data, No Data: Scholarship in the Networked World auch über Fachkreise hinaus bekannt. Kernaussage ist:
Having the right data is usually better than having more data; little data can be just as important as big data
In ihren Forschungen beschäftigt sich Borgman mit dem Wandel der Wissenschaftskommunikation im Laufe der Jahrhunderte. Was die heutige Zeit von den vorausgehenden Epochen unterscheide, und was sie als Paradigmenwechsel bezeichnet, ist die Rolle, die öffentlich zugängliche Daten für die Forschung spielen (Open access to data is a paradigm shift). 

In einem Vortrag in Oxford liefert Borgman eine Reihe von Beispielen öffentlich zugänglicher Forschungsdaten, wie 


Damit Open Access-Plattformen auf Resonanz stoßen, benötigen sie einheitliche Standards/Ontologien. Ebenso wichtig sind Communities, die sich auf der Plattform bilden. 

Die Veröffentlichung wissenschaftlicher Arbeiten im Netz stösst auf zahlreiche Hürden, wie sie u.a. in dem Beitrag Die Wissenschaftstheorie fordert Open Access erwähnt werden. Eigentlich sollte es selbstverständlich sein, dass Forschungsergebnisse, die mit öffentlichen Geldern finanziert werden, auch frei zugänglich sind. 

Im Wissenschaftsbetrieb ist es noch immer gängige Praxis, dass von der Einreichung eines wissenschaftlichen Beitrags bis zu seiner Veröffentlichung in einem der Fachmagazine bis zu drei Jahre vergehen können. Die Reputation eines Wissenschaftlers basiert im hohen Maß auf der Zahl seiner Veröffentlichungen und der Anzahl der Zitationen. 

Im Open Access bilden sich für die Bewertung wissenschaftlicher Arbeiten andere Kriterien heraus, wie die Anzahl der Retweets, die Erwähnungen in Blogbeiträgen oder in Slides sowie die Häufigkeit der Downloads. 

Der Aufbau eines vertrauenswürdigen Netzwerkes für wissenschaftliche Forschungen benötigt viel Zeit. Zu den herausragenden Beispielen gehören für Borgman die NASA und die ESA, die jahrzehntelange Erfahrung mit der Aufbereitung und Veröffentlichung wissenschaftlicher Forschungsergebnisse haben. In den Humanwissenschaften sei dies leider nicht die Regel. Hier werden die meisten Projekte bereits nach wenigen Jahren eingestellt und vom Netz genommen. 

Borgman und ihre Team werden sich in den kommenden drei Jahren mit der Problemstellung beschäftigen: 
If data sharing is the answer, what is the question?

Darin wird sie u.a. mit den Worten zitiert:
Data are complex, compound, heterogeneous and messy objects that rarely lend themselves to easy sharing or reuse.
Jedenfalls bedeuten mehr Daten nicht automatisch bessere Forschungen, worauf der Beitrag Big, bigger, biggest: Data in the digital age verweist. Darin wird über die Aktivitäten am ASU Research Computing Center der Arizona State University (ASU)  berichtet:  
Scientists and researchers in all fields now have the ability to create, analyze and access data in new ways and at new scales. In some cases big data used in research is so massive that it isn’t practical or cost-effective to store the data for future use. It might be kept for a few years and then deleted. 
“Is every piece of data that you can put in digital format worth storing? Oftentimes not,” Timmes said. 
Instead of saving petabytes upon petabytes of data, researchers make their work repeatable by others by passing on the process of data collection and analysis. 
“Don’t give me the cake. Give me the recipe and let me make the cake,” Timmes said.

Keine Kommentare:

Kommentar veröffentlichen