BdWi - Bund demokratischer Wissenschaftlerinnen und Wissenschaftler

»Wissenschaft ist also ein prinzipielles Gegen-den-Strom-Schwimmen.«

Klaus Holzkamp

Newsletter abonnierenKontaktSuchenSitemapImpressumDatenschutz
BdWi
BdWi-Verlag
Forum Wissenschaft

Rankings bei Publikationen?

11.01.2013: Altmetrics zeigt sinnvolle Ansätze - mit offenen Fragen

  
 

Forum Wissenschaft 4/2012; Foto: Fotolia.com – alphaspirit

In welchem Kontext und nach wessen Kriterien wird der Einfluss (Impact) wissenschaftlicher Artikel gemessen? Verschiedene alternative Initiativen setzen mit dem Stichwort #altmetrics bereits Interessantes um, damit der sogenannte Journal Impact Factor (JIF) an Einfluss verliert - zugunsten von Article level metrics (ALM). Zunächst geht es allerdings allgemein um mehr Transparenz, und an ungelösten Fragen bezüglich Rankings aller Art fehlt es auch bei #altmetrics nicht, meint Claudia Koltzenburg, die in ihrem einführenden Beitrag einige Zusammenhänge kritisch aufzeigt.

Für Rankings von Zeitschriften hatte sich bisher in Wissenschaftsgebieten, in denen Forschung weit überwiegend in Artikeln1 veröffentlicht wird, international ein Messverfahren etabliert, das in Form des sogenannten Journal Impact Factors (JIF) wie eine Währung zum Einsatz kommt: Der JIF ist ein Maßstab, der als kapitalistisches Handelsgut eingesetzt wird. Denn wer Karriere machen will in einem der JIF-Wissenschaftsgebiete, bekommt recht schnell mit, dass es beim Publizieren nicht primär um das Öffentlich-Machen geht, sondern anscheinend nur darum, dem eigenen Namen durch das geschickte Sammeln von Impact-Punkten das nötige Renommee zu verleihen. Die Spielregel lautet daher, einen Artikel am besten zuerst an das Journal mit dem höchsten JIF zu senden. Dies ist aber nur dann sinnvoll, sofern mein Autor_innenteam und ich vermuten, bei dem höchstgerankten Journal auf geeignete Peer Reviewer zu treffen, die fachlich mit aktuellen Entwicklungen vertraut sind und zudem fair damit umgehen, die also den Beitrag weder zeitlich verzögern oder vorab plagiieren noch aus rein strategisch-parteilichen Gründen aufgrund eigener Forschungs- und Profitinteressen ablehnen. Sehr gute Peer Reviewer gibt es viele, aber es ist nicht klar, wie ich unseren Beitrag rechtzeitig auf ihren Bildschirm bekommen könnte und mit welcher Einreichung wir dafür unsere Chancen auf brillante fachliche Kritik erhöhen würden. Da eine weitere Spielregel besagt, einen Artikel immer nur an ein Journal zu senden, ist leicht auszumalen, zu wieviel Verzögerungen es kommt, zumal die Ablehnungsraten der Journale mit hohen JIF offiziell bei 80% oder höher liegen.

Für Forscher_innen als den Produzent_innen von neuem Wissen ist das JIF-System demnach nicht effizient - zumindest für die überwiegende Mehrheit nicht. Die Frage ist, was in welchem Kontext ausgemessen werden soll und mit welcher Bedeutung es versehen wird. Aus meiner Sicht ist es in gesamtgesellschaftlichem Interesse, dass Bestrebungen unterstützt werden, die geeignet sind, hinsichtlich des JIF und seiner Folgen grundlegende Veränderungen herbeizuführen.

Mit diesem Beitrag gebe ich zunächst eine knappe Einführung in mir schädlich erscheinende Publikationspolitiken. Ich fordere mehr Transparenz und gehe in diesem Zusammenhang auch auf die aktuellen Open Access-Bestrebungen des Deutschen Bundesrates ein. Konkret stelle ich dann mit impactstory.org eine Initiative aus dem #altmetrics-Umfeld vor, deren Impulse aus meiner Sicht begrüßenswert sind. Abschließend zeige ich offene Fragen auf und begründe, warum ich meine, dass auch die Machart von alternativen Rankings weiterhin kritisch geprüft werden sollte.

Kritik am Journal Impact Factor (JIF)

Was beim Hochschulranking in Mode gekommen ist, nämlich eine Institution als Ganze zu messen, wird nicht zuletzt dank #altmetrics im Bereich des wissenschaftlichen Publizierens zunehmend als unsinnig erkannt. Da die Qualität der Artikel innerhalb ein und desselben Journals stark schwanken kann, scheint es erstens nicht plausibel, Journale als Ganze mit Ranking-Anzeigern zu versehen (JIF) und zweitens nicht, dies als einziges Messinstrument einzusetzen, zumal es seit Jahren fundierten Einspruch gibt, u.a. aufgrund der leichten Manipulierbarkeit des JIF.2 Anzumerken ist auch, dass nicht die Editorial Boards selbst entscheiden, ob sie ihre Zeitschrift für dieses Ranking listen lassen, denn das JIF-Verfahren befindet sich in Händen eines einzigen Konzerns (Web of Science/ WoS gehört Thomson Scientific),3 dessen Management Entscheidungskriterien für eine Aufnahme nicht offenlegt.4

Der JIF ist allem Anschein nach lediglich dafür gedacht, anzuzeigen, als wie einflussreich ein gelistetes Journal angesehen werden soll. Es handelt sich damit um Ergebnisse eines Brandings, das kapitalistisch erfolgreich ist, und zwar für ein bestimmtes Produkt eines bestimmten Verlags, der beim Monopoly mitmachen wollte und es ›geschafft hat‹, sich als zugehörig ansehen zu lassen. Für kleine Journale ist eine Listung sogar mit einem finanziellen Risiko verbunden, weil sie allein aufgrund einer Listung eine große Flut von unpassenden Einreichungen erhalten, deren Ablehnungen viel Arbeit und Kosten verursachen. Der JIF nützt also zumeist etablierten Journalen, die im Zweifelsfall aus anderen Quellen wirtschaftliche Substanz zuführen könnten, hat überwiegend mit Produktmarketing zu tun und mit der Qualität einzelner Artikel keinesfalls, da es auch in Journalen, die nicht bei WoS gelistet sind, einflussreiche Artikel gibt.

Für ein Mehr an transparentem "Open"

Wie hängen hier Transparenz und Offenheit zusammen? Wenn Hochschulen geraten wird, sich zunehmend als Unternehmen aufzustellen, sei ihnen aus meiner Sicht erst recht geraten, das Fazit des Unternehmensberaters Jörg Staute zur Kenntnis zu nehmen. In Das Ende der Unternehmenskultur kommt Staute 1997 zu dem Schluss, dass ein fair angelegtes Mitspracherecht sowie Transparenz seitens der Leitung unabdingbare Faktoren einer Offenheit sind, ohne die wirtschaftlich nichts gut laufen wird. Auch wissenschaftlich nicht, so meine These, aber die ist nicht von mir und nicht neu, ich will sie hier nur erneut belegen. Aus meiner Sicht ist es dabei einerlei, ob Offenheit als Teil von Transparenz oder, umgekehrt, Transparenz als Teil von Offenheit angesehen wird: Sie bedingen einander. Offenheit (Openness5) würde ich simpel fassen als: "Du darfst von mir aus dies oder das tun und ich schätze mich damit großzügiger ein als andere", Transparenz als: "Ich zeige hiermit, wie dies oder das bisher zustande kommt/ gekommen ist, bitte erhebe Einspruch, wenn du einen besseren Vorschlag hast oder aus welchen Gründen du nicht einverstanden wärest, wenn ich weiterhin so verfahre". Auf Aspekte von Fairness diesbezüglich komme ich in meinem letzten Abschnitt zu sprechen.

In Debatten um wissenschaftliches Publizieren wird derzeit "open" meist identisch gesetzt mit "Open Access"6. Dabei könnte mit Transparenz schon vor dem "Publizieren" begonnen werden. Ich bin zum Beispiel der Ansicht, dass Autor_innenteams ihre Beiträge in offenen Wikis verfassen sollten, damit der Entstehungsprozess des Beitrags sowie der Anteil der Co-Autor_innen am Ergebnis auch öffentlich möglichst transparent nachzuvollziehen ist.7 Diese Praxis wäre aus meiner Sicht nicht nur für JIF-Wissenschaftsbereiche angesagt, sondern in jedem Fach sinnvoll, wo in Teams gearbeitet und publiziert wird. Und da ohnehin niemand allein und ohne die Unterstützung anderer forschen kann, ist das Anliegen - wenn man es ernst nehmen möchte - schon für Zitationen und Danksagungen relevant, also in jedem Fachgebiet.

Kritik der deutschen Bundesratsinitiative zu Open Access

Der deutsche Bundesrat hat sich in seiner Sitzung am 12.10.2012 mit Open Access befasst und empfiehlt die Verankerung eines unabdingbaren Zweitveröffentlichungsrechts.8 Das an sich klingt in meinen Ohren gut, sofern Verlage das Zweitveröffentlichungsrecht erhalten und das Erstveröffentlichungsrecht beim Autor_innenteam verbleibt. Anfang der 1990er Jahre war dies die Grundlage eines Konzepts, das zunächst für ein Gebiet der Physik umgesetzt wurde (arxiv.org), ein sogenannter preprint-Server. Autor_innen laden ihre Beiträge dort kostenlos und frei verfügbar hoch und falls die Redakteur_innen eines Journals Interesse daran haben, den Artikel nach ihrem Peer Review zu veröffentlichen, nehmen sie mit den Produzent_innen Kontakt auf. So stelle ich mir wissenschaftliches Publizieren vor - sofern es weiterhin Journale geben soll für Leser_innen, die vor allem anhand von Zeitschriftentiteln eine gewisse Orientierung suchen. Ich plädiere für freies Publizieren im Web9 in Kombination mit post publication peer review, weil ich meine, dass zensurfreies Publizieren die Grundlage für einen demokratischen Umgang mit neuem Wissen ist, vor allem bei Wissenschaft in Zeiten des Web.

In der Bundesratsinitiative 514/1/12 ist es aber leider gar nicht so gemeint. Die Regelung, die in §38 UrhG verankert werden soll, würde es Wissenschaftler_innen lediglich ermöglichen, Publikationen nach Ablauf von sechs Monaten auf Repositorien frei zugänglich zu machen. Immerhin, sagen viele. Im Schwange der zunehmenden Kommodifizierung von Wissenschaft10 droht ein anderer Aspekt allerdings leicht aus dem Blick zu geraten: Forschung soll auch hier als Profitquelle nutzbar gemacht werden11 und insofern Open Access zur Erreichung dieses Ziels ein taugliches Mittel ist, soll es der Standard im wissenschaftlichen Publizieren werden, aber nur dann. Nun könnte man sagen: Es ist ein kluger Schachzug der Open Access-Befürworter_innen, den ökonomischen Nutzen von Open Access bzw. die Einsparungsmöglichkeiten für öffentliche Haushalte und Drittmittelgeber_innen vorzurechnen.

Meiner Einschätzung nach sind die Vorteile von Open Access allerdings noch größer, wenn es darum geht, Transparenz in der Wissenschaft als sozialem System zu befördern und zu verankern, in diesem Fall vor allem bei den Prozessen des Schaffens von Wissen und beim Publizieren (was im Fall des Schreibens in offenen Wikis so gut wie dasselbe ist). Mit Open Access, und zwar stets inklusive freier Lizenzen definiert, wird zum einen für Leser_innen eine enorme Unabhängigkeit von eigenen finanziellen Beschränkungen geschaffen und zum anderen für Autor_innen(teams) die Möglichkeit, eigene Beiträge an mehreren Orten und in verschiedenen Argumentationskontexten sichtbar zu machen, seien sie als Volltexte anderswo republiziert oder offen verlinkt. Denn Transparenz bezieht sich auch auf das Findbar-Machen und Finden-Können und befördert damit in der Forschung Qualität, weil leichter auszumachen ist, was Andere bereits Kluges zu meinem Thema gesagt haben, worauf ich dann gleich aufbauen kann.

Transparentes Findbar-Machen und Finden-Können: Diese Prinzipien gelten nicht nur für den Stoff, der Messverfahren von Impact und Rankings zugrunde gelegt wird - denn was Open Access zu lesen ist, lässt sich leichter rezipieren und sogar direkt verlinken -, sondern Transparenz in diesem Sinne gilt auch für die Verfahren selbst.

#altmetrics: ALM und weitere alternative Ansätze

Kommen wir zurück zu der Frage, welcher Kontext mit welcher Bedeutung für dasjenige versehen wird, was da gemessen werden soll. Gemessen werden soll der Einfluss von wissenschaftlichen Artikeln, u.a. mit dem Ziel, herauszufinden, welche Beiträge von welchen Personen als besonders relevant für einen bestimmten Forschungszusammenhang angesehen werden sollten. Die Bedeutung dessen, was gemessen worden ist, hängt mit dem zusammen, was die betreffenden Personen selbst bzw. ihre Kolleg_innen, künftigen Kolleg_innen oder Vorgesetzten, Arbeitgeber_innen, Funder, Peer Reviewer oder Kooperationspartner_innen daraus meinen schließen zu können. "We need ways to get a handle on what's out there, and what's good", fasst Jason Priem den Bedarf zusammen.12 Dies an sich ist aber noch nicht als alternativ anzusehen, also kommt es auf die Frage nach dem Kontext an.

Mit dem hashtag #altmetrics twittern derzeit verschiedene Initiativen bzw. Unternehmen und ihre Unterstützer_innen bzw. bezahlten PR-Leute (twitter.com/#altmetrics). Bei #altmetrics handelt es sich um alternative Messverfahren ("alternative metrics") für das Beziffern des Einflusses von Artikeln, die in wissenschaftlichen Zeitschriften publiziert werden. Neu bei #altmetrics ist erstens, dass der Kontext des einzelnen Artikels der Artikel selbst ist, nicht mehr ein Journal, in dem der Artikel publiziert worden ist. Der neue Terminus heißt hier Article level metrics (ALM). Zweitens ist bei #altmetrics am Kontext neu, dass es die Nutzer_innen von Web 2.0 sind, die mit ihrer Reaktion auf publizierte Artikel im Web Daten produzieren, die drittens mit neuen Funktionen und auf neuen Plattformen zu diesem Zweck gemessen werden sollen ("Tracking scholarly impact on the social Web", nennt PLoS One seinen Call for papers für Ende Januar 2012). Schon 2010 verfassten Jason Priem, Dario Taraborelli, Paul Groth und Cameron Neylon "altmetrics: a manifesto" (altmetrics.org/manifesto) und argumentierten, dass es vier Arten gebe, Impact zu messen: Nutzungsstatistiken (usage), die Downloads und Views zählen; Begutachtung (peer review), also Heranziehung der Meinung von Expert_innen desselben Fachgebiets; Zitationen (wie häufig ein Artikel in Literaturlisten anderer Artikel zu finden ist); alternative Verfahren im Web (alt-metrics), die darauf basieren, wie häufig ein Artikel für andere sichtbar gespeichert oder verlinkt wird, als Bookmark verzeichnet ist oder bei Diskussionen herangezogen wird. Nur zwei Jahre später, im Oktober 2012, ist via #altmetrics zu lesen, dass nach PLoS und dem Institute of Physics (IOP) auch Nature Publishing Group (NPG) ein ALM-Produkt für zunächst 20 Journale nutzen wird. Claire Bower wiederum, Digital Comms Manager der British Medical Journal (BMJ) Group, steuerte jüngst sogar einen Überblicksartikel bei: "Article-level metrics: which service to choose?"13 - dies von Seiten eines großen Publishers zu sehen, ist ein Novum und es zeigt aus meiner Sicht an, dass wirklich etwas in Bewegung gekommen ist.

impactstory.org

Eine der #altmetrics-Initiativen, die not-for-profit und open source arbeitet, möchte ich besonders vorstellen: Impactstory.org - das sind vor allem Heather Piwowar und Jason Priem, zwei junge Open Data-Expert_innen, die in Kanada und den USA arbeiten und jüngst für dieses Projekt eine Förderung durch die Sloan Foundation erhalten haben: "Our metrics data (like our source code) is completely open and free of charge. As a philanthropically-funded not-for-profit, we're in this because we believe open altmetrics are key for building the coming era of Web-native science", heißt es auf der Startseite. Ihr "We help you tell the full story of your research impact" basiert darauf, dass Forscher_innen selbst bekanntgeben, wo und wie ihre Publikationen Wirkung zeigen. Ziel ist es, Forscher_innen zu ermöglichen, auf der Basis von bezifferbaren Daten leichter herauszufinden, welche Wirkung ihre Arbeiten darüber hinaus erzielen.

Wer den Service nutzen will, setzt zunächst Pointer zu den eigenen Arbeiten. Das können Artikel, Slides (z.B. Grafiken), Datensätze, Software oder auch eine Webseite sein. Im Wesentlichen sieht das Impactstory-System dann im Web nach, und zwar in mehr als ein Dutzend Application Programming Interfaces (API), wo ein Impact zu den Objekten, auf die die Pointer zeigen, zu verzeichnen ist ("We track impact across the Web."). Gesucht wird u.a. bei Wikipedia, Github, Figshare, PubMed, Mendeley, ORCID, Twitter und Dryad. Unterschieden wird dann nach zwei Faktoren: 1. wer das Objekt zur Kenntnis nimmt bzw. weiterverwendet, also ob es sich um Wissenschaftler_innen oder um Nutzer_innen der allgemeinen Öffentlichkeit handelt und 2. was mit diesen Objekten gemacht wurde: wurden sie angesehen, diskutiert, gespeichert, zitiert oder anderen weiterempfohlen? Am Stil der häufig gestellten Fragen (FAQ), die ich von ihrer Transparenz her als vorbildlich ansehe, wird deutlich: Hier konzipiert, programmiert und spricht eine junge Generation, für die Wissenschaft immer schon im Web stattfand.

Für die angestrebte Gruppe von Nutzer_innen hält Impactstory.org aus meiner Sicht, was es verspricht: In unter einer Minute hatte ich einen Account angelegt, eine meiner Arbeiten, die im Web verfügbar oder verzeichnet sind, mit Pointer versehen und konnte die dafür ermittelte Statistik sehen. Angezeigt wird mir auch gleich, bei welchem API diese Informationen gesammelt wurden. Diese Transparenz und Leichtigkeit überzeugt mich.

Impactstory.org fühlt sich für mich an wie ein selbstorganisiertes Kooperationsangebot. Wenn ich eigene Ideen zur Verbesserung beitragen will, kann ich selbst eine Erweiterung programmieren und diese open source beisteuern oder in Worten Vorschläge machen. Heather und Jason sind der offenen Kooperation im Web verpflichtet und legen es darauf an, mit Impactstory.org ebenso gut wie kommerzielle Angebote zu sein, aber eben not-for-profit und open source: "Web-native science" im Stil der Open Data-Generation.

Offene Fragen

Welche Fragen sehe ich als ungelöst an?

A. Die Datenbasis und ihre Zusammensetzung: Dass viele Forscher_innen ohne Webzugang mit ihren wissenschaftlichen Interessen und Aufgaben weniger schnell und weniger international vorankommen, leuchtet den meisten heute sofort ein. Dennoch kann Forschung, die nicht im Web verlinkbar oder verzeichnet ist, Wesentliches beitragen zu ihrem Gebiet, und auch weiterhin forschen weltweit viele Leute ohne das Web zu nutzen zu interessanten Fragen, egal in welchen Sprachen sie das tun und in welchen Sprachen sie dann mit anderen darüber debattieren. Wenn hier also von "Impact" gesprochen wird, geht es bei der Datenbasis lediglich um einen Ausschnitt dessen, was gearbeitet und publiziert worden ist. Wie werden #altmetrics-Verfahren mit diesen Lücken fertig? Genauso wie die bisherigen, also nach dem Motto: Den ganzen Rest ignorieren wir einfach?

B. Was werden bei der Gelegenheit des Aufenthalts meiner Rechner-IP auf dieser oder jener Service-Seite noch für Daten gesammelt und kann ich diese Daten als Open Data selbst irgendwo finden? Also, wenn Messverfahren für bestimmte Zwecke entworfen werden, für welche anderen Zwecke sollen User sich möglicherweise auf einer bestimmten Webseite aufhalten?

C. Wie können bei Artikel-Rankings die Namen derjenigen einbezogen werden, deren Anregungen vor der Publikation wertvoll waren? Erstens werden in Danksagungen wesentliche Beiträge benannt - sonst würden sie ja nicht erwähnt - und zweitens ließen sich vermutlich die Chancen für eine Geschlechterparität verbessern. Nach meiner Erfahrung sind weiblich sozialisierte Personen eher bereit, solide und sachdienliche Anmerkungen zu einer entstehenden Arbeit zu geben, ohne eine explizite Namensnennung dafür zu fordern. Wenn offen in Wikis gearbeitet wird, lässt sich für die Arbeit aller Geschlechter faire Anerkennung bewerkstelligen, indem sich die Person für ihren gutachterlichen Beitrag selbst einloggt, entsprechend agiert und damit bei den Versionsunterschieden eindeutige Spuren hinterlässt. Offenheit und Transparenz greifen hier dann bestens Hand in Hand und Beteiligungen lassen sich zusätzlich statistisch erfassen.14

D. Aus Gründen der Fairness fordere ich Transparenz zuallererst bei den "Großen" (Reichen, Mächtigen). Warum, das lässt sich am Beispiel des Konzerns Monsanto und dessen Machenschaften bei Saatgut aufzeigen, denn hier wird immer wieder vorgeführt, wie Konzerne frei zugängliches Wissen sozusagen rauben, indem sie es mit Knebelverträgen kommodifizieren - und damit ungestraft davonkommen. Auch Forschungsergebnisse sind Saatgut im weitesten Sinne und Openness und Transparenz muss so eingesetzt werden, dass nicht diejenigen, die etwas mit offenen Lizenzen publizieren, beraubt werden. Die offene Frage ist hier also: Wie können alternative Verfahren bei Artikel-Rankings, die nicht unwesentlich darauf basieren, dass Forscher_innen ihre Beiträge open access verfügbar machen, tatsächlich ermöglichen, dass mit den Beiträgen aller fair umgegangen wird?

Abschließend noch meine Antwort auf die Frage, warum die Machart von Rankings weiterhin kritisch geprüft werden sollte: Rankings haben mit Statistiken zu tun, deren Rechenoptionen und Verknüpfungen aufgrund bestimmter Konzepte ersonnen werden. Am 17. Februar 2011 förderte ein spontaner Kommentar zu einem Tweet elegante neue Weisheiten für mich zutage: Statistiken seien wie Bikinis, das Interessanteste zeigen sie nicht!, so ein re-tweet von Fabiana Kubke. Daraufhin Egon Willighagen: "Kommt drauf an, wie man den Bikini trägt:)"15. Das heißt: Wer trägt hier wie einen Bikini, wer bekommt dies mit und redet wie darüber? Es ist wesentlich, im Auge zu behalten, in wessen Interesse zu welchem Zweck überhaupt derlei Maß genommen werden soll.

Anmerkungen

1) Den vorliegenden Artikel zum Beispiel habe ich mit der Lizenz cc-by-sa-3.0 versehen. Das bedeutet, dass ich als Autor_in meinen Beitrag Forum Wissenschaft unter den Bedingungen angeboten habe, dass die Zeitschrift von mir ein nicht-exklusives Verwertungsrecht an diesem Artikel erhält: Andere (u.a. ich selbst) können den Text dieses Beitrags beliebig anderswo veröffentlichen, sofern sie meinen Namen nennen und meinen Beitrag zu gleichen Bedingungen weitergeben.

2) Impact Factor problems, www.zotero.org/groups/impact_factor_problems/items , mit Dank an impactstory.org.

3) Impact Factor. Wikpedia. Version vom 20. Oktober 2012, 14:44 Uhr, de.wikipedia.org/w/index.php?title=Impact_Factor&oldid=109538576 .

4) Im Mai 2012 gab es eine Podiumsdiskussion mit je einem Vertreter von Thomson Reuters/ Web of Science (James Testa) und einem des Verlagskonzerns Elsevier (David Tempest). Der Elsevier-Vertreter sagte, es sei so schwierig, eine Listung zu bekommen. Aus meiner Sicht gaben sie lediglich vor, dass es zu ihrer Routine gehöre, hart darum zu ringen, ab wann ein neues Journal von Elsevier bei WoS gelistet wird. Dabei funktioniert für diese beiden Akteure das System der nicht offengelegten Kriterien für oder gegen eine Listung wunderbar, sie können sich bestimmt gut einigen. Und warum sollten zwei der größten Nutznießer des JIF sich in die Karten schauen lassen, wenn sie nicht dazu gezwungen werden? boac.ceon.rs/index.php/BOAC/12/pages/view/presentations .

5) Dorothea Salo. Battle of the Opens. scienceblogs.com/bookoftrogool. 15 March 2010, scientopia.org/blogs/bookoftrogool/2010/03/15/battle-of-the-opens/; Dorothea Salo. Open Sesame (and other open movements). slideshare.net. June 2010, www.slideshare.net/cavlec/open-sesame-and-other-open-movements (Slide 4).

6) Open Access bedeutet: kostenloser Zugriff auf begutachtete Forschungsliteratur, die mit einer freien Lizenz versehen ist. Siehe auch: Open Access. Wikipedia. Version vom 11. August 2012 um 15:44 Uhr, de.wikipedia.org/w/index.php?title=Open_Access&oldid=106677715. Einen aktuellen Überblick in deutscher Sprache gibt: U. Herb (Hg.) 2012: Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft. Saarbrücken: universaar. Open Access: universaar.uni-saarland.de/monographien/volltexte/2012/87/.

7) Daniel Mietchen, Gregor Hagedorn, Konrad Förstner, M Fabiana Kubke, Claudia Koltzenburg, Mark Hahnel, and Lyubomir Penev 2011: Wikis in scholarly publishing, precedings.nature.com/documents/5891/version/1.

8) BR-Drs. 514/1/12: www.bundesrat.de/cln_330/SharedDocs/Drucksachen/2012/0501-600/514-12_28B_29,templateId=raw,property=publicationFile.pdf/514-12%28B%29.pdf sowie Bundesrat: Open Access fördert Leistungsfähigkeit und Innovation: wisspub.net/2012/10/13/bundesrat-open-access-fordert-leistungsfahigkeit-und-innovation/.

9) Cameron Neylon: It's not information overload, nor is it filter failure: It's a discovery deficit, cameronneylon.net, 8 July 2010, cameronneylon.net/blog/it's-not-information-overload-nor-is-it-filter-failure-it's-a-discovery-deficit/.

10) Hans Radder 2010: "The Commodification of Academic Research", in: The Commodification of Academic Research. Science and the Modern University. Edited by Hans Radder, Pittsburgh: University of Pittsburgh Press, 2010: 1-23. Open access: www.upress.pitt.edu/htmlSourceFiles/pdfs/9780822943969exr.pdf.

11) Janine Guespin-Michel 2012: "Was für eine Wissenschaft für welche Demokratie?", in: transform! 10-2012: 101-109.

12) Jason Priem. [Co-author's comment in the discussion on altmetrics: a manifesto], posted 19 June 2011, altmetrics.org/manifesto/#comment-592.

13) Claire Bower. Article-level metrics: which service to choose? blogs.bmj.com, 26 October 2012, blogs.bmj.com/bmj-journals-development-blog/2012/10/26/article-level-metrics-which-service-to-choose/.

14) Konrad U. Förstner, Gregor Hagedorn, Claudia Koltzenburg, M Fabiana Kubke and Daniel Mietchen (2011). Collaborative platforms for streamlining workflows in Open Science. Open Knowledge Conference OKCon2011, Berlin, 30 June /1 July 2011, sunsite.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-739/paper_ 8.pdf.

15) RT @maiasz: my granddad quoted in NS today: "statistics are like bikinis, what they reveal is suggestive but what they conceal is vital." plus comments, 17 February 2011, ffpaqiang.appspot.com/e/36aea8dc -457b-1052-0253-d99a83131634/.


Claudia Koltzenburg ist freiberufliche Wissenschaftler_in und Open Science-Aktivist_in, sie promoviert an der Universität Tübingen zu Wikipedia. Seit 2012 ist sie als Geschäftsführer_in von OKA - Open Knowledge Advancement (www.ok-a.org) in Florenz tätig.

Zum Seitenanfang | Druckversion | Versenden | Textversion