plain text

ASCII was very carefully designed; essentially no character has its code by accident. Everything had a reason, although some of those reasons are long obsolete.
kps

As digital natives we tend to take for granted the significant efforts of intelligence that enabled the global tech revolution. Here is one small detail about ASCII control characters, which are for example still used to some extend in terminals (ssh).

What we can learn here is compactness and elegance. But let’s not transfigure the past. Maybe it’s a lesson about the temptations of universality.

Read more

Ein Schrägstrich

Ich habe in einer Vorlesung über die unibrennt Proteste darauf hingewiesen, dass hinter der ach so basisdemokratischen Internet-Kommunikation mittlerweile riesige Firmen stehen. Ein Beitrag über The Internet’s Unholy Marriage to Capitalism macht das sehr deutlich. Im Gegenzug möchte ich eine kleine Episode erwähnen, die gestern passiert ist und (noch immer) für unbegrenzte Möglichkeiten spricht.

Eine Initiativgruppe ist dabei, die “Philosophische Audiothek” auf eine neue Plattform zu übersiedeln. Ich habe “Mediacore” eingerichtet und das klappte auch bestens, bis auf einen kleinen Schönheitsfehler. Es gelang mir nicht, die Adresse

http://phaidon.philo.at/mediacore

zum Laufen zu bringen. Es funktionierte nur, wenn man einen Schrägstrich daranfügte:

http://phaidon.philo.at/mediacore/

Drei Stunden mindestens suchte ich in den Konfigurationsfiles und im Netz herum, ohne Erfolg. Dann schrieb ich einen hilfesuchenden Eintrag im Webforum der mediacore community. In kürzester Zeit war das Problem gelöst.

Ein exotisches Detailproblem, die Antwort von einer wildfremden Person, ohne Kosten, ohne Verzögerung. Es ist phantastisch. Das gelingt nicht immer, aber doch ziemlich häufig. Zu den Bedingungen gehört, dass sich um selbstverwaltete Projekte auch gut informierte/motivierte Personen gruppieren, die auf eine genügend präzise gestellte Frage leicht die richtige Antwort geben können.

Affirmativ und Eklektizistisch?

Wie beurteilt man die Qualität von Gedanken in der akademischen Sphäre?

Eine Stellungnahme zu meinem für die “Nachwuchs”-Tagung “Junge Philosophie” an der TU Darmstadt eingereichten Paper lässt eine erste Antwort zu:

  • Wenn du Begriffe verwendest, sollten sie aus einer Theorie heraus entwickelt werden, anstatt Metaphern zu ihrer Plausibilität anzuführen.
  • Wenn du Metaphern verwendest, gebrauche sie nicht affirmativ.
  • Dass Metaphern nicht affirmativ gebraucht werden, zeigt sich, indem sie in einem systematischen Zusammenhang gestellt und kritisch hinterfragt werden.
  • Wenn du Metaphern affirmativ verwenden solltest, beziehe dich auf Literatur. Die Literatur aber muss systematisch, nicht eklektizitisch ausgewählt werden.

Die Stellungnahme hat mich irritiert. Eine These im kritisierten Paper war, dass Kompetenz nicht auf die gestaltenden, architektonischen Aspekte reduziert werden kann, sondern ein Moment miteinschließt, in der man von Situationen irritiert wird und – zunächst – in seinem Entwerfen zurückgeworfen ist. Das ist nun der Fall.

“Der Boden für fruchtbare, anschlussfähige Tätigkeiten ist: Man lässt sich stören. Und manchmal noch mehr: Man wird gestört. Man bezieht seine Kreativität aus der Irritation und spannt seine Methoden und Architekturen auf den Wellen derselben.”

Meiner Überzeugung nach ist der Schritt zur Systematik und Methodik ein Zweiter. Ein Aspekt, der mich (neben Systematik und Schlussfolgerungen) an der Philosophie fasziniert ist, was zwischen Irritation und Systematik passiert, also vor der Verwertung. Vielleicht ist der Text deswegen nicht reif für Veröffentlichung in einem Band für die Disziplin Philosophie.

Was ich zugestehe: Der Text ist vorkritisch und stotternd, ohne Rückhalt durch Literaturverweise. Temptativ wird versucht, sich auf das durch die Tagung gestellte Thema (“Brüche, Brücken, Ambivalenzen”) einzulassen. Es werden die Metaphern der Architektur und des Konstruierens erkundet.  Dann wird die Frage gestellt, ob man durch sie auf Widersprüchlichkeiten eingehen kann. Ich habe Hinweise gegeben, dass diese Metaphern genau nicht ausreichend sind, um das Prädikat “Kompetent-sein” zuzuschreiben und dass man Beispiele finden kann, die über diese Metaphern hinausweisen. Offenbar war das nicht überzeugend.

Der Beitrag findet sich im Philo-Wiki- sozusagen als Alpha-Version zum Diskutieren und Weiterarbeiten. Vielleicht hat die eine oder der andere einen hilfreichen Rat für einen offenbar nicht wohlgeformten “Nachwachsenden”. Ich habe durch die Stellungnahme ausserdem Gelegenheit eine Praxis aus der Softwareentwicklung anzuwenden, die auch wichtig für das Thema des Textes war:

Die Quellen werden nicht verschlossen und gegen Änderung gesperrt, sondern setzen sich der Konfrontation mit den Benutzern aus und können – die Beteiligung der Benutzer vorausgesetzt – schneller auf sich ändernde Situationen reagieren. Die Anpassung mit der Umgebung erhöht sich und wird dynamischer.

Man bezieht seine Kreativitat aus der Irritation und
spannt seine Methoden und Architekturen auf den Wellen derselben.

ein Jahr später

EIne Protokollnotiz darüber, warum die Wikipedia Erfolg hat und wie sich die Zeiten – eben durch diesen Erfolg – ändern.

Für einen Artikel, den ich gerade schreibe, brauchte ich Informationen zu Goethes berühmtem Gartenhaus im Park an der Ilm. Es wurde 1999, als Weimar europäische Kulturhauptstadt war, kopiert. Die Wikipedia gibt an, dass die Kopie 2001 in Bad Salza neu aufgestellt wurde.

Dort allerdings, und an der Adresse des 2. Gartenhauses ist zu lesen, dass es ein Jahr später war.

Nichts einfacher, als die Jahreszahl zu ändern.

Mittlerweile heißt es allerdings “bitte warten”, bis jemand die Änderung überprüft hat.

800px-Weimar_Goethe_Gartenhaus_1900

Vortrag: Wie man wissenschaftliche Qualität beurteilen kann

Heute, 07. Jänner 2009, 19:00 Uhr, HS 3D im NIG findet ein Vortrag von Falk Reckling, dem Leiter der Sozial-&Geisteswissenschaftlichen Abteilung des FWF (Fonds zur Förderung wissenschaftlicher Forschung) statt, in der er – so kündigt der Titel des Vortrags zumindest an – über Qualitätsmaßstäbe für wissenschaftliche Arbeiten spricht.

Google sagt mir, dass Dr. Reckling etwas für die Open Access-Initiative übrig hat (ORF-Beitrag), in einfachen Worten: Forschung, die von öffentlicher Hand bezahlt wird, soll auch der Öffentlichkeit zugänglich sein.

  • Liste von Open Access Zeitschriften (geordnet nach Fachbereichen)
  • OAI-Suchmaschine (OAI: Open Archive Initiative) OAIster (Diese Art von Suchmaschinen vernetzen die verschiedenen OAI-Repositories basierend auf dem OAI-PMH-Standard, der dafür sorgt, dass die Metadaten der einzelnen Artikel bei allen OAI-Repositories maschinenverarbeitbar sind)
  • SCIRUS (sucht auf “480 million science-specific Web pages”, also nicht nur auf OpenArchive-Repositories)
  • Open Access-Informationsplattform (viele Links, gute Erklärungen)

Mal sehen, vielleicht initiiere ich einen Live-Blog oder berichte nachher über interessante Punkte – sofern erkennbar.

UPDATE:

Das Publikum war relativ schmal, wahrscheinlich wegen dem neuen Jahr ( ca. 20 Leute inklusive Vortragender,UniversitätsmitarbeiterInnen und OrganisateurInnen); ich habe ca. 5 studierende erkennen können.

Der wichtigste Satz kam eigentlich schon am Anfang: Die Qualität der Wissenschaftlichen Arbeit muss nach Verfahren erfolgen, die nachvollziehbar, transparent und schwer manipulierbar sind. (Ich vermute, dass die Nachvollziehbarkeit & Transparenz mit Manipulierbarkeit kontrahiert -> hohe Transparenz über das Auswahlverfahren -> steigende Möglichkeit, das Verfahren zu manipulieren).

Warum man überhaupt Leistung in der Forschung messen will, wurde folgendermaßen begründet:

  • Man kann etwas zur Rechtfertigung angeben, wie man öffentliche Mittel verwendet (Ich denke, wenn die Publikationsstrukturen einfacher wären, könnten sich Geldgeber als auch Steuerzahler als auch die Forschercommunity selbst ein Bild von den Publikationen machen; viele Augen sehen manchmal besser als eine Zahl)
  • Selektion, um Lobbyismus und nicht-wissenschaftliche Kriterien auszuschließen
  • Orientierungsmöglichkeit für Studenten, Forscherinnen und Geldgeber (man kann nicht alle Publikationen lesen)
  • Wettbewerb (Leistungsmotivierendes Umfeld)
  • Reputation und Mittelvergabe für kompetente Forscher

Danach kam eine Vorstellung der üblichen Verfahren, die man im Wissenschaftsbetrieb zur Beurteilung der Qualität von Publikationen normalerweise anwendet:

  • Peer Review
  • Metriken, speziell Bibliometrie (citation index)
  • informed Peer Review (Die quantiativen Merkmale werden von Experten gewichtet)

Der Vortragende stellt fest (und folgt damit der Empfehlung des deutschen Wissenschaftsrates 2007), dass so etwas wie der citation index zur Zeit in den Sozial-&Geisteswissenschaften nicht machbar ist, dass er aber den Angehörigen dieser Diziplin empfehlen würde, über eine Adaptierung selbständig nachzudenken. “Wenn die Geisteswissenschaftten das nicht selbst tun, dann wird es für sie gemacht” – und das könne negativ für alle Beteiligten sein.

Auch die Gefahren von Leistungsfeststellungen wurden erwähnt:

  • zu viele Evaluationen -> zu hoher Aufwand in Relation zum Nutzen
  • Verabsolutierung von quantitativen Faktoren (manche medizinische Zeitschriften geben den impact factors bis auf die vierte Kommastelle genau an)
  • “dirigistische Eingriffe in den Forschungsalltag”, was die Forschungsfreiräume einengt
  • Strategiefallen: extensive Ausrichtung der Wissenschaftlerinnen an den Evaluationskriterien

In der Diskussion wurde das Argument vorgebraccht, dass die quantitativen Maßstäbe nur für den Mittelmaß gelten würden. Für Genies und die, die ganz unten sind, würden sie keinen Nutzen haben, was der Vortragende auch bestätigte.

Also an sich ein solider Vortrag – nur leider ohne neuer Vorschlage und mit – sogar für mich – altbekannten Diskussionen über die Sinnhaftigkeit von citation Index und impact factors in den Sozial- und Geisteswissenschaften oder in den Wissenschaften generell. Wie in sehr vielen Bereichen wächst die Komplexität der Probleme, die wir zu bewältigen haben; man sucht Kriterien, und manchmal Algorithmen, mit denen man einerseits alle wichtigen Faktoren berücksichtigen kann und andererseits für die Überprüfung nicht das ganze Leben lang braucht. Das ist verständlich. Die Frage ist, wenn die Algorithmen zu exakt definiert sind, werden viele Forscher nicht zögern, ihre Publikationen auf diese Kritierien auszurichten und dann kommt es wohl sehr schnell zu der Situation, in der zwar die Kriterien eine gute Leistung indizieren würden, man beim Lesen aber einen anderen Eindruck bekommt – wenn man nicht bereits von den Kennzahlen hypnotisiert ist. Die Frage ist, ob es bei dieser Masse an Publikationen ohne Kennzahlen geht und wenn ja, wie sieht die Alternative aus? “Back to the roots” – das wird ohne Zusatzüberlegungen nicht gehen.

Was mir gefehlt hat war die Frage, wie sich die Bewertungsmodelle und auch die Publikationssituation als Ganzes verändern kann und wird angesichts des Open-Access-Ansatzes und der elektronischen Erschließung der Inhalte (Metadaten, Tags, …).

Für mich zeigt die Sokal-Affäre einerseits, und der Vorfall bei der CSSE08 andererseits (es gibt ja noch mehrere ähnliche Beispiele), dass nicht allein die Geisteswissenschaften über ihre Qualitätsmaßstäbe nachdenken müssen. Mein Plädoyier für einen einfacheren Zugang zu den Publikationen (durch Internettechnologien) ist auch keine Garantie für höhere Qualität, jedoch kann ich mir schon vorstellen, dass der länderübergreifende Community-Effekt positive Auswirkungen hat. Er könnte zumindest dazu führen, dass die Arbeiten so geschrieben werden, dass sie nicht nur Expertinnen verstehen (manchmal lässt sich das nicht vermeiden, aber tendenziell könnten übermäßige Spezialisierungen – wo man gar nicht mehr weiß, wie man das verstehen soll – vermieden werden). Die themenbezogene Gesprächskultur in den Wissenschaften (und der Dialog mit der Öffentlichkeit) könnte zunehmen und die Bemühungen um die kleinste publizierbare Einheit unwichtiger werden lassen. Soweit zur Vision.