Programmdetails

29. November 2017

Vorprogramme | “Zu Gast bei …” (10:00 bis 13:00 Uhr)

… Center of Advanced European Studies and Research (CAESAR)
Die Stiftung caesar ist assoziiert mit der Max-Planck-Gesellschaft und betreibt in Bonn ein Zentrum für neurowissenschaftliche Forschung. Die wissenschaftliche Arbeit erfolgt nach den Exzellenzkriterien der Max-Planck-Gesellschaft. Forschungsschwerpunkte sind die neuronalen Grundlagen des Verhaltens und die zelluläre Signalverarbeitung. Die Wissenschaftlerinnen und Wissenschaftler entschlüsseln die neuronalen Mechanismen, die dem Verhalten zugrunde liegen. Ihre Forschung beginnt bei der Untersuchung einzelliger Organismen und reicht bis zu einer Kernfrage der Neurobiologie: Wie bewirken Muster von neuronalen Aktivitäten komplexes, aber dennoch zielgerichtetes Verhalten?

Der Besuch im CAESAR startet mit einem einführenden Vortrag zum Zentrum allgemein und einem Einblick in die neurowissenschaftliche Forschung. In einem zweiten Programmpunkt stellt sich die Presse- und Öffentlichkeitsarbeit den Teilnehmern vor und diskutiert mit Ihnen die Aufgaben und Herausforderungen des Arbeitsbereiches und die Zusammenarbeit mit den Wissenschaftlern, stellt erfolgreiche Veranstaltungsformate und Ideen zur Erfolgsmessung vor. Abschließend gibt es eine Führung durch das Institut mit Erläuterungen zum Gebäude, seine Geschichte, Architektur und Kunst sowie eine Besichtigung eines Elektronenmikroskops als Beispiel für wissenschaftliche Infrastruktur.

Gastgeber:
Sebastian Scherrer

zurück zur Programmübersicht

… Deutsche Forschungsgemeinschaft (DFG)

Die DFG begutachtet, fördert und begleitet jährlich mehr als 31.000 Projekte in allen Wissenschaftsbereichen. Mit statistischen Publikationen (z. B. DFG-Förderatlas), Evaluationsstudien zu den Programmen der DFG sowie mit internetbasierten Informationssystemen (wie GEPRIS und Research Explorer) trägt die Gruppe Informationsmanagement der DFG dazu bei, das Förderhandeln der DFG transparent gegenüber der Öffentlichkeit darzustellen, Einsichten in aktuelle Entwicklungen der Forschungslandschaft zu vermitteln und Fakten für eine optimale Programmplanung zu liefern.

Im Rahmen der Veranstaltung erhalten die Teilnehmerinnen und Teilnehmer sowohl eine Kurzeinführung in die Entstehung, Verarbeitung und Nutzung von Daten als auch einen Überblick über zentrale datengestützten Informationsangebote zum Förderhandeln der DFG. Darüber hinaus erfolgt eine vertiefte Vorstellung von statistischen und datengestützten Angeboten, die sich spezifisch an Hochschulleitungen und Forschungsreferate wenden bzw. deren Arbeit unterstützen können (z.B. DFG-Förderatlas, Hochschul-Reports), sowie einen Einblick in zentrale methodische Fragen bei deren Erstellung.

Gastgeber:
Dr. Jürgen Güdler
William Dinkel
Christian Fischer

zurück zur Programmübersicht

… Deutsches Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval)

Evaluation hat in der Entwicklungszusammenarbeit in den letzten 20 Jahren zunehmend an Bedeutung gewonnen. Insbesondere vor dem Hintergrund eingeschränkter Zielerreichung, angespannter öffentlicher Haushalte und zum Teil massiver Kritik aus Öffentlichkeit und Wissenschaft rückte die Frage nach den Wirkungen und der Wirksamkeit von Programmen und Projekten in den Vordergrund.

Im geplanten Vortrag werden deshalb die historische Entwicklung der Evaluationspraxis in der (deutschen) Entwicklungszusammenarbeit nachgezeichnet, die spezifischen Herausforderungen dieses Themenfeldes skizziert (u. a. Komplexität und Kausalität) sowie exemplarisch drei jüngere DEval-Evaluationen anhand von Posterpräsentationen vorgestellt. Eingerahmt wird der Besuch durch eine kurze Vorstellung des DEvals und seiner Position in der Entwicklungspolitik und -zusammen-arbeit Deutschlands. Im Anschluss besteht die Möglichkeit zu Austausch und Diskussion.

Gastgeber:
Dr. Martin Bruder
Solveig Gleser
Sebastian Schneider

zurück zur Programmübersicht

… Hochschulrektorenkonferenz (HRK)

Die Hochschulrektorenkonferenz (HRK) ist der freiwillige Zusammenschluss der staatlichen und staatlich anerkannten Hochschulen in Deutschland. Die Mitgliedshochschulen werden in der HRK durch ihre Präsidien und Rektorate vertreten. Die HRK hat gegenwärtig 268 Mitgliedshochschulen, in denen rund 94 Prozent aller Studierenden in Deutschland immatrikuliert sind. Aufgrund dieser starken Mitgliedschaft, in der alle Hochschularten vertreten sind, ist die HRK die Stimme der Hochschulen gegenüber Politik und Öffentlichkeit und das zentrale Forum für den gemeinsamen Meinungsbildungsprozess der Hochschulen.

Die HRK befasst sich mit allen Themenfeldern, die Rolle und Aufgaben der Hochschulen in Wissenschaft und Gesellschaft betreffen, vor allem mit Lehre und Studium, Forschung, Innovation und Transfer, wissenschaftlicher Weiterbildung, Internationalisierung sowie den Fragen der hochschulischen Selbstverwaltung und Governance. Die HRK hat drei Aufgaben: Meinungsbildung und politische Vertretung, Grundlagen- und Standardentwicklung im Hochschulsystem sowie Dienstleistungen für die Hochschulen und die Öffentlichkeit
Im Rahmen des Besuchs wird der Generalsekretär der HRK, Dr. Jens-Peter Gaul, die HRK und Ihre Aufgaben erläutern und einzelne Projekte vorstellen.

Gastgeber:
Dr. Jens-Peter Gaul

zurück zur Programmübersicht

… Akkreditierungsrat

Die Akkreditierung wurde Ende der 1990er Jahre und vor der Unterzeichnung der Bologna-Erklärung Mitte 1999 in Deutschland als Teil eines großen Pakets von Studien- und Hochschulreformen eingeführt. Sie sollte (u.a.) mit der Einführung von Standards in Studium und Lehre eine ca. 40jährige Diskussion über die Qualität der Ausbildung beenden.

Seit 1999 regelt und organisiert der Akkreditierungsrat das deutsche System zur Akkreditierung von Studiengängen und (seit 2008) hochschulinternen Qualitätsmanagementsystemen. Derzeit wird die Rechtsgrundlage der Akkreditierung geändert. Der Akkreditierungsrat wird voraussichtlich ab 2018 selbst die Akkreditierungsentscheidungen übernehmen, die bisher von den einzelnen Akkreditierungsagenturen getroffen wurden.

Die jetzige Systemumstellung bietet einen Anlass, über Leistungen und Probleme, Reichweite und Grenzen externer Qualitätssicherung zu sprechen. Der Geschäftsführer Olaf Bartz wird mit weiteren Kolleg/inn/en den aktuellen Stand des Akkreditierungssystems vorstellen. Anschließend besteht Gelegenheit zum Austausch.

Gastgeber:
Dr. Olaf Bartz und weitere Kolleg(inn)en

zurück zur Programmübersicht

Regionalgruppensprecher-Treffen (13:30-14:30 Uhr)

Die Sprecher/inn/en der Regionalgruppen treffen sich im Rahmen der Jahrestagung. Es besteht Gelegenheit zum Austausch über angebotene Aktivitäten, Feedback zur Mitgliederwerbeaktion, Website, Jahrestagung etc.. Wünsche für die Gestaltung der Zusammenarbeit können ebenso eingebracht werden wie zur Präsenz der Regionalgruppen bei der nächsten Jahrestagung.

Beitragende:
Dr. Elisabeth Schepers

zurück zur Programmübersicht

Wie gründe ich eine Regionalgruppe (16:30-17:00 Uhr)

Die Mitglieder des Netzwerks sind weit verteilt, viele haben aber noch keine Regionalgruppe „vor der Haustür“. Gerade das regionale Netzwerk bietet große Vorteile für das Arbeiten als Wissenschaftsmanager/in: den Austausch mit anderen Fachleuten, Site Visits, Diskussion aktueller Themen, Einladung von Referent/inn/en aus Wissenschaft und Politik, etc. Wer sich die Gründung einer solchen Gruppe vorstellen kann oder sie begrüßen würde, hat hier Gelegenheit zu Information und Austausch.

Beitragende:
Dr. Elisabeth Schepers

zurück zur Programmübersicht

Erfolgsmessung in Forschung, Lehre und Transfer – Ein Handlungsfeld im Umbruch?

In den einführenden Impulsen wird der Stand der aktuellen Diskussion zur Erfolgsmessung in den genannten Bereichen vorgestellt und diskutiert.
Zentrale Fragen sind:

  • Welche Rolle und Relevanz hat die Erfolgsmessung für das jeweilige Handlungsfeld?
  • Welche aktuellen Herausforderungen werden gesehen?
  • Welcher Handlungsbedarf kann aus Sicht des Wissenschaftsmanagements benannt werden?

Kurzimpulse zur Erfolgsmessung

Moderation:
Julia Dietrich, Freiberufliche Beraterin, Köln

zurück zur Programmübersicht

30. November 2017

Workshopsession A (09:15 bis 10:45 Uhr)

A1: Leistung evaluieren und Leistung optimieren:
Qualitative und quantitative Aspekte der Leistungsmessung im Rahmen von Zielvereinbarungsgesprächen

Das jährliche Zielvereinbarungsgespräch gehört in den meisten Wirtschaftsunternehmen zum festen Inventar der Personalentwicklung und gewinnt zudem, spätestens seit den New Public Management Ansätzen, auch im Wissenschaftsmanagement zunehmend an Bedeutung. Die in diesem Vortrag skizzierte Konzeption integriert dabei sowohl die Leistungsevaluation, als auch den dialogisch zu eruierenden individuellen Weiterqualifizierungsbedarf, ohne das eigentliche Ziel eines solchen strukturierten Gespräches, die gemeinsame Festlegung von zu erreichenden Zielen, aus den Augen zu verlieren. Durch die Synthese aus persönlichem Feedback, Kompetenz-ermittlung, Entwicklungsplanung und Zielvereinbarung können die verschiedenen Intentionen zur Mitarbeitermotivation, Steigerung der Eigenverantwortlichkeit, Leistungstransparenz und Kompetenzentwicklung gemeinsam und damit effizienter adressiert werden.
Leitfragen:

  • Welche Formen der Zielvereinbarung spielen im modernen Wissenschaftsmanagement eine Rolle?
  • Wie und durch wen werden die dafür notwendigen Kompetenzen definiert?
  • Welche alternativen oder ergänzenden Anreizsysteme sind sinnvoll respektive notwendig?

Beitragende:
Andreas Mues, Kanzler der H:G Hochschule für Gesundheit & Sport, Technik & Kunst, Berlin; akademischer Geschäftsführer des Berliner Forschungszentrums Ethik
Dr. Tobias Weise, Personalreferent an der H:G Hochschule für Gesundheit & Sport, Technik & Kunst, Berlin; persönlicher Referent des Kanzlers

Raum: K1

zurück zur Programmübersicht

A2: Woran erkennen wir, dass es gut ist? Qualität in Studium und Lehre

Gemeinsam mit Ihnen wagen wir das Experiment, in einem ersten Schritt sichtbare Merkmale von Qualität in Studium und Lehre aus unterschiedlichen Blickwinkeln zu bestimmen. In einem zweiten Schritt leiten wir konkrete Handlungsoptionen ab, um Qualitätskultur operativ befördern zu können.

Wir laden Sie herzlich zu diesem zweiteiligen Workshop ein. Sie können sich einzeln der Annäherung an Qualität oder ihrer Beförderung widmen – maximal profitieren Sie jedoch, wenn Sie mit uns beide Teile gestalten. Dafür bitten wir Sie im Workshop um Ihre individuellen Perspektiven und Ihr Wissen.

Leitfragen:

  • Woran erkenne ich Qualität in Studium und Lehre?
  • Was bedeutet Qualität für verschiedene Statusgruppen?
  • Was kann ich konkret tun, um Qualität zu befördern?

Beitragende:
Susann Hippler, Bauhaus-Universität Weimar
Andreas Kettritz, Bauhaus-Universität Weimar
Sebastian Metag, Bauhaus-Universität Weimar

Raum: externer Raum

zurück zur Programmübersicht

A3: Politische Steuerung von Hochschulen mittels Kennzahlenberichten

Der Workshop soll die politische Steuerung der Hochschulen mittels des Darstellungs- und Analyseinstrumentes Kennzahlenberichte untersuchen. Nach einer kurzen Definition des Forschungsfeldes sowie der Akteur/inn/en/e soll der Fokus insbesondere auf dem Steuerungsverhältnis zwischen Politik und Hochschule liegen.

Leitfragen:

  • Wer sind die am Steuerungsprozess beteiligten Akteur/inn/en/e und welches sind die relevanten Kennzahlenberichte?
  • Inwieweit können die dargestellten Kennzahlenberichte die Hochschulen zweckadäquat abbilden und wird den Ministerien damit auch das richtige Instrument angeboten, um die Hochschulen ausreichend bewerten zu können?
  • Wie kann das Steuerungsverhältnis zwischen Politik und Hochschulen mittels der Kennzahlenberichte verbessert werden und welchen Beitrag können die am Steuerungsprozess beteiligten AkteurInnen leisten?

Beitragende:
Björn Möller, HIS-Institut für Hochschulentwicklung e. V., Hannover

Raum: S12

zurück zur Programmübersicht

A4: Alternative Metriken – Sind „Altmetrics“ reif für die Praxis in der Forschungsevaluation?

Es ist gelebter Alltag in der Wissenschaft, Forschungsleistungen über bibliometrische Ansätze zu bewerten. Das Zählen von Publikationen und Zitationen gehört genauso dazu wie die Nutzung dar-aus abgeleiteter bibliometrischer Indikatoren, wie des Journal Impact Factor oder des h-Indexes. Es ist das Ziel bibliometrischer Indikatoren, als Proxys den Wert von Forschung zu messen.

Alternativ zur Bibliometrie wurden in den letzten Jahren sogenannte Alternative Metriken (Altmetrics) entwickelt, deren Fokus vor allem auf die Rezeption von wissenschaftlichen Veröffentlichungen in Sozialen Medien und Netzwerken gerichtet ist. Altmetrics zählen views, downloads, clicks, notes, saves, tweets, shares, likes, recommends, tags, posts, trackbacks, discussions, book-marks und comments. Die Anbieter von Altmetrics propagieren, dass man mit diesen Metriken den Wert von Forschung im Sinne ihres gesellschaftlichen Impacts messen kann.

Leitfragen:

  • Was sind Altmetrics?
  • Wo werden Altmetrics aktuell angewendet? Welche Erfahrungen damit liegen vor?
  • Wie verlässlich und aussagekräftig sind Altmetrics?
  • Lösen diese neuen Metriken die Probleme, die es mit der Bibliometrie gibt?

Beitragende:
Dr. Dr. habil. Lutz Bornmann, Division for Science and Innovation Studies Administrative Headquarters of the Max Planck Society

Raum: S4

zurück zur Programmübersicht

A5: Erfahrungsaustausch zu Rankings: Entscheidung zur Teilnahme, Erhebung von Daten und Umgang mit den Ergebnissen

Rankings sind aus der Welt der Hochschulen nicht mehr wegzudenken. Die Spannweite reicht dabei von nationalen zu internationalen Rankings und von stark lehrbezogenen zu eher forschungsbezogenen Rankings. Zahlreiche Gründe sprechen für oder gegen die aktive Teilnahme, wobei diese Gründe von den Stakeholdern innerhalb einer Hochschule unterschiedlich gewichtet sein können. Zudem zeigen sich große Unterschiede von Fächerkulturen in der Akzeptanz von Rankings. Gerade bei internationalen Rankings wird oft deutlich, wie unterschiedlich Hochschulsysteme weltweit aufgestellt sind. In einigen Fällen lassen sich die erfragten Merkmale nicht mit den in Deutschland üblichen Kategorien der Hochschulstatistiken in Einklang bringen. Hochschulrankings können von verschiedenen Zielgruppen für unterschiedliche Zwecke genutzt werden. Für eine Hochschule ist daher oft schwer abzuschätzen, welche Vorteile eine Teilnahme bringt.
Im Rahmen dieses Workshops sollen Erfahrungen zu diesen und weiteren Aspekten ausgetauscht werden.

Leitfragen:

  • Was spricht für eine Teilnahme an Hochschulrankings, was dagegen?
  • Wie kann die internationale Vergleichbarkeit von Rankingergebnissen erreicht werden?
  • Wie und wem nutzen Hochschulenrankings?

Beitragende:
Dr. Anja Lotz, Philipps-Universität Marburg
Stella Henne, Justus-Liebig-Universität Gießen

Raum: S5

zurück zur Programmübersicht

A6: Leistungsmessung im Transfer

Leistungsmessung und Evaluation erfassen seit Ende der 90er Jahre auch zunehmend Forschungseinrichtungen und Hochschulen. Sie sollen der Sicherung und Entwicklung der Qualität dienen – bislang vornehmlich in den Feldern Studium, Lehre und Forschung. Auch der “Kerndatensatz Forschung” (KDSF) mit der Setzung von Standards, die eine harmonisierte Erfassung und Vorhaltung von Forschungsinformationen über Forschungseinrichtungen in Deutschland hinweg ermöglichen sollen, gehört in dieses Themenfeld und berührt auch den Bereich der „Third Mission“.
Mit deren stärkerem Stellenwert und dem darin eingebetteten Wissenstransfer gewinnt die „Performance“ dieses Handlungsfelds zunehmend Bedeutung. Von hochschulinternen Vorgaben abgesehen lässt sich dieser Prozess aber noch zögernd an. Man trifft hier natürlich auf alle Probleme und Ebenen, die auch bei anderen Evaluierungen anstehen, wie z. B. verfügbare Datenbestände und Informationssysteme.
Im Workshop sollen die Praxiserfahrungen der TU Dortmund auch vor dem Hintergrund des Transfer Audits vorgestellt und Modelle diskutiert werden.
Leitfragen:

  • Woran kann die Transferleistung einer Hochschule gemessen werden?
  • Worin liegen die Grenzen?
  • Was gewinnt die Hochschule daraus?

Beitragende:
Fritz Krieger, Technische Universität Dortmund

Raum: K2

zurück zur Programmübersicht

A7: Gesellschaftlicher Nutzen – gefordert! gemessen? gefördert?

Zum gesellschaftlichen Nutzen der Forschung eine fundierte Aussage zu treffen ist attraktiv – und herausfordernd. Umzugehen ist mit einer großen Kriterienvielfalt und wenigen Informationen dazu, einem time-gap zwischen Forschung und Nutzen sowie komplexen Innovationsnetzwerken. Evaluierung soll qualitativ hochwertig wie auch umsetzbar sein und die erwünschten Steuerungseffekte im Transfer hervorrufen.
Unsere Arbeiten zielen auf Synergien mit der Forschungsförderung um diese Herausforderungen zu meistern: Gesellschaftliche Leistungen der Forschung werden innerhalb von Förderprozessen und mit Nutzen für den Wissenstransfer durch ein erweitertes Forschungsinformationssystem erfasst. Der Evaluierungsprozess schließt außerwissenschaftliche Akteure ein, verstärkt Wirkungen durch Multiplikatoreffekte und Reflexionsprozesse und bringt die Vielfalt in eine zusammenfassende Projektbewertung.

Leitfragen:

  • Sind für gesellschaftlichen Nutzen ausgezeichnete Projekte ein geeigneter Indikator für Forschungseinrichtungen?
  • Welche Anforderungen bestehen an einer solchen Indikatorik?
  • Welchen Stellenwert kann gesellschaftlicher Nutzen in den Steuerungssystemen der Wissenschaft erzielen?

Beitragende:
Dipl.-Ing. Birge Michaela Wolf, Universität Kassel
Dipl.-Ing. Thorsten Michaelis, freiberuflicher Berater

Raum: 152 a/b

zurück zur Programmübersicht

A8: Verfahren der Leistungsmessung in der Lehre – Deutschland im internationalen Vergleich

Leistungsmessende Verfahren im Hochschulbereich haben in den vergangenen Jahren erheblich an Bedeutung gewonnen. An Universitäten lässt sich für den Bereich der Forschung eine zunehmend externalisierte und internationale Ausrichtung sowie eine Verwissenschaftlichung der Messverfahren beobachten. Zwar sind auch im Bereich der Lehre externe Akteure beteiligt, aber die für die Leistungserstellung verantwortlichen Hochschulen sind in hohem Maße in die Verfahrensausgestaltung eingebunden. Zudem spielt die (internationale) Vergleichsperspektive für die Lehre im Vergleich zur Forschung eine nur marginale Rolle.
Vorgestellt werden Ergebnisse aus dem Projekt „Leistungsmessung und -beurteilung für Universitäten“. Diese beinhalten neben einer Bestandsaufnahme und Charakterisierung der leistungsmessenden Verfahren im Bereich Lehre an deutschen Universitäten auch eine Auswertung ausgewählter Hochschulsysteme.

Leitfragen:

  • Welche leistungsmessenden Instrumente im Bereich Lehre sind an deutschen Universitäten im Einsatz und welche Kriterien werden dabei zugrunde gelegt?
  • Wie stellt sich die deutsche Situation im Vergleich zu ausgewählten Ländern dar?
  • In welchem Verhältnis finden qualitative und quantitative Aspekte der Leistungserstellung bei Verfahren der Leistungsmessung Berücksichtigung?

Beitragende:
Dr. Axel Oberschelp, Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW), Hannover
Felix Niggemann, Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW), Hannover

Raum: S3

zurück zur Programmübersicht

Workshopsession B (11:15 bis 13:00 Uhr)

B1: „Bei der Leistungsbewertung und auf hoher See sind wir alle in Gottes Hand.“
Zwischenevaluierung von Juniorprofessor/inn/en als Herausforderung für das Wissenschaftsmanagement an Hochschulen – Ein Erfahrungsaustausch

Nach den Vorgaben der Hochschulgesetze der Länder müssen die Arbeitsergebnisse von Juniorprofessorinnen und Juniorprofessoren einer Zwischenevaluation unterzogen werden. Die Verfahren und die Kriterien der Bewertung sind in den Evaluationssatzungen der Hochschulen geregelt. Neben der wissenschaftlichen Leistung werden darin oft auch „weiche“, nur schwer quantifizierbare Arbeitsergebnisse zur Beurteilung herangezogen. Bewertet werden etwa Lehrleistungen sowie Personalführungskompetenzen und „außeruniversitäre Kompetenzen“.
Für das Wissenschaftsmanagement der Hochschulen ergeben sich daraus und vor dem Hintergrund des Tenure-Track-Programms des Bundes und der Länder Herausforderungen an verschiedenen Stellen. Diese Herausforderungen sollen zum Anlass genommen werden, um in einen Erfahrungsaustausch mit verschiedenen Akteuren aus der Wissenschaft und der Hochschule zu treten.

Leitfragen:

  • Welche Leistungsindikatoren werden in der Zwischenevaluation zur Feststellung der „Bewährung“ junger Professorinnen und Professoren herangezogen?
  • Was wissen wir über die Zuverlässigkeit dieser Indikatoren und welche methodischen Fallstricke ergeben sich gegebenenfalls bei der Verwendung „weicher“ Leistungsindikatoren? Welche Lösungsmöglichkeiten gibt es?
  • Welche Unterstützungsangebote für junge Professorinnen und Professoren können Hochschulen implementieren, um die Transparenz von Evaluationsverfahren zu erhöhen?

Beitragende:
Dr. Kalle Hauss, Humboldt-Universität Berlin
Prof. Dr. Philipp Pohlenz, Otto-von-Guericke-Universität Magdeburg
PD Dr. Bernd Kleimann, Deutsches Zentrum für Hochschul- und Wissenschaftsforschung GmbH (DZHW)
Prof. Dr. Felix Krahmer, Vorstandmitglied der Deutsche Gesellschaft Juniorprofessur e. V.

Raum: S4

zurück zur Programmübersicht

B2: Wunsch und Realität. Storytelling mit Third Mission

Third Mission steht derzeit auf vielen hochschulpolitischen Agenden. Dabei werden sowohl positive als auch negative Aspekte gesehen. Endlich können Aktivitäten als (Hochschul-) Leistung dargestellt werden, die bislang nur als „Nebenprodukt“ des akademischen Alltags betrachtet wurden. Aber es wird auch gefragt, warum überhaupt Aktivitäten durchgeführt werden (sollen), die nicht zu Forschung oder Lehre gehören.
Im Workshop soll der Fokus auf die positiven Komponenten gelegt werden, in dem anhand von Beispielen herausgearbeitet wird, wie Third Mission zum Storytelling genutzt werden kann. Die Workshopteilnehmer/innen haben die Möglichkeit, anhand einer kurzen Selbsteinschätzung zu prüfen, ob ihre Hochschule bereits ein ausgeprägtes Profil im Bereich Third Mission hat. Sofern gewünscht, soll gemeinsam im Workshop überprüft werden, ob auch die Darstellung der Hochschule im Internet und die Außenwahrnehmung mit der Selbsteinschätzung übereinstimmt. Alternativ werden vorbereitete Beispiele mit den Teilnehmer/inne/n besprochen.

Leitfragen:

  • Was ist Third und wie kann sie zum Storytelling genutzt werden?
  • Wie steht meine eigene Hochschule im Bereich Third Mission da?
  • Wie stark unterscheiden sich Wunsch und Realität?

Beitragende:
Dr. Isabel Rössler, CHE Centrum für Hochschulentwicklung

Raum: S12

zurück zur Programmübersicht

B3: Die Nutzung von Kennzahlen bei der Deutschen Forschungsgemeinschaft (DFG)

Die Deutschen Forschungsgemeinschaft (DFG) fördert als zentrale Selbstverwaltungsorganisation der deutschen Wissenschaft Forschungsprojekte in allen Disziplinen. Jeder Antrag wird dabei allein auf Basis seiner Qualität individuell begutachtet und bewertet.
Neben einer Einführung in die Aufgaben und Prozesse der DFG zeigt dieser Vortrag auf, inwiefern die DFG Kennzahlen zur Dokumentation und Steuerung ihrer Aktivitäten (Projektberichterstattung, Programmevaluation, Services für Mitgliedshochschulen etc.) einsetzt und an welchen Stellen sie bewusst darauf verzichtet. Darüber hinaus wird anhand von Beispielen illustriert, welche Kennzahlen gegenüber den Mittelgebern und der Öffentlichkeit berichtet werden, z.B. im Rahmen des Monitorings des Pakts für Forschung und Innovation und des DFG-Förderatlas. Im Anschluss an den Vortrag besteht Möglichkeit zur Diskussion.

Leitfragen:

  • Wie wählt die DFG eingereichte Projektanträge aus?
  • Wie werden Kennzahlen in der Programmberichterstattung und zur Programmevaluation eingesetzt?
  • Inwiefern informiert die DFG auf Basis von Kennzahlen die Mittelgeber und die Öffentlichkeit?

Beitragende:
Dr. Jürgen Güdler, Leiter der Gruppe Informationsmanagement der Deutschen Forschungsgemeinschaft (DFG)

Raum: K1

zurück zur Programmübersicht

B4: „Vermittlung zwischen den Welten“. Akzeptanz für interne Leistungsmessung – die Rolle von Wissenschaftsmanagern

Wissenschaftsmanager an Hochschulen und Universitäten stehen immer zwischen den Fronten. Dies ist gerade dann der Fall, wenn Projekte der Hochschulleitung an die Lehrenden kommuniziert werden müssen. Die Messung von Leistung steht dabei ganz weit vorne an. Hier ist es oft eine gute Voraussetzung, wenn die Wissenschaftsmanager selbst aus der Lehre kommen, da sie dann die gleiche Sprache wie die Professoren “sprechen”. Sie können zeigen, dass sie sich mit der Lage und der Position der Fachvertreter identifizieren können. Gleichzeitig müssen sie einen sehr engen Kontakt zum Rektorat oder zum jeweiligen Dekanat haben, um frei agieren und vermitteln zu können – nur so lässt sich die Schnittstellenposition zwischen Lehrenden und Verwaltung ausfüllen. Als „Anwälte“ arbeiten Wissenschaftsmanager in beide Richtungen, um Vertrauen – eine Grundvoraussetzung – zu schaffen und die verschiedenen Perspektiven in Deckung bringen zu können. Es gilt, die Vorteile für alle Beteiligten aufzuzeigen und zu kommunizieren.
Nach einem Impulsvortrag als Einstieg soll der Blick auf die eigenen Erfahrungen der Teilnehmer gerichtet werden, die gesammelt und diskutiert werden. In einem zweiten Schritt sollen Best-Practice-Beispiele daraus abgeleitet werden. Diese werden dokumentiert und im Nachgang zum Workshop zur Verfügung gestellt (Fotoprotokoll).

Leitfragen

  • Leben in zwei Welten? Haben Hochschulleitungen immer die gleiche Vorstellung – wie die eigenen Lehrenden – davon, was „Leistung“ in Forschung und Lehre eigentlich ist? Wie und wo passt da die Verwaltungsperspektive noch dazu?
  • Bedarf es überhaupt einer internen Leistungsmessung an Hochschulen?
  • Sind in Sachen Leistungsmessung Unterschiede zwischen den staatlichen und den privaten Hochschulen zu identifizieren, wenn es um die Frage nach der internen Leistungsbemessung geht? (Motive)

Beitragende:
Dr. Rüdiger von Dehn, Northern Business School – Hochschule für Management und Sicherheit, Hamburg

Raum: 152 a/b

zurück zur Programmübersicht

B5: Wie international sind wir? Und woher wissen wir das?
Eine szenische Umsetzung von Diskussionen um die Erfolgsmessung in Internationalisierungsprozessen

„Und? Wie viele Austauschstudierende habt ihr?“ So oder ähnlich können Fragen zur Internationalisierung einer Hochschule lauten. Doch Internationalisierungsprozesse sind komplexe Prozesse strategischer Organisationsentwicklung. Und damit nicht leicht durch plakative Zahlen beschreibbar bzw. einzuschätzen. Gängige Indikatoren wie die Anzahl von incomings oder outgoings bei den Studierenden (student mobility) oder beim Lehrpersonal (staff mobility) oder die Anzahl englischsprachiger Lehrveranstaltungen sind zwar sinnvoll, aber nicht im geringsten hinreichend, um die Internationalität von Studiengängen zu beschreiben. Für jedes Fach, für jeden Studiengang, für jede Universität sind passgenaue Ziele und daraus abgeleitete Indikatorsysteme sinnvoll. Bei der Ausarbeitung derselben, sollten verschiedene Perspektiven der Beteiligten berücksichtigt werden.
Anhand zweier szenischer Sequenzen (Diskussionsszenarien mit verteilten Rollen) werden Kernthemen der Internationalisierung mit dem Blick auf das Controlling lebendig. Dabei liegt der Fokus auf Spannungsfeldern im Interessensgefüge beteiligter Stakeholder. Ein Szenario legt den Schwerpunkt auf die Bildung, das andere auf die Forschung.

Leitfragen:

  • Wie gut wissen Sie über die Ziele der Internationalisierung an Ihrer Einrichtung Bescheid?
  • Welche Indikatoren werden zur Beurteilung herangezogen?
  • Wer ist wie in die Zielformulierung eingebunden? Wer definiert die Indikatoren? Wer setzt die Maßnahmen um? Und wer kontrolliert die Erreichung der Ziele?

Beitragende:
Dr. Katja Pook, Universität Koblenz-Landau
Dr. Ferdinand Esser, Universität Oldenburg
Dr. Florian Bernstorff, Universität Koblenz-Landau
Florian Grubitzsch, Jacobs University Bremen gGmbH

Raum: S5

zurück zur Programmübersicht

B6: Verwaltungsbenchmarking an Hochschulen: Zählst du noch oder lernst du schon?

In Benchmarking-Projekten lassen sich aufgabenbezogene Indikatoren dazu nutzen, erste Rückschlüsse auf eigene Optimierungspotenziale zu ziehen. Damit erhält eine Hochschule erste Hinweise, in welchen Verwaltungsbereichen sie „anders“ ist als andere Hochschulen. Diese Unterschiede finden dann entweder eine hochschulspezifische Erklärung oder können als Ausgangspunkt für weitere, tiefere Analysen dienen.
Auch wenn im Benchmarking das „voneinander lernen“ im Mittelpunkt stehen soll und Indikatoren prinzipiell nur als Ausgangspunkt für tiefere qualitative Betrachtungen Verwendung finden, reduziert sich die Diskussion oft allein auf die Zahlen. In der Folge wird dann weniger konstruktiv nach vorne gedacht; vielmehr nehmen oft Methodenkritik und Rechtfertigungsstrategien einen überdimensional breiten Raum ein und das Lernen gerät darüber in Vergessenheit. Diesbezügliche Erkenntnisse und Erfahrungen aus zahlreichen Benchmarking-Projekten der HIS-HE werden präsentiert und dann im Teilnehmer/innenkreis diskutiert.
Leitfragen:

  • Wie können wir einer Zahlenfixiertheit in solchen oder ähnlichen Projekten begegnen?
  • Welche Strategien zur Vorbeugung gibt es?
  • Und wie kommt man von den Zahlen auch wieder los?

Beitragende:
Dr. Harald Gilch, HIS-Institut für Hochschulentwicklung e. V., Hannover

Raum: K2

zurück zur Programmübersicht

B7: Aligning Incentives: Möglichkeiten zur Förderung offener Wissenschaft im Rahmen herkömmlicher Erfolgsmessung

Open Science ist in aller Munde. Über nahezu alle Disziplinen hinweg bekennt sich die Wissenschaft dazu, offen(er) zu publizieren, Forschungsdaten und Quellcode bereit zu stellen. Immer mehr Geldgeber machen Offenheit zur Bedingung für Förderung und lassen Open Science damit zunehmend auch zu einem institutionellen Thema für Wissenschaftseinrichtungen werden. Gleichwohl sind die Vorteile von Offenheit – jenseits des normativen Reizes – nicht immer offensichtlich. Sie kostet Zeit (Dokumentation) und steht oft in einem Spannungsverhältnis zu etablierten Leistungskriterien (Open Access vs. Impact). Der Workshop will vor diesem Hintergrund einen Informations- und Ideenaustausch u. a. zu folgenden Fragen ermöglichen:

Leitfragen:

  • An welchen Stellen gibt es Zielkonflikte zwischen „etablierter“ Erfolgsmessung und den Zielen von Open Science?
  • Welche Indikatoren und Zielsysteme könnten Anreize für Open Science stärken?
  • Ist es sinnvoll, offene(re) Wissenschaft institutionell (mit) zu steuern?
  • Welche Rahmenbedingungen gelten für eine mögliche Neujustierung von Erfolgsmessung?

Beitragende:
Dr. Bernhard Miller, GESIS – Leibniz-Institut für Sozialwissenschaften, Mannheim

Raum: S3

zurück zur Programmübersicht

B8: Weiterführung von A2 (siehe oben)

Raum: externer Raum

zurück zur Programmübersicht

Abschlusspanel: Entwicklungsperspektiven für die Erfolgsmessung in Forschung, Lehre und Transfer – die Sicht der Akteure

Auf dem Abschlusspanel “Entwicklungsperspektiven für die Erfolgsmessung in Forschung, Lehre und Transfer” wird aus der Perspektive der Akteure ein Blick in die Zukunft geworfen: Für wen und wie soll der Erfolg von Wissenschaftseinrichtungen gemessen werden?

Leitfragen sind:

  • Welche Erfahrungen werden mit dem Einsatz qualitativer und quantitativer Bewertungen gemacht?
  • Welche Formen der Leistungsmessung eignen sich für welche Zielsetzung?
  • Wie wird die Steuerungsleistung der unterschiedlichen Verfahren eingeschätzt?
  • Wie können Leitungen von Wissenschaftseinrichtungen Akzeptanz für ihre internen Verfahren der Leistungsmessung erzeugen?

Beitragende:
Dr. Simone Schwanitz, Leiterin der Abteilung Forschung, Technologietransfer, Digitalisierung, Europa, Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg
Prof. Dr. Anja Steinbeck, Rektorin der Heinrich Heine Universität Düsseldorf
Dr. Katrin Milzow, Leiterin Strategische Planung und Controlling, Schweizer Nationalfonds zur Förderung der wissenschaftlichen Forschung
Dr. André Lottmann, Leiter Bereich Wissenschaftsförderung, Stiftung Charité Berlin

Moderation:
Dr. Hanna Proner, Leiterin Personal- und Forschungsmarketing, DIE ZEIT

zurück zur Programmübersicht