Klaus Marquardt: Deutscher Lernatlas 2011 der Bertelsmann Stiftung
Abstract
Der Ende 2011 von der Bertelsmann Stiftung vorgestellte Deutsche Lernatlas will „Bürgern und Entscheidern einen Blick auf ihre regionale Bildungslandschaft“ ermöglichen. Dieses Klassenziel wird weit verfehlt. Nicht nur stellt sich heraus, dass mit dem gewählten Verfahren Bildung gar nicht gemessen wird (nicht einmal: gemessen werden soll), sondern dass die gewählte Perspektive auf das Thema Lernen für die kommunale Bildungspolitik irrelevant ist.
Einleitung
Am 21.11.2011 stellte die Bertelsmann Stiftung in einer Pressemitteilung ihre Studie „Deutscher Lernatlas 2011" vor, dessen exklusive Erstverwertung am gleichen Tag im Nachrichtenmagazin „Der Spiegel" begann. Als Ranking aller kreisfreien Städte und Kreise in Deutschland ausgeführt, durchlief der „Deutsche Lernatlas" (im Folgenden: DLA) den typischen Aufmerksamkeitsverlauf für diese Art von derzeit sehr populären „Bundesligatabellen": Die Seriosität des Herausgebers sicherte ein, zwei Tage lang Meldungen im Hauptteil von Tageszeitungen und in überregionalen TV-Nachrichtensendungen, in Regionen mit bemerkenswert guten, v. a. aber in solchen mit schlechten Ergebnissen wurde unter Umständen noch kurze Zeit in Regional- oder Lokalformaten nachgefasst, danach aber wurde es sehr ruhig um den DLA.
Anders als bei den meisten vergleichbaren Rankings, die in vielen Fällen ausschließlich dem Reklamebedürfnis der durchführenden Institute dienen,1 lohnt sich in diesem Fall, trotz der ausbleibenden publizistischen Langzeitwirkung, eine inhaltliche Auseinandersetzung. Für die Bertelsmann Stiftung ist der Bildungsbereich ein zentrales Handlungsfeld in ihrem Versuch, die Diskussion wichtiger gesellschaftlicher Themen durch eigene Inputs sowohl anzureichern als auch zu steuern. Der DLA ist daher nicht als Ranking-Eintagsfliege, sondern – mindestens in seinem spezifischen Blickwinkel auf das Thema Lernen – auf Dauerwirkung angelegt. Seine nun folgende kritische Reflexion geschieht vor dem Hintergrund einer beruflichen Befassung mit Fragen der Stadtentwicklung in einer mittelgroßen Ruhrgebietsstadt.2
Der Ergebnisbericht der Studie, ihr methodisches Konzept sowie interaktive Auswertungen für einzelne Städte und Kreise bzw. einzelne Merkmale sind online unter www.deutscher-lernatlas.de abzurufen. Die kritische Bewertung des DLA wird erleichtert durch die in Städterankings nicht immer übliche Transparenz des methodologischen Konzepts bei der Erstellung des DLA-Index,3 das allerdings andererseits durch die verwendete Fachsprache der empirischen Sozialforschung Nutzern ohne entsprechende Vorkenntnisse das Verstehen sehr erschwert. Die Methodenbeschreibung im Ergebnisbericht4 (S. 86ff) ist demgegenüber sehr anschaulich und wird im Folgenden als Grundlage dienen. Bei bestimmten „Knackpunkten" des Verfahrens wird das methodologische Konzept hinzugezogen.
Inhaltliches und methodisches Vorgehen des Lernatlas
Ziel der Untersuchung
In der Bezeichnung „Deutscher Lernatlas" wird nicht eindeutig klar, was im Vergleich von Städten und Kreisen gemessen werden soll: Lernbedingungen (beim schulischen Lernen bspw. die Klassengröße) oder Lerneffekte (beim schulischen Lernen bspw. das Ergebnis von Lernstandserhebungen). In der Einleitung des DLA-Ergebnisberichts wird als Ziel der Untersuchung eindeutig das Erstere angegeben:
»Die zentrale Frage lautet daher nicht mehr, „wie ein bestimmter Stoff möglichst erfolgreich gelehrt werden kann, sondern welche Lern(um)welten selbstbestimmtes Lernen am ehesten stimulieren […]" (Alheit und Dausien 2009, S. 719). Leben die Menschen in einer Umgebung, die sie anregt, neue Erfahrungen zu machen und sich vielseitig weiterzubilden? Haben sie einen Arbeitsplatz, der ihr Können abwechslungsreich herausfordert? Gibt es Freizeitangebote, die sie dabei fördern, ihre Talente zu entdecken und kreativ zu werden? Das sind für jeden Einzelnen wichtige Aspekte, wenn es um lebenslanges Lernen geht. Der Deutsche Lernatlas hat es sich zur Aufgabe gemacht, diese Fragen für die regionale Ebene in Deutschland zu beantworten.«
Deutscher Lernatlas. Ergebnisbericht 2011, S. 6
Die Unterscheidung ist selbst dann nicht trivial, wenn man die Lerneffekte als mehr oder weniger direkten Ausfluss der Lernbedingungen ansieht. In diesem Fall ist mindestens die zeitliche Differenz in Rechnung zu stellen zwischen bspw. Verbesserungen der Lernbedingungen und ihren Auswirkungen auf die Lerneffekte. Tatsächlich jedoch werden Lerneffekte durch eine Vielzahl von Faktoren beeinflusst – beim schulischen Lernen etwa durch die familiäre Unterstützung des Lernprozesses, die eng mit der sozialen Herkunft und Lage gekoppelt ist –, sodass die konzeptionelle Eindeutigkeit dessen, was gemessen werden soll, von großer Wichtigkeit ist. In dem häufig auftretenden Fall, dass Effekt-Kennzahlen ersatzweise einbezogen werden müssen, weil Bedingungs-Kennzahlen nicht zur Verfügung stehen, muss im Forschungsprozess reflektiert werden, dass auf diese Weise nur indirekt auf die Bedingungen zurückgeschlossen werden, sich darüber hinaus die Fragestellung von einem „Wo kann am besten gelernt werden?" auf ein „Wo wohnen die am besten Lernenden?" verschieben kann.
Die im Zitat ausgedrückte eindeutige Absicht wird jedoch nicht nur durch solche, auch bei der „Bildungsmessung" auftretende Probleme der Datenlage beeinträchtigt, sondern sogar im Ergebnisbericht selbst dementiert:
»Grundsätzlich ist die Auswahl von geeigneten Lern- und Bildungskennzahlen für einen Index eine besondere Herausforderung, da es auf kommunaler Ebene kaum vergleichbare Kennzahlen gibt, die den direkten Effekt von Lernaktivitäten in Form von tatsächlich erworbenen Kompetenzen (wie z. B. bei PISA) messen. Deshalb muss häufig auf vergleichbare „indirekte" Kennzahlen zurückgegriffen werden. Diese beziehen sich entweder auf das Angebot oder die Verfügbarkeit von Lernmöglichkeiten (Infrastruktur), auf die Teilnahme an diesen Lernprozessen oder auf Verhaltensweisen, Einstellungen und Überzeugungen, die unmittelbar mit diesen Lernprozessen in Verbindung gebracht werden können.«
Deutscher Lernatlas. Ergebnisbericht 2011, S. 86
Hier wird als eindeutiges Ziel der Untersuchung die Messung von Lerneffekten angegeben, von dem ersatzweise auf deren indirekte Messung mittels Kennzahlen über u. a. Lernbedingungen abgewichen worden sei. Bei einer – eigenen – Einordnung der letztlich verwendeten 38 Kennzahlen in solche, die Lernbedingungen, Lerneffekte oder individuelles Lernverhalten messen, macht die Messung der Lernbedingungen am Gesamtindexwert (unter Berücksichtigung der Gewichtung) nur rund ein Drittel aus, die der Lerneffekte etwa zwei Fünftel und die des Lernverhaltens knapp ein Viertel.
Auswahl der Untersuchungseinheiten
Wie aus dem ersten Langzitat bereits ersichtlich, ist das Ziel des Deutschen Lernatlas eine regionale Differenzierung der „Lernlandschaft" Deutschlands. Untersuchungsebene ist die der „412 deutschen Kreise und kreisfreien Städte" (Ergebnisbericht, S. 6). Warum dies so ist, wird im DLA nicht hergeleitet. Eine solche Begründung wäre jedoch umso notwendiger gewesen, als ein großer Teil der verwendeten Daten gar nicht auf der Ebene der Kreise und kreisfreien Städte vorliegt. Für die Stadt Herne etwa liegen – gemessen an ihrer Gewichtung – nur knapp die Hälfte der eingegangenen Kennzahlen tatsächlich vor, die übrigen sind aus übergeordneten Einheiten – Land NRW, Regierungsbezirk Arnsberg, Arbeitsagenturbezirk Bochum usw. – übernommen. Insbesondere der am stärksten in den Gesamtindex eingegangene Teilindex zum schulischen Lernen (37,5 %) beruht zu drei Fünftel auf überkommunalen Daten.
Der Ergebnisbericht verschweigt dies keineswegs und die jeweils gleich lautende Begründung für die Einbeziehung der nur auf Landesebene verfügbaren Ergebnisse aus den PISA-, IGLU- und IQB-Erhebungen klingt zunächst plausibel:
»Eine Nichtberücksichtigung dieser wichtigen Kennzahl zur Kompetenzentwicklung würde implizieren, dass es keine Unterschiede bei den Bildungserfolgen in diesem Bereich zwischen den Bundesländern gibt.«
Deutscher Lernatlas. Ergebnisbericht, S. 26 (mehrmals)
Allerdings ist Bestandteil des DLA auch ein Vergleich der Bundesländer (Ergebnisbericht, S. 14f). In diesen Vergleich sind die Landesdaten eingegangen, in diesem Vergleich sind sie auch sinnvoll. Unverständlich ist aber, dass auf unterschiedlichen räumlichen Ebenen mit unterschiedlicher Datenverfügbarkeit – und aufgrund der Regelungskompetenz unterschiedlicher Fragestellung! – nicht auch mit unterschiedlich angepassten Indizes gearbeitet worden ist.
In anderer Art und Weise hat der DLA hingegen explizit auf den „Vergleich von Äpfeln mit Birnen" verzichtet:
»[D]er Deutsche Lernatlas bietet nicht die Möglichkeit, eine Rangliste mit allen Kreisen und kreisfreien Städten zu erstellen. Der Grund hierfür ist, dass dieser Vergleich – ähnlich wie ein Vergleich von Äpfeln mit Birnen – nicht sinnvoll ist. Aus der Gegenüberstellung der Ergebnisse einer Großstadt und einer ländlichen Region können wegen ihrer unterschiedlichen Bevölkerungs- und Infrastruktur nur sehr eingeschränkt aussagekräftige Schlussfolgerungen abgeleitet werden.«
Deutscher Lernatlas. Ergebnisbericht, S. 90
Im DLA sind vor dem Hintergrund dieser Überlegung die kreisfreien Städte und Kreise in jeweils drei unterschiedliche Regionstypen eingeteilt worden, die sich an einer Typologie des Bundesamtes für Bauwesen und Raumordnung orientieren (Ergebnisbericht, S. 10). Rangplätze vergibt der Lernatlas folgerichtig nur innerhalb des gleichen Regionstyps, also innerhalb einer Gruppe von in Größe, Lage und Verdichtung vergleichbaren Einheiten. Das hat einzelne Medien nicht daran gehindert, trotzdem den Landkreis Main-Spessart mit dem bundesweit höchsten Indexwert als Gesamtbesten zu küren. Dieser Überinterpretation leistet der DLA aber selbst Vorschub. Durch seine Darstellungsform als Atlas, d. h. also mit seiner flächendeckenden Abbildung aller sechs Regionstypen mit ihren Indexwerten, erzeugt er gerade die im Text dementierte Vergleichbarkeit mit großer Wirkungskraft. Der er in seinen Interpretationen auch selbst unterliegt, wenn etwa auf das „Süd-Nord-Gefälle im Bereich
‚Schulisches Lernen'" hingewiesen wird oder darauf, dass „in der Dimension ‚Berufliches Lernen' […] sich tendenziell ein Südwest-Nordost-Gefälle" zeige (Ergebnisbericht, S. 12; Hervorhebung nicht im Original).
Auswahl der Kennzahlen
Entsprechend einem Vier-Säulen-Lernmodell der UNESCO definiert die Untersuchung vor Beginn der Kennzahlenauswahl vier „Lerndimensionen": schulisches Lernen, berufliches Lernen, soziales Lernen und persönliches Lernen (Ergebnisbericht, S. 6). Diesen Lerndimensionen wurden mit Expertenunterstützung insgesamt „mehr als 300 Lern- und Bildungskennzahlen" zugeordnet (S. 86). Durch wiederholte Anwendung von mathematisch-statistischen Verfahren (Regressionsanalysen und Faktorenanalysen, nach Ost- und Westdeutschland getrennt), jeweils gekoppelt mit Experteneinschätzungen, wurde die Anzahl der schließlich ins Rankingverfahren eingegangenen Merkmale auf je Lerndimension 8-10, insgesamt auf 38 reduziert (ebd. sowie Methodologisches Konzept, passim). Folgende Ausschlusskriterien wurden dabei angewendet (Methodologisches Konzept, passim):
• Wenn Variablen (die gemessenen Merkmale) nicht die erwartete Richtung eines statistischen Zusammenhangs mit den übrigen Merkmalen der jeweiligen Lerndimension aufwiesen oder der statistische Zusammenhang mit ihnen zu schwach ausgeprägt war, wurden sie eliminiert. (Leitfrage: „Wird überhaupt gemessen, was gemessen werden soll?")
• Wenn Variablen mit anderen Variablen der jeweiligen Lerndimension zu starke statistische Zusammenhänge aufwiesen, wurden sie – bis auf eine „stellvertretende" Variable – eliminiert. („Wird Gleiches mehrfach gemessen?")
• Wenn Variablen in Ost- und Westdeutschland entgegengesetzte statistische Zusammenhänge mit der jeweiligen Lerndimension auf einem definierten Signifikanzniveau aufwiesen, wurden sie eliminiert. („Gehen unterschiedliche Lebensbedingungen in Ost und West zu stark ein?")
• Wenn Variablen einen zu schwachen statistischen Zusammenhang mit einem zuvor aus 15 sozioökonomischen Kennzahlen konstruierten Faktor „Human- und Sozialkapital" aufwiesen, wurden sie eliminiert. (Leitfrage: ? – siehe unten)
Im Methodologischen Konzept wird bei der Beschreibung solcher Ausschlussentscheidungen an mehreren Stellen jeweils in einer Fußnote darauf hingewiesen, dass in Ausnahmefällen Variablen im Messinstrument verblieben sind, obwohl sie die formalen Kriterien nicht erfüllten – weil sie „aufgrund ihrer zentralen inhaltlichen Bedeutung als relevant eingestuft" wurden (bspw. S. 18, Anm. 3).
Während die ersten beiden Ausschlusskriterien methodisch selbstverständlich sein sollten (wenn sie es auch in Städterankings nicht immer sind), ist das dritte, stellvertretend für die durchgängige methodische Berücksichtigung der unterschiedlichen Lebensverhältnisse in Ost- und Westdeutschland im DLA, geradezu beispielgebend. Allerdings ist dies im DLA nicht konsequent weiter geführt worden, weil bei der Ergebnispräsentation die Unterscheidung zwischen Ost und West fallen gelassen wird, obwohl hier unterschiedlich zustande gekommene Indexwerte den Maßstab des Vergleichs abgeben!
Das vierte Ausschlusskriterium schließlich verändert die komplette Untersuchung in fundamentaler Weise und wird daher in einem eigenen, dem folgenden Abschnitt bewertet. Auf die durchaus angebrachte kritische Bewertung einzelner Merkmale, insbesondere in der „Lerndimension Persönliches Lernen" (bspw. der Quote von Museums- und Theaterbesuchern oder der normierten Zahl der Sportvereine), wird an dieser Stelle gänzlich verzichtet. Hier tappt die Bertelsmann Stiftung in die übliche Falle konzeptionell umfassender Rankings, nämlich dort, wo's vernünftige und belastbare Daten nicht gibt und damit eine Aussagelücke droht, auf Daten auszuweichen, deren Eignung sich in ihrer Verfügbarkeit erschöpft.
It's the economy, stupid!
In nahezu allen Städte- und Regionalrankings ist es ein methodisches Grundproblem, dass die Sozial- und Wirtschaftsstruktur nicht nur dort eingeht, wo sie mit bestimmten Variablen explizit vermessen werden soll, sondern auch dort – unerkannt, unreflektiert oder in Kauf genommen –, wo eigentlich Anderes abzubilden das Ziel ist. Auch bei der deutschlandweiten Untersuchung von regional unterschiedlichen Lernbedingungen bzw. Lerneffekten ist von vornherein damit zu rechnen, dass sich die Sozial- und Wirtschaftsstruktur „maskiert" auf die messbaren Merkmale auswirkt. So ist bspw. davon auszugehen, dass in wirtschaftlich prosperierenden Regionen die Kommunen durch höhere Steuereinnahmen besser in der Lage sind, die Bildungsinfrastruktur zu gestalten, als Kommunen ohne solche Freiheitsgrade. Wirtschaftlich nicht prosperierende Regionen dürften aufgrund höherer Arbeitslosigkeit und geringerer Ausbildungsplatzdichte auch im Bereich des beruflichen Lernens Mühe haben, mit wohlhabenderen Gegenden zu konkurrieren, ganz zu schweigen davon, dass besser ausgebildete Einwohner bei länger andauernden wirtschaftlichen Problemen ihren Wohnort tendenziell dorthin verlegen werden, wo sie eine größere Auswahl von Arbeitsplätzen vorfinden, die ihrer Qualifikation entsprechen. Bestimmten Angeboten für persönliches und kulturelles Lernen, die wie VHS-Kurse und Theaterbesucher in solchen Untersuchungen gerne gemessen werden, geht so auf längere Sicht das Mittelschichtspublikum verloren, sie werden eingeschränkt oder eingestellt und sorgen auf diese Weise für noch mehr schlechte Kennzahlen.
Das Gute am Deutschen Lernatlas ist, dass er dieses Messproblem erkennt und nicht verschweigt, das weniger Gute, dass er das Problem zu lösen sucht, indem er es zur Methode macht (und sich damit zum Problem).
Die Sozial- und Wirtschaftsstruktur wird im DLA in Form eines Faktors „Human- und Sozialkapital" vorab als sogenannte Outcome-Variable definiert.5 Diese aus der internationalen Fachsprache des betriebswirtschaftlichen Controllings entlehnte Bezeichnung meint im Unterschied zum Output, also der unmittelbaren Leistung eines Systems, seine mittel- und langfristige Wirkung. Im Bereich der Schulbildung wären also bspw. die Zahlen der Absolventen mit Hochschulreife einerseits oder ohne jeden Abschluss andererseits Output-Variablen, Outcome des Schulsystems wäre das, was die Absolventen im späteren Leben aus diesem formalen Qualifikationsniveau machen, bspw. das erzielte Einkommen.
An diesem vorher definierten Outcome werden einerseits die unterschiedlichen Kennzahlen in den vier Lerndimensionen dadurch „geeicht", dass ihre Gewichtung sich ausschließlich daran bemisst, wie gut sie mit den Werten des Faktors „Human- und Sozialkapital" übereinstimmen (Ergebnisbericht, S. 88). Darüber hinaus wird bereits ihre Auswahl von diesem gesteuert, das geht aus der o. a. Liste der Kriterien für den Ausschluss von Variablen hervor. Der „Deutsche Lernatlas" misst also gar nicht „Lernen", er misst (tendenziell) ausschließlich jene Aspekte von Lernen, die am besten mit Kennzahlen der Sozial- und Wirtschaftsstruktur übereinstimmen, er ist ein „Sozial- und Wirtschaftsatlas"!
Das oben geschilderte methodische Problem herkömmlicher Städterankings ist damit auf verwegene Weise gelöst. Der Zusammenhang vieler Bildungsindikatoren mit der Sozial- und Wirtschaftsstruktur ist nicht mehr ein Interpretationshindernis, sondern ein vorausgesetzter (und methodisch sichergestellter!) Wirkungszusammenhang. Das Verwegene daran ist die gleichzeitig vorausgesetzte Wirkungsrichtung. Während die eingangs des Abschnitts skizzierten Zusammenhänge die Auswirkung sozialer und wirtschaftlicher Merkmale auf das Bildungssystem thematisieren, existiert im DLA nur die umgekehrte Konstellation: die Wirkung des (umfassender verstandenen) Bildungssystems auf „wirtschaftlichen Wohlstand, Beschäftigung, Gesundheit und sozialen Zusammenhalt".
Dass, ganz allgemein, Bildung einen Einfluss auf das „Human- und Sozialkapital" einer Gesellschaft wie ihrer Individuen habe, ist sicherlich einleuchtend. Aber die Operationalisierung dieser Überlegung im vorliegenden Fall wirft zwei ernsthafte Fragen auf: (1) die des zeitlichen Ablaufs und (2) die der Regionalisierung.
(1) In noch wesentlich verschärfter Form als beim Rückschluss von Lerneffekten auf Lernbedingungen ist im hier postulierten Zusammenhang zwischen der Ursache „Lernen" und der Wirkung „Sozioökonomie" der Zeitverzug zu beachten, der sich ja eher in Generationen als in Jahren bemessen lässt. Vor diesem Hintergrund ist es vollkommen unseriös, aktuelle Bildungsparameter an aktuellen Sozial- und Wirtschaftsindikatoren zu orientieren. In dieser zeitlichen Konstellation lässt sich ausschließlich die umgekehrte Wirkungsrichtung plausibel machen!
(2) Die eher in Generationen als in Jahren zu messende Dauer zwischen der hier postulierten Ursache und ihres „Outcome" führt zugleich die Regionalisierung der Indexwerte auf der Ebene der kreisfreien Städte und Kreise ad absurdum. In der Realität findet bspw. die oben beschriebene Reaktion von gut ausgebildeten Einwohnern auf eine anhaltende wirtschaftliche Strukturschwäche in wesentlich kürzerem Zeitmaßstab statt als ein möglicherweise erfolgreicher Strukturwandel. Ein positiver Outcome steht mit Sicherheit nicht mehr in einem engen räumlichen Zusammenhang mit dem einst investierten Bildungsinput. Aufgrund der föderalen Zersplitterung des Schulbildungssystems in Deutschland mag eine entsprechende Untersuchung auf der Ebene der Bundesländer noch etwas Aussagekraft behaupten können, die hier gewählte regionale Tiefe ist völlig verfehlt. Hinzu kommt, dass der Deutsche Lernatlas in manchen interpretierenden Passagen oder auch in der öffentlichen Darstellung durch Repräsentanten der Bertelsmann Stiftung seine eigene Methodik zu vergessen scheint. Aus einem Interview des SPIEGEL zum Lernatlas mit dem für Bildung zuständigen Vorstand der Bertelsmann Stiftung, Jörg Dräger, stammt folgende Passage:
»SPIEGEL ONLINE: Der Süden ist reicher als der Norden – ist am Ende alles nur eine Sache des Geldes?
Dräger: Natürlich gibt es Verstärkungseffekte. Gute Lernbedingungen führen zu Wohlstand, der – klug investiert – wiederum bessere Lernbedingungen ermöglicht.«
http://www.spiegel.de/schulspiegel/0,1518,798701,00.html (Abruf: 11.02.2012)
Auf die „häufig gestellte Frage", ob „wirtschaftlich benachteiligte Kommunen überhaupt gute
Lernbedingungen schaffen" können, antwortet der Ergebnisbericht:
»In der Tat zeigen die Ergebnislisten auf den ersten Blick, dass viele Regionen mit einer schwachen sozialen oder wirtschaftlichen Basis auch nur einen geringeren Wert im Gesamtindex des Deutschen Lernatlas bzw. bei den vier Lerndimensionen aufweisen. Eine tiefer gehende Analyse zeigt jedoch, dass […]«
Deutscher Lernatlas. Ergebnisbericht, S. 91
„Eine tiefer gehende Analyse zeigt jedoch, dass …" vermutlich den Autoren dieser Sätze ihr Zirkelschluss nicht bewusst war. Eine ehrlichere Fortsetzung der Feststellung, dass in der Tat Regionen mit schwacher sozialer oder wirtschaftlicher Basis einen schlechten DLA-Indexwert aufweisen, wäre gewesen: „Das war angesichts unseres Vorgehens bei der Konstruktion des Index aber auch gar nicht anders möglich."
Fazit
Der „Deutsche Lernatlas" hat das selbst gesteckte Klassenziel um Längen verfehlt, zur Messung regional unterschiedlicher „Lernbedingungen" ist er denkbar ungeeignet. Das ist in dreifacher Weise schade. Zum einen beweist er mit seiner Methodentransparenz, seiner sorgfältigen Berücksichtigung der unterschiedlichen Bedingungen in Ost- und Westdeutschland und der Differenzierung in Regionstypen eine Untersuchungssorgfalt, die in der Flut von Städterankings ihresgleichen sucht. Zum anderen verspräche eine Regionstypenunterscheidung vermutlich auch inhaltlich bei der Untersuchung von Bildungsfaktoren neue Erkenntnisse – bei anderem Forschungsdesign. Zum dritten wird die offenbare Unzulänglichkeit der Studie auf ihre Wirkmächtigkeit keine Auswirkungen haben – vor dem Hintergrund des wirtschaftlich und ideologisch potenten Auftraggebers.
Aus dessen Sicht ist der DLA, wie eingangs formuliert, mindestens in seinem spezifischen Blickwinkel auf das Thema Lernen ein Instrument mit beabsichtigter Dauerwirkung. Daher ist fatal, dass der Lernatlas keinesfalls
»deswegen nur begrenzt steuerungsrelevant [ist], da viele Kennzahlen sich auf Aspekte beziehen, die außerhalb des Kompetenz- und des Entscheidungsbereichs kommunal verantwortlicher Akteure liegen«
Deutscher Lernatlas. Ergebnisbericht, S. 7
sondern weil sein Ergebnis für die kommunale Bildungspolitik irrelevant ist. Die ökonomische Strukturschwäche Hernes – und die seiner Nachbarn und die anderer deutscher Städte … – ist (u. a. vor dem Hintergrund äußerst selten gewordener Ansiedlungen von Großbetrieben und der ruhrgebietstypischen Lage in einem Ballungsraum aus Ober- und Mittelzentren) nur sehr mühsam und sehr langwierig veränderbar. Für Herne wie für vergleichbare Städte sind daher schwierige Startbedingungen für die jeweils nachwachsende junge Generation auf längere Sicht bleibendes Charakteristikum. Das Beste, was Städte in dieser Lage für die jungen Leute tun könnten – soweit ihr Einfluss und ihre Haushaltsmittel reichen –, ist: dafür sorgen, dass diese vor Ort die besten erreichbaren formalen Qualifikationen erreichen können, um anderswo einen leichteren Einstieg in den Beruf zu finden. Eine solche – vernünftige – Bildungsstrategie führt zwingend zu einem schlechten DLA-Ranking.
Anmerkungen
1 Dies räumten auf kritische Nachfrage hin immerhin Vertreter von Prognos AG und IW Consult bei einer Podiumsdiskussion im Deutschen Institut für Urbanistik, Berlin, am 4. Nov. 2011 ein. zurück
2 Die kreisfreie Stadt Herne – im Deutschen Lernatlas auf Rang 45 von 56 kreisfreien Großstädten unter 500.000 Einwohnern – hat dem Thema Bildung in den vergangenen Jahren intern und in der Außenwirkung ein großes Gewicht beigemessen und ist dabei auch recht erfolgreich gewesen – wenn man dafür den Gewinn verschiedener Förderwettbewerbe als Maßstab gelten lässt. zurück
3 http://www.deutscher-lernatlas.de/fileadmin/user_upload/Projekt/Publikation_unter_Ergebnisse/Methodologisches_Konzept_des_Deutschen_Lernatlas-Index.pdf (Abruf: 11.02.2012) zurück
4 http://www.deutscher-lernatlas.de/uploads/tx_templavoila/111201_Ergebnisbericht.pdf (Abruf: 11.02.2012) zurück
5 In diesen Faktor gehen folgende 15 Kennzahlen ein: Verfügbares Einkommen, Kaufkraft, Produktivität, Arbeitslosigkeit, Langzeitarbeitslosigkeit, Lebenserwartung von Jungen, Lebenserwartung von Mädchen, Herzinfarkte, Sterbeziffer (alle Krankheiten), Dauer der Arbeitsunfähigkeit (pro Jahr), Straßenkriminalität, Sachbeschädigung, Raubdelikte, Kinderarmut, Altersarmut (Deutscher Lernatlas. Ergebnisbericht, S. 87). zurück
Literatur
Bertelsmann Stiftung (Hg.); Autoren: Schoof, Ulrich; Blinn, Miika; Schleiter, André; Ribbe, Elisa; Wiek, Johannes. Deutscher Lernatlas. Ergebnisbericht 2011. Gütersloh, 2011. 100 Seiten. (Onlineveröffentlichung: http://www.deutscher-lernatlas.de/fileadmin/
user_upload/Projekt/Publikation_unter_Ergebnisse/111201_Ergebnisbericht.pdf ; Abruf: 11.02.2012)
Bertelsmann Stiftung (Hg.); Autoren: Christensen, Björn; Reimer, Kerstin (Analytix GmbH, Kiel); Cartwright, Fernando (Polymetrika, Ottawa, CDN); Rohde, Martin et al. (OFFIS Institut für Informationstechnologie, Oldenburg). Methodologisches Konzept des
Deutschen Lernatlas-Index (DLA-Index). Beschreibung. o. O. (Gütersloh), 2011. 28 Seiten. (Onlineveröffentlichung: http://www.deutscher-lernatlas.de/fileadmin/user_ upload/Projekt/Publikation_unter_Ergebnisse/Methodologisches_Konzept_des_
Deutschen_Lernatlas-Index.pdf ; Abruf: 11.02.2012)
Zitierweise
Klaus Marquardt 2012: Deutscher Lernatlas 2011 der Bertelsmann Stiftung. In: http://www.raumnachrichten.de/rezensionen/1473-klaus-marquardt-deutscher-lernatlas-2011-der-bertelsmann-stiftung
zurück zu Rezensionen
zurück zu raumnachrichten.de