Wenn Forschung zur Zuspitzung wird
Zur Verantwortung wissenschaftlicher Deutung – und zu den methodischen Schwächen der Wiener Studie „Zwischen Anerkennung und Abwertung
Eine Studie fällt nicht in einen luftleeren Raum. Sie tritt in bestehende Konfliktlagen ein, greift in bereits aufgeladene Deutungsfelder ein und wird – besonders dann, wenn sie Fragen von Migration, Islam, Jugend, Gewalt und Demokratie berührt – selbst zu einem politischen Ereignis. Genau deshalb reicht es nicht, sich als Wissenschaftler:in mit dem Hinweis zu entlasten, man habe „nur reale Probleme benannt“ und könne nichts dafür, wenn Ergebnisse anschließend medial verkürzt, politisch instrumentalisiert oder gegen ohnehin exponierte Gruppen gewendet werden.
Natürlich müssen antidemokratische Haltungen, patriarchale Normen, Antisemitismus, Gewaltlegitimation und autoritäre Deutungsmuster untersucht werden. Eine pluralistische Gesellschaft darf solche Phänomene weder beschönigen noch aus falsch verstandener Rücksichtnahme tabuisieren. Aber gerade weil diese Fragen real, ernst und gesellschaftlich folgenreich sind, müssen Forschung und öffentliche Kommunikation methodisch besonders sauber, begrifflich besonders präzise und diskurspolitisch besonders verantwortungsvoll sein.
Der Europäische Verhaltenskodex für wissenschaftliche Integrität betont ausdrücklich die gewachsene Verantwortung wissenschaftlicher Akteure angesichts von Diskriminierung und Ausschluss. Und Standards der Umfrageforschung verlangen gerade bei nicht-zufallsbasierten Stichproben eine besonders sorgfältige Offenlegung von Reichweite, Gewichtung und Grenzen der Daten. Wer Forschung in ein hochpolarisiertes Feld einspeist, darf sich daher nicht auf eine formale Fußnote zur Nicht-Repräsentativität zurückziehen, während Titel, Kategorien, Indizes und Pressekommunikation genau jene Verallgemeinerungen nahelegen, die man später als „Missbrauch“ zurückweist.
Genau dieses Problem stellt sich bei der Wiener Studie „Zwischen Anerkennung und Abwertung: Einstellungen junger Zugewanderter in Wien“, erstellt von think.difference im Auftrag der Stadt Wien. Die Studie befragt 1.221 Jugendliche und junge Erwachsene zwischen 14 und 24 Jahren, gruppiert nach zehn Herkunftskontexten, und untersucht sogenannte „antidemokratische, abwertende und gewaltaffine“ Einstellungsmuster. Sie ist inhaltlich breit angelegt, enthält zahlreiche interessante Beobachtungen – und ist zugleich in zentralen Punkten wissenschaftlich, empirisch und kommunikativ hochgradig angreifbar.
Die öffentliche Anschlusskommunikation zeigt, warum das nicht bloß eine akademische Detailfrage ist. Die offizielle Presseaussendung der Stadt Wien spricht von „digitaler Radikalisierung“, die antidemokratische Haltungen „verstärke“, erklärt religiöse Social-Media-Orientierung zu einem „besonders relevanten Befund“ und hebt muslimische Jugendliche mit alarmistisch zugespitzten Prozentwerten hervor. Wenige Tage später titelte Heute: „Islam steht bei jungen Muslimen über unseren Gesetzen“; eXXpress machte daraus: „Muslimische Jugendliche in Wien werden radikaler“; politische Reaktionen sprachen von einem „verheerenden Bild“, von „Kalifat“, „Scharia“ und „Parallelgesellschaften“.
Man kann nun sagen: Das sei die Schuld der Medien und Parteien. Das ist richtig – aber nur halb. Denn die Studie und ihre offizielle Vermittlung liefern sehr wohl Interpretationsmaterial, Begriffsschärfungen und dramatisierende Brücken, die diese Form der Verwertung nicht bloß zufällig ermöglichen, sondern strukturell begünstigen. Wenn eine Untersuchung in einem ohnehin muslimfeindlich aufgeladenen Klima öffentlich erscheint, dann besteht wissenschaftliche Verantwortung gerade darin, ihre Befunde so aufzubereiten, dass seriöse Verallgemeinerungen nicht weiter reichen dürfen, als die Daten tragen. Hier ist das Gegenteil geschehen.
1. Die Studie ist nicht repräsentativ – argumentiert aber stellenweise, als wäre sie es
Der gravierendste Befund steht im Methodenteil der Studie selbst: Es handelt sich nicht um eine repräsentative Untersuchung. Die Autor:innen schreiben ausdrücklich, eine zufallsbasierte Stichprobenziehung sei nicht möglich gewesen; stattdessen wurde mit Quoten gearbeitet und ein multimethodisches Rekrutierungsverfahren eingesetzt. Das ist für explorative Forschung an schwer erreichbaren Gruppen nicht per se illegitim. Problematisch wird es dort, wo aus einem solchen Design sprachlich und politisch eine Aussage über „die Jugendlichen“, „die muslimischen Jugendlichen“ oder „die jungen Muslime in Wien“ wird.
Besonders irritierend ist aber, dass der Bericht seine eigene Einschränkung im selben Abschnitt wieder relativiert. Nach dem Hinweis auf die fehlende Repräsentativität heißt es, verallgemeinernde Formulierungen wie „die Jugendlichen“ statt korrekt „die befragten Jugendlichen“ seien im Text dennoch „berechtigt“. Genau dieser Satz ist wissenschaftlich kaum zu verteidigen. Er etabliert eine sprachliche Generalisierung, die das Design selbst nicht hergibt.
Damit ist auch die mediale Verwendung einzelner Prozentwerte methodisch prekär. Wenn etwa berichtet wird, 41 Prozent der muslimischen Jugendlichen stellten religiöse Vorschriften über österreichisches Recht, dann klingt das wie eine belastbare Aussage über eine Grundgesamtheit. Tatsächlich handelt es sich um einen Wert innerhalb einer nichtrepräsentativen, gewichteten Vergleichsstichprobe. Der Unterschied ist zentral – und er hätte in jeder öffentlichen Kommunikation an erster Stelle stehen müssen, nicht in methodischen Tiefen des Berichts.
Die Studie kann also Hypothesen generieren, Milieudifferenzen sichtbar machen und Anlass für weitere Forschung geben. Was sie nicht kann: belastbare Prävalenzen für „die muslimische Jugend in Wien“ ausweisen. Wer das dennoch tut – in Pressearbeit, Politik oder Medien –, bewegt sich außerhalb dessen, was die Daten seriös erlauben.
2. Die Gewichtung der Online- und Offline-Daten ist ein methodischer Schwachpunkt
Die Autor:innen berichten, dass sich Online- und Offline-Befragte deutlich voneinander unterschieden. Online Teilnehmende antworteten stärker polarisiert, Offline-Befragte gemäßigter. Diese Unterschiede ließen sich nach Aussage der Studie nicht ausreichend durch Alter, Geschlecht oder Bildung erklären. Daraufhin wurde in allen Herkunftsgruppen eine künstliche 50:50-Verteilung von Online- und Offline-Interviews hergestellt.
Das ist gravierend. Denn es bleibt offen, warum genau 50:50 die sachlich richtige Verteilung darstellen soll. Es gibt keinen externen Referenzwert dafür, dass ein solches Verhältnis der tatsächlichen Zusammensetzung der Zielpopulation entspricht. Ebenso wenig ist klar, ob die Unterschiede auf Erhebungsmodus, Selbstselektion, soziale Erwünschtheit, Interviewkontext oder andere Faktoren zurückgehen. Eine willkürliche Halbierung zweier systematisch unterschiedlicher Antwortmilieus „gleicht Verzerrungen“ nicht zwingend aus; sie kann sie auch neu kalibrieren, ohne dass man weiß, in welche Richtung.
Hinzu kommt: Fast alle deskriptiven Auswertungen basieren auf dem gewichteten Datensatz, die Regressionsanalyse hingegen nicht; dort wird der Interviewmodus als Kontrollvariable aufgenommen. Das heißt: Die Studie arbeitet an zentralen Stellen mit zwei unterschiedlichen Datenlogiken, ohne ausreichend zu zeigen, dass die Hauptbefunde gegenüber diesen Entscheidungen robust bleiben.
Gerade bei heiklen Fragen zu Religion, Gewalt, Geschlecht und Recht ist dieser Moduseffekt nicht randständig, sondern validitätsentscheidend. Eine methodisch vorsichtigere Studie hätte die Ergebnisse systematisch getrennt nach Erhebungsmodus ausgewiesen, Sensitivitätsanalysen vorgenommen und in der öffentlichen Kommunikation betont, dass zentrale Kennzahlen von einem nicht trivialen Gewichtungsverfahren abhängen.
3. Der AAG-Index bündelt zu viel – und erzeugt dadurch dramatischere Ergebnisse, als die Einzelkonstrukte tragen
Das analytische Zentrum der Studie ist ein neu gebildeter Gesamtindex für „antidemokratische, abwertende und gewaltaffine Haltungen“, kurz AAG. In diesen Index fließen fünf Skalen ein:
Gleichheits- und Demokratiebefürwortung, invertiert
Autoritarismus
Gewaltakzeptanz
sexuelle und partnerschaftliche Selbstbestimmung, invertiert
genderbezogene, patriarchale Vorstellungen
Die Skala weist eine hohe interne Konsistenz auf. Doch psychometrische Reliabilität ist nicht dasselbe wie begriffliche Validität. Eine Skala kann intern „gut zusammenhängen“ und dennoch konzeptionell fragwürdig gebaut sein.
Genau das ist hier der Fall. Denn der AAG-Index zieht sehr unterschiedliche Phänomene in ein einziges Deutungsfeld: Ablehnung gleichgeschlechtlicher Beziehungen oder interreligiöser Partnerschaften, patriarchale Vorstellungen, autoritäre Staatspräferenzen und Gewaltlegitimation werden zu einem gemeinsamen Gesamtwert verdichtet. Das mag statistisch korrelieren. Es ist aber analytisch keineswegs dasselbe.
Wer vorehelichen Sex ablehnt, vertritt deshalb nicht automatisch antidemokratische oder gewaltaffine Positionen. Wer patriarchale Rollenbilder befürwortet, bewegt sich zweifellos in einem problematischen normativen Feld – doch auch das ist nicht deckungsgleich mit demokratiefeindlicher oder gewaltnaher Disposition. Der AAG-Index dramatisiert solche Haltungen, weil er sie unter einem Oberbegriff versammelt, in dem „antidemokratisch“ und „gewaltaffin“ stets mitklingen.
Hier geht es nicht nur um Begrifflichkeiten, tatsächlich beeinflusst es die gesamte Wirkung der Studie. Denn wenn ein einzelner Gesamtwert höher ausfällt, ist öffentlich nicht mehr sichtbar, welche Teile dieses Werts wofür verantwortlich sind. Konservative Sexualmoral, autoritäre Staatsvorstellungen und Gewaltakzeptanz verschwimmen in einer Gesamtzahl – und diese Gesamtzahl wird anschließend medial als Problemprofil bestimmter Gruppen kommuniziert.
4. Religion erklärt einen Index, der selbst religiös codierte Items enthält
Ein weiterer schwerwiegender Einwand betrifft die Regressionsanalyse. Die Studie identifiziert muslimische Religionszugehörigkeit, höhere Religiosität und häufigere Beschäftigung mit der eigenen Religion in sozialen Medien als wichtige Prädiktoren höherer AAG-Werte.
Doch der abhängige AAG-Index enthält selbst eine Teilskala „politischer und religiöser Autoritarismus“, in der Aussagen abgefragt werden wie:
„Ein Staat sollte einen religiösen Führer haben, der sich nicht um Wahlen kümmern muss.“
„Ein Staat sollte nach religiösen Gesetzen organisiert sein.“
Damit entsteht ein sog. Kriteriums-Kontaminationsproblem. Man erklärt höhere Werte bei religiösen Befragten teilweise mit einem Outcome, das selbst religiös formulierte Autoritarismus-Items enthält. Der Befund „Religiosität sagt AAG vorher“ ist deshalb nicht völlig unabhängig von der Art und Weise, wie AAG konstruiert wurde. Er ist zumindest teilweise durch das Messinstrument mitproduziert.
Das heißt nicht, dass es keinen Zusammenhang zwischen Religiosität und autoritären Haltungen geben kann. Aber es heißt sehr wohl, dass der Effekt mit deutlich größerer Vorsicht interpretiert werden müsste. Eine methodisch strengere Analyse hätte zusätzlich Modelle berichtet, in denen der AAG-Index ohne religiös codierte Autoritarismus-Items berechnet wird. Erst dann ließe sich zeigen, wie robust der Zusammenhang zwischen Religiosität und dem Gesamtmuster tatsächlich ist.
5. Aus „religiöser Mediennutzung“ wird öffentlich „digitale Radikalisierung“
Besonders folgenreich ist die Art, wie die Studie und die Presseaussendung mit digitaler Mediennutzung umgehen. Im Regressionsmodell wird unter anderem erfasst, wie häufig Jugendliche soziale Medien nutzen, „um sich über die eigene Religion zu informieren“. Diese Variable korreliert positiv mit höheren AAG-Werten und wird im Modell als signifikanter Prädiktor ausgewiesen.
Die offizielle Presseaussendung der Stadt Wien macht daraus jedoch eine Aussage über „digitale Radikalisierung“, die antidemokratische Einstellungen „verstärke“. Auch im Bericht selbst finden sich Formulierungen, wonach die Online-Beschäftigung mit der eigenen Religion autoritäre und abwertende Einstellungen „verstärke“ und als „zentraler verstärkender Faktor“ gesehen werden könne.
Das ist wissenschaftlich zu grob. Die Studie misst:
keine konkrete Exposition gegenüber extremistischen oder islamistischen Inhalten,
keine Plattformalgorithmen,
keine Art der konsumierten Accounts,
keine Inhaltsqualität,
keine zeitliche Abfolge,
keine tatsächlichen Radikalisierungsverläufe.
Sie misst eine selbstberichtete Nutzungsmotivation. Daraus „digitale Radikalisierung“ abzuleiten, ist ein deutlicher Kategorienwechsel – von einer Korrelation in einer Querschnittsbefragung zu einem dynamischen, kausal aufgeladenen Prozessbegriff. Das trägt die Datenlage nicht.
Gerade diese Überdehnung ist öffentlich folgenreich. Wer „junge Muslime“, „Religion im Netz“ und „Radikalisierung“ in enger Folge kommuniziert, liefert einen fertigen Deutungsrahmen, der in Medien und Politik kaum noch differenziert aufgenommen wird. Die Forschung benennt dann nicht bloß ein Problem; sie prägt die Form, in der dieses Problem gesellschaftlich sichtbar wird.
6. Die Studie spricht kausaler, als ihr Design erlaubt
Die Untersuchung ist eine einmalige Querschnittserhebung. Sie kann Zusammenhänge feststellen. Sie kann aber keine belastbaren Aussagen darüber treffen, was Ursache und was Wirkung ist. Dennoch arbeitet der Bericht an vielen Stellen mit Vokabular wie „Einflussfaktoren“, „verstärkt“, „wirkt“, „indirekte Wirkung“ oder „vermittelt über“. Bereits im Executive Summary wird der Eindruck erweckt, bestimmte soziale Erfahrungen erhöhten die Wahrscheinlichkeit bestimmter Haltungen; die Regressionsanalyse wird als Erklärung zentraler „Treiber“ präsentiert.
Empirisch offen bleibt aber unter anderem:
ob Diskriminierungserfahrungen antidemokratische Haltungen fördern oder Personen mit solchen Haltungen Diskriminierung anders wahrnehmen,
ob Einsamkeit autoritäre Haltungen begünstigt oder umgekehrt,
ob religiöse Online-Nutzung problematische Haltungen verstärkt oder bereits stärker religiös-konservative Jugendliche gezielt solche Inhalte suchen,
ob Zugehörigkeit zu Wien vor antidemokratischen Einstellungen schützt oder ob demokratischere Jugendliche sich leichter zugehörig fühlen.
Keine dieser Richtungen lässt sich mit dem vorliegenden Design kausal entscheiden. Die Studie hätte deshalb konsequent von Zusammenhängen sprechen müssen. Stattdessen entsteht in Bericht und Pressekommunikation ein Wirkungsnarrativ, das im öffentlichen Raum als Beweisführung gelesen wird.
7. Der „Democracy Index des Herkunftslandes“ ist als individueller Prädiktor äußerst fragwürdig
Ein besonders problematischer Teil des Regressionsmodells ist die Variable „Demokratiequalität des Herkunftslandes“. Die Studie ordnet jeder befragten Person – je nach zugeschriebener Herkunft – den Wert des Economist Democracy Index 2023 zu. Für Tschetschen:innen wird Russland verwendet. Für Kurd:innen wird der Wert der Türkei angesetzt – selbst dann, wenn sie aus Syrien, dem Irak oder dem Iran stammen.
Diese Operationalisierung ist empirisch grob und theoretisch riskant. Ein makropolitischer Index, der die demokratische Verfasstheit eines Staates misst, wird auf individuelle Einstellungen von Jugendlichen in Wien übertragen – darunter auch auf Jugendliche, die in Österreich geboren wurden. Die Studie deutet diesen Zusammenhang später als indirekte Wirkung „politischer und kultureller Sozialisationsbedingungen“ der Herkunftsgesellschaften.
Damit wird ein erheblicher interpretativer Schritt vollzogen: Von der politischen Systemqualität eines Staates zur individuellen Haltung eines jungen Menschen, dessen reale Sozialisation sehr unterschiedlich verlaufen kann. Das ist ein klassisches Risiko ökologischer Fehlschlüsse. Noch problematischer wird es, wenn ethnische Gruppen wie Kurd:innen oder Tschetschen:innen pauschal einem staatlichen Indexwert zugerechnet werden, der ihre historischen, diasporischen und transnationalen Erfahrungshorizonte nur höchst unzureichend abbildet.
Man kann Herkunftskontexte theoretisch in Modelle einbeziehen. Aber dann braucht es deutlich feinere, individuell validere Variablen als die mechanische Übertragung eines staatlichen Demokratie-Rankings. In der vorliegenden Form wirkt der Index weniger wie eine präzise Erklärung als wie eine zahlenförmige Kulturalisierung von Herkunft.
8. Gruppenvergleiche ohne ausgewiesene Messinvarianz sind wissenschaftlich unsicherer, als die Studie suggeriert
Die Studie bildet ihre Skalen mittels Hauptkomponentenanalyse mit Varimax-Rotation und berichtet Reliabilitätswerte. Das ist ein legitimer erster Schritt. Was im Bericht jedoch nicht ausgewiesen wird, ist eine Prüfung der Messinvarianz zwischen den verglichenen Herkunfts- und Religionsgruppen.
Wer Mittelwerte und Zustimmungsmuster zwischen muslimischen, christlichen, österreichischen, syrischen, afghanischen oder tschetschenischen Befragten vergleicht, muss prüfen, ob die verwendeten Items in diesen Gruppen semantisch und psychometrisch tatsächlich dasselbe messen. Aussagen wie „Religionen müssen sich an die heutige Welt anpassen“, „Alle Religionen sind gleichwertig“ oder „Menschen sollten sich an die Regeln meiner Religion halten“ können in verschiedenen religiösen, sprachlichen und kulturellen Kontexten unterschiedlich verstanden werden.
Der Fragebogen wurde zwar in mehrere Sprachen übersetzt, 98 Prozent der Befragten füllten ihn jedoch auf Deutsch aus. Auch das ist kein Fehler an sich. Aber gerade bei normativ und theologisch aufgeladenen Items hätte eine Studie, die starke Gruppenvergleiche formuliert, sehr viel deutlicher dokumentieren müssen, dass die Skalen gruppenübergreifend vergleichbar funktionieren.
Ohne eine solche Prüfung bleiben die Vergleichsaussagen nicht wertlos, aber unsicherer, als sie im Bericht und erst recht in der medialen Verwertung erscheinen.
9. Die Operationalisierung von „Islamismus“ ist begrifflich unsauber und politisch folgenreich
Die Studie fragt spezifisch bei muslimischen Jugendlichen drei Aussagen ab:
„Jede Muslimin sollte in der Öffentlichkeit ein Kopftuch tragen.“
„Die islamischen Vorschriften gelten für alle Bereiche des Alltags und sind streng einzuhalten.“
„An den Problemen der islamischen Welt ist der Westen schuld.“
Diese Items werden im Abschnitt zu „islamischem Fundamentalismus“ bzw. „islamistischen Weltanschauungen“ behandelt.
Das ist konzeptionell problematisch. Die drei Aussagen erfassen unterschiedliche Dinge:
religiös-normative Geschlechtervorstellungen,
umfassende religiöse Regelorientierung,
geopolitische Externalisierung oder antiwestliche Deutung.
All das kann politisch, pädagogisch und gesellschaftlich relevant sein. Aber es ist nicht deckungsgleich mit Islamismus als ideologisch-politischem Konzept. Besonders die Kopftuch-Aussage ist als Islamismus-Indikator schwach. Sie kann patriarchal und illiberal sein, ohne deshalb eine politisch-islamistische Weltanschauung abzubilden. Auch die Aussage über den „Westen“ ist zunächst eine pauschalisierende geopolitische Deutung, nicht automatisch ein Beleg für Radikalisierung.
Der Bericht verschiebt hier Grenzen. Er nimmt heterogene Einstellungen, ordnet sie in einen semantisch stark belasteten Problemraum ein und schafft damit den Eindruck, religiöse Konservativität, patriarchale Normativität, antiwestliche Ressentiments und Islamismus bildeten eine nahezu geschlossene Linie. Empirisch wird diese Linie so nicht sauber nachgewiesen.
10. Die „70 Prozent Erklärungskraft“ des Modells wirken stärker, als sie sind
Die Studie betont mehrfach, das Regressionsmodell erkläre 70 Prozent der Varianz der AAG-Haltungen – und deutet dies als hohe empirische Aussagekraft.
Dieser Wert klingt beeindruckend. Er muss aber vorsichtig gelesen werden. Erstens ist die abhängige Variable selbst ein breiter Sammelindex, der mehrere inhaltlich nahe liegende und teils stark normativ aufgeladene Konstrukte bündelt. Zweitens wurden die Prädiktoren nicht ausschließlich theoretisch vorab festgelegt, sondern laut Bericht auch unter Rückgriff auf „deskriptive und explorative Analysen der vorliegenden Daten“ ausgewählt. Drittens wird im Bericht nicht gezeigt, dass das Modell außerhalb dieses Datensatzes, etwa durch Kreuzvalidierung oder externe Replikation, ähnlich gut trägt.
Das bedeutet: Die 70 Prozent beschreiben zunächst, wie gut das Modell innerhalb dieser konkreten Datenkonstruktion funktioniert. Sie sind kein Beweis dafür, dass man die Entstehung antidemokratischer, abwertender und gewaltaffiner Haltungen junger Menschen in Wien nun zu 70 Prozent „verstanden“ oder prognostizierbar gemacht hätte. Genau dieser Eindruck wird aber im Executive Summary und in der öffentlichen Kommunikation nahegelegt
11. Kleine Teilgruppen, viele Vergleiche, große Deutungen
Last but not least: Die Stichprobe verteilt sich auf zehn Herkunftsgruppen. Einige Gruppen sind relativ klein: 95 syrische, 95 afghanische und 72 tschetschenische Befragte. Zugleich arbeitet der Bericht mit einer Vielzahl von Gruppenvergleichen, grafischen Gegenüberstellungen und Signifikanzangaben.
Je kleiner Teilgruppen werden und je mehr Tests durchgeführt werden, desto vorsichtiger muss man mit zugespitzten Rangordnungen und auffälligen Einzelbefunden umgehen. Der Bericht weist an einzelnen Stellen selbst auf kleine Fallzahlen und mögliche Schwankungen hin – etwa bei Religionskategorien. Diese Vorsicht schlägt sich aber nicht konsequent in der öffentlichen Wirkung der Studie nieder.
Warum das alles mehr ist als eine Methodenfrage
Man könnte all diese Punkte als innerwissenschaftliche Einwände behandeln: Stichprobe, Gewichtung, Messung, Kausalität, Modellierung. Doch im vorliegenden Fall greifen sie weiter. Denn die Studie selbst beschreibt Diskriminierung, mangelnde Anerkennung, emotionale Abkopplung, Vereinsamung und schwache Zugehörigkeit als relevante Faktoren im Zusammenhang mit problematischen Haltungen. Sie weist zudem darauf hin, dass bestimmte Jugendliche sich besonders durch Politik und Medien unzureichend anerkannt fühlen.
Genau deshalb ist die Art ihrer Veröffentlichung so heikel. Wenn eine Studie, die Entfremdung als Risikofaktor beschreibt, in der öffentlichen Debatte vor allem als Beleg für die Gefährlichkeit „junger Muslime“ zirkuliert, dann entsteht eine bittere Rückkopplung: Das öffentliche Klima, das durch die Studie befeuert wird, kann selbst Teil jener Entfremdungsdynamik werden, die sie zu erklären beansprucht.
Diese Aussage ist kein Kausalbeweis. Sie ist eine diskurspolitische Folgerung – aber eine zwingende. Wer selbst festhält, dass Anerkennung, Zugehörigkeit und diskriminierende Fremdzuschreibungen für Haltungsmuster bedeutsam sind, kann nicht so tun, als sei die öffentliche Muslim-Markierung durch eine methodisch angreifbare Studie bloß ein externes Missverständnis.
Forschung ist nicht schuld an jeder Überschrift, die aus ihr gemacht wird. Aber sie trägt Verantwortung dafür, welche Überschriften sie erleichtert.
Was eine verantwortliche Veröffentlichung erfordert hätte
Eine Untersuchung dieser Tragweite hätte mindestens vier Dinge gebraucht:
Erstens eine unmissverständliche kommunikative Leitplanke: keine Verwendung von Formulierungen, die Bevölkerungsgruppen suggerieren, wo nur befragte Teilgruppen gemeint sind; keine öffentlichen Prozentbotschaften ohne gleichzeitige Hervorhebung der Nicht-Repräsentativität; keine Schlagwortverknüpfung von „Muslimen“, „digitaler Radikalisierung“ und „Gefahr“, wenn das empirische Design solche Prozessbehauptungen nicht trägt.
Zweitens eine striktere Trennung zwischen Datenbefund und Interpretation. Zusammenhänge dürfen nicht als Wirkungen verkauft werden. Korrelationen zu religiöser Mediennutzung dürfen nicht semantisch zu „digitaler Radikalisierung“ aufgeladen werden. Makroindikatoren wie der Democracy Index dürfen nicht zu scheinbar präzisen Herkunftserklärungen für individuelle Wertehaltungen umgedeutet werden.
Drittens robustere methodische Absicherungen: Sensitivitätsanalysen zur Gewichtung, Varianten des AAG-Index ohne religiös codierte Bestandteile, Messinvarianzprüfungen, zurückhaltendere Gruppenvergleiche und eine deutlich vorsichtigere Kommunikation der Regressionsmodelle.
Viertens eine Reflexion der eigenen Rolle im Diskurs. Nicht im Sinne politischer Selbstzensur, sondern im Sinne wissenschaftlicher Integrität. Forschung zu polarisierenden Themen muss nicht weniger ehrlich werden. Sie muss genauer werden – und sich stärker darüber Rechenschaft ablegen, welche sozialen Wirkungen ihre Begriffe, Kategorien und Zuspitzungen entfalten.
Noch etwas..
Die Wiener Studie berührt reale Probleme. Es gibt antidemokratische Haltungen unter Jugendlichen. Es gibt religiösen Autoritarismus, patriarchale Normen, antisemitische Ressentiments, Gewaltlegitimation und demokratiepolitisch relevante Entfremdung. All das verdient Aufmerksamkeit, Forschung und Intervention.
Aber gerade deshalb ist es problematisch, wenn eine Studie mit dieser öffentlichen Wucht methodisch nicht so sauber ist, wie sie sein müsste, begrifflich mehr verdichtet, als sie trennt, und kommunikativ mehr Generalisierung ermöglicht, als ihre Daten tragen.
Die Verantwortung der Wissenschaft besteht nicht darin, konflikthafte Wirklichkeiten zu verschweigen. Sie besteht darin, sie so zu untersuchen und zu vermitteln, dass Erkenntnis entsteht – nicht Evidenzkulisse für bereits bereitliegende Feindbilder.
Wer junge Muslime in einer aufgeheizten gesellschaftlichen Lage zum Gegenstand wissenschaftlicher Analyse macht, muss nicht leiser forschen. Aber er muss präziser forschen. Und er muss wissen: Eine Studie über Entfremdung darf nicht selbst zum Rohstoff jener Entfremdung werden, die sie beschreibt.