18.11.2015
Material
A. Etges/Mercator-Institut

Arbeitstagung Sprachdiagnostik: Vorträge und Workshops

Was sind Merkmale für eine zuverlässige Sprachdiagnostik? Worin unterscheiden sich Sprachstands- und Sprachverlaufsdiagnostik? Und welche standardisierten Verfahren stehen zur Feststellung der Lese- und Schreibkompetenz zur Verfügung?

Diese Fragen standen auf der Arbeitstagung Sprachdiagnostik des Mercator-Instituts am 6. Oktober 2015 im Seminargebäude der Universität zu Köln im Fokus.

Hier finden Sie die Leitfragen und zentralen Thesen der Vorträge sowie aus den Workshops.

Dokumentation der Vorträge und Workshops

Vortrag: Einführung in die Dimensionen der Sprachdiagnostik

Referent: Dr. Markus Linnemann, Mercator-Institut

Der Vortrag behandelte grundlegende Themen der Diagnostik im Allgemeinen (Testtheorie) bzw. der Sprachdiagnostik im Besonderen (spezifische Testformate von Sprachtests). Dabei wurden zentrale Fragestellungen behandelt:

Was ist Sprachdiagnostik?

Die Sprachdiagnostik lässt sich in eine theoretische Dimension (Testtheorie, technische Dimension) und eine politische Dimensionen (politische Strömung zwischen Akzeptanz und Aversion) auffächern, wobei die Dimensionen voneinander abhängig sind.

Es gibt drei Arten von Sprachdiagnostik: Statusfeststellung, Verlaufsdiagnostik und dynamisches Testen.

Was sind diagnostische Verfahren?

Diagnostische Verfahren sind nach Cattell (1973) Q-Daten (questionary data), L-Daten (life record data) und T-Daten (test data).

Was sind Zielgruppen von Sprachdiagnostik?

Die Zielgruppen von Sprachdiagnostik sind unterschiedlich und stehen in Abhängigkeit zum jeweiligen Kontext ihres Erlebens, so z.B. Elementarbereich, Schule, Universität, Arbeit Migration oder Freizeit.

Nach welchen Kriterien wird getestet?

Getestet wird nach den Gütekriterien Reliabilität, Validität und Objektivität.
Die Einführung in die Sprachdiagnostik zeigte, dass Sprachdiagnostik immer gebunden ist an wissenschaftliche Theorien. Gütekriterien sollten dabei stets im Blick behalten werden. Sprachdiagnostik muss immer an den (schulischen) Nutzen, den sie zum Ziel hat, gekoppelt sein (z.B. Förderung).

Literaturhinweis:

Cattell, R. B. (1973). Personality and mood by questionnaire. San Francisco: Jossey.

Vortrag: Lesekompetenz – Entwicklung, kognitive Prozesse und Möglichkeiten der Diagnostik

Referent: Prof. Dr. Marco Ennemoser, Universität Gießen

Der Vortrag setzte sich mit Teilprozessen des Leseprozesses auseinander, erläuterte, welche Teilfähigkeiten die Lesefähigkeit beinhaltet und mit welchen Instrumenten die Teilfähigkeiten diagnostisch erfassbar sind. Hierbei beleuchtete er die Vor- und Nachteile dieser Instrumente.

Zentrale Thesen und Erkenntnisse des Vortrags waren:

Es gibt zahlreiche Verfahren, die jeweils Vor- und Nachteile haben.

Das Weltwissen/thematische Vorwissen der Schülerinnen und Schüler spielt zwar grundsätzlich beim Leseverständnis eine Rolle; jedoch sollten Texte, die als Stimuli in Testverfahren verwendet werden, kein spezifisches Vorwissen voraussetzen.

Anregung für die Praxis:

Eine regelmäßige Rückmeldung zur Leistungsentwicklung (Lernverlaufsdiagonstik) der Schülerinnen und Schüler (mit einer graphischen Veranschaulichung) hat große Effekte auf Fördererfolge.

Workshop: Diagnostische Verfahren zur Erfassung der Lesekompetenz: Status-, Prozess- und Verlaufsdiagnostik

Referent: Prof. Dr. Tobias Richter, Universität Kassel

Im Fokus des Workshops standen das Kennenlernen von Tests zur Diagnostik der Lesekompetenz und die Anwendung ausgewählter Verfahren. Hierbei wurden auch computergestützte Verfahren und deren Handhabung vorgestellt und deren Stärken und Schwächen diskutiert.


Leitfragen:

Welche Stärken, Schwächen und Lücken gibt es im derzeit bestehenden Instrumentarium zur Messung der Lesekompetenz?

Wozu braucht man eine (teil-)prozessorientierte Lesediagnostik (anstelle von produktorientierter Lesediagnostik)?

Wie lässt sich Prozessbezogene Diagnostik von Lesefähigkeiten (ProDi-L) anwenden?

Erkenntnisse:

Aus kognitionspsychologischer Sicht besteht Lesekompetenz in der effizienten Bewältigung kognitiver Teilprozesse auf der Wort-, Satz- und Textebene.

In den üblichen Lesetests der produktorientierten Diagnostik – hier geht es um das Bearbeiten von Multiple-Choice-Aufgaben, Identifikation passender Bilder oder die Anzahl korrekt beantworteter Aufgaben – werden diese kognitiven Teilprozesse und somit mögliche Ursachen für Lesedefizite nicht differenziert erfasst. ProDi-L testet zusätzlich korrespondierende akustische bzw. auditive Fähigkeiten. Darüber hinaus sind häufig leseunspezifische kognitive Prozesse zu bewältigen. Die üblichen Testverfahren kommen daher schnell an ihre Grenzen.

Instrumente der prozessorientierten Diagnostik müssen folgende Anforderungen erfüllen:

1) Möglichst trennscharfe Erfassung spezifischer kognitiver Prozesse
2) Minimierung des Einflusses leseunspezifischer kognitiver Prozesse
3) Erfassung beider Indikatoren der Effizienz kognitiver Teilprozesse: Zuverlässigkeit und Automatisierungsgrad

ProDi-L steht für prozessbezogene Diagnostik von Lesefähigkeiten (für die Klassenstufen 1 bis 4) und umfasst sechs computergestützte Tests für Grundschulkinder zur differenzierten Erfassung der Effizienz kognitiver Teilprozesse des Leseverstehens aufgrund von reaktionszeitbasierter Messungen. Die Aufgaben sind eingebettet in eine Rahmengeschichte um einen Außerirdischen, der die Sprache der Kinder erlernen möchte.

Anregung für die Wissenschaft:

Die Diskussion des vorgestellten Testverfahrens hat gezeigt, wie wichtig die interdisziplinäre Zusammenarbeit bei der Entwicklung von Messinstrumenten ist (hier Psychologie und Linguistik).

Anregung für die Praxis:

Der Test ist im Klassenverband durchzuführen. Daher stellt er ein ökonomisches Messverfahren dar. Die Lehrkräfte können Erkenntnisse gewinnen, die eine differenzierte Förderdiagnostik von Lesefähigkeiten vor allem bei schwachen und durchschnittlichen Schülerinnen und Schülern möglich machen. So könnte ProDi-L den Leseunterricht im Sinne einer Optimierung der Präventions- und Fördermaßnahmen bereichern.

Vortrag: Schreibkompetenz – Konstrukt und Diagnostik

Referenten:
Prof. Dr. Michael Becker-Mrotzek, Mercator-Institut
Prof. Dr. Jörg Jost, Universität zu Köln

Die grundlegende These des Vortrags lautete, dass Schreibkompetenz ein Konstrukt ist, bei dem linguistische und kognitive Aspekte gleichermaßen relevant sind. Im Fokus stand zudem auch die Konzeption von Tests und die Auswertung von Testergebnissen.

Leitfragen:

Welches Konstrukt steckt hinter den Begriffen Schreiben und Schreibkompetenz?

Welche Anforderungen müssen Testaufgaben zur Messung von Schreibkompetenz erfüllen?

Mit welchen Verfahren kann Textqualität gemessen werden?

Zentrale Thesen:

Es gibt noch keine standardisierten Tests für das Schreiben.

Schreiben ist eine in Raum und Zeit zerdehnte Sprechhandlung (Ehlich 1983).

Schreiben als Problemlösung (nach Hayes/Flower 1980) beinhaltet das Verständnis von Schreiben als Handlung, als einen komplexen Prozess (Entwicklungsprozess), der verschiedene Teilfähigkeiten umfasst und genreabhängig ist.

Textmusterwissen ist zentral für das Schreiben. Dies beinhaltet sowohl deklaratives Wissen über Textmuster als auch prozedurales Wissen über die Produktion von Textmustern in Form von Textprozeduren, Textkohärenz, Schreibplänen und Schreibstrategien.

Anregung für die Wissenschaft und Praxis:

Da es im Gegensatz zum Lesen noch keine standardisierten Tests für das Schreiben gibt, ist es ein Desiderat, ein standardisiertes Testverfahren zu entwickeln.

Literatur:

Becker-Mrotzek, M., Grabowski, J. Jost, J., Knopp, M. & Linnemann, M. (2014). Adressatenorientierung und Kohärenzherstellung im Text. Zum Zusammenhang kognitiver und schriftlich realisierter Teilkomponenten von Schreibkompetenz. Didaktik Deutsch, (37), 20-43.

Ehlich, K. (1983). Text und sprachliches Handeln. Die Entstehung von Texten aus dem Bedürfnis nach Überlieferung. In: A. Assmann, J. Assmann, & C. Hardmeier (Hrsg.), Schrift und Gedächtnis. Beiträge zur Archäologie der literarischen Kommunikation. München: Wilhelm Fink, 24-43.

Hayes, J. R. (2012). Modeling and Remodeling Writing. Written Communication, 29(3), 369-388.

Hayes, J. R. & Flower, L. S. (1980). Identifying the Organization of Writing Process. In L. W. Gregg & E. R. Steinberg (Hrsg.), Cognitive Processes in Writing. Mahwah, New Jersey: Lawrence Erlbaum Associates, 3-30.

Kintsch, W. (1994). Text Comprehension, Memory, and Learning. American Psychologist, 49(4), 294-303.

Schnotz, W. (2006). Was geschieht im Kopf des Lesers? Mentale Konstruktionsprozesse beim Textverstehen aus der Sicht der Psychologie und der kognitiven Linguistik. In H. Blühdorn, E. Breindl, & U. H. Waßner (Hrsg.), Text – Verstehen. Grammatik und darüber hinaus. Berlin: de Gruyter, 222-238.

Workshop: Testaufgaben entwickeln für die Erfassung von Schreibkompetenz

Referenten:
Prof. Dr. Michael Becker-Mrotzek, Mercator-Institut
Prof. Dr. Jörg Jost, Universität zu Köln

In dem Workshop wurden zentrale Fragen zur Operationalisierung von Schreibkompetenz in Testaufgaben thematisiert, Beispielaufgaben diskutiert und Aufgaben zur Testung von Schreibkompetenz erprobt. Zentrale Fragestellungen waren dabei:

Wie muss ein Konstrukt formuliert werden, damit klar ist, welche Fähigkeit im Fokus des Tests steht?
Da ein Test nur bestimmte Facetten überprüfen kann, muss ein Fokus gesetzt werden, was man untersuchen will. Wichtig ist hierbei, dass man sich genau überlegt, was Gegenstand der Testung sein soll und dann das Konstrukt so formuliert, dass genau dies getestet wird.

Welche Rolle spielt die Auswahl der Testaufgaben?
Aufgaben sind die Operationalisierung des Konstrukts. Geeignete Aufgaben haben eine Mittlerstellung. Sie sind der Vermittler zwischen dem Konstrukt und der zu testenden Fähigkeit/Kompetenz. Es muss daher geprüft werden, ob die gewählte Aufgabe auch wirklich misst, was sie messen soll (Validität).

Welche Merkmale spielen für die Einschätzung von Textqualität eine Rolle?
Erkenntnis aus dem BMBF-Projekt Schreibkompetenz: Ein erstes aussagekräftiges Merkmal zur Einschätzung der Qualität von Texten ist, ob der Text seine (textsortenspezifische) kommunikative Funktion erfüllt. Geeignete Verfahren hierfür sind NAEP- und naive Ratings sowie (bedingt) auch analytische Ratings. Werden analytische Ratings durchgeführt, ist eine gründliche Rater-Schulung essentiell, um überhaupt valide Rating-Ergebnisse zu erhalten. Der Zeitaufwand für Schulungen und Pilotierungen für die analytischen Ratings ist jedoch sehr hoch.

Zentrale Thesen:

Schreibkompetenz ist ein Personenmerkmal zu einem bestimmten Zeitpunkt in einem bestimmten Bereich (z.B. einer speziellen Textsorte).

Wenn Texte dafür geschrieben werden, um zu kommunizieren, müssen sie auch so angelegt sein, dass der Leser sie verstehen kann.

Textverstehen ist laut Schnotz (2006) die Konstruktion einer mentalen Repräsentation des Textinhaltes (Mentales Modell).

Anregung für die Wissenschaft:

Auch wenn es bereits erste Versuche gibt, die Qualität von Texten und die Schreibkompetenz der Schülerinnen und Schüler zu messen, muss ein standardisiertes Verfahren hierfür erst noch entwickelt und in der Praxis getestet werden.

Anregung für die Praxis:

Über die Erfüllung/Nicht-Erfüllung der kommunikativen Funktion eines Textes kann die Textqualität eingeschätzt werden. Bis standardisierte Testverfahren vorliegen, sollte man sich vor der Textbewertung genau damit auseinandersetzen, welche Aspekte man bei der Bewertung fokussieren will und ein Konstrukt formulieren. Dieses kann wiederum dazu benutzt werden, passende Aufgaben zur Testung der spezifischen Fähigkeit zu entwickeln.

Literatur:

Becker-Mrotzek, M., Grabowski, J. Jost, J., Knopp, M. & Linnemann, M. (2014). Adressatenorientierung und Kohärenzherstellung im Text. Zum Zusammenhang kognitiver und schriftlich realisierter Teilkomponenten von Schreibkompetenz. Didaktik Deutsch, (37), 20-43.

Ehlich, K. (1983). Text und sprachliches Handeln. Die Entstehung von Texten aus dem Bedürfnis nach Überlieferung. In A. Assmann, J. Assmann, & C. Hardmeier (Hrsg.), Schrift und Gedächtnis. Beiträge zur Archäologie der literarischen Kommunikation. München: Wilhelm Fink, 24-43.

Hayes, J. R. (2012). Modeling and Remodeling Writing. Written Communication, 29(3), 369-388.

Hayes, J. R. & Flower, L. S. (1980). Identifying the Organization of Writing Process. In L. W. Gregg & E. R. Steinberg (Hrsg.), Cognitive Processes in Writing. Mahwah, New Jersey: Lawrence Erlbaum Associates, 3-30.

Kintsch, W. (1994). Text Comprehension, Memory, and Learning. American Psychologist, 49(4), 294-303.

Schnotz, W. (2006). Was geschieht im Kopf des Lesers? Mentale Konstruktionsprozesse beim Textverstehen aus der Sicht der Psychologie und der kognitiven Linguistik. In H. Blühdorn, E. Breindl, & U. H. Waßner (Hrsg.), Text – Verstehen. Grammatik und darüber hinaus. Berlin: de Gruyter, 222-238.

Vortrag: Sprachdiagnostik im Kontext von DaZ und Mehrsprachigkeit

Referent: Dr. Christoph Gantefort, Mercator-Institut

Der Vortrag beleuchtete die Sprachdiagnostik im Kontext von Deutsch als Zweitsprache und Mehrsprachigkeit. Er stellte dabei die Relevanz der gesamten sprachlichen Fähigkeiten von Schülerinnen und Schülern und deren Diagnostik in den Fokus.

Leitfragen:

Inwieweit ermöglichen es Bildungsinstitutionen, mehrsprachigen Schülerinnen und Schülern ihr gesamtsprachliches Repertoire zu nutzen?

Inwieweit ermöglichen es diagnostische Modelle, mehrsprachigen Schülerinnen und Schülern ihr gesamtsprachliches Repertoire zu nutzen?

Welche Potentiale bietet der Translanguaging-Ansatz für die pädagogische Praxis sowie die Sprachförderdiagnostik?

Zentrale Erkenntnisse:

Sowohl Bildungseinrichtungen als auch sprachdiagnostische Modelle sollten Schülerinnen und Schüler in ihrer Gesamtsprachlichkeit wahrnehmen, wobei man sich diese als ein Sprachkontinuum vorstellen kann: Es bildet ein sprachliches Repertoire, dessen Teile flexibel und je nach Kontext einsetzbar sind.

Zur Kommunikation greifen mehrsprachige Schülerinnen und Schüler auf Konzepte hierarchiehoher Fähigkeiten (z.B. Kohärenzbildung) sowie die einzelsprachlichen Mittel in verschiedenen Sprachen zurück. Wird dieser Zugriff durch schulische Normierung auf eine Sprache beschränkt, können nicht alle sprachlichen Fähigkeiten abgerufen werden. Dadurch werden Fehleinschätzungen der kognitiven Fähigkeiten der Schülerinnen und Schüler wahrscheinlich.

Herkömmliche Large Scale Tests konstruieren eine Problem behaftete Gruppe von Schülerinnen und Schülern. Sie betonen das schlechtere Abschneiden der Kinder mit Deutsch als Zweitsprache, ohne darauf zu verweisen, dass sie bei den einsprachig standardisierten Tests gar nicht in der Lage sind, ihre gesamten sprachlichen Fähigkeiten abzurufen.

Anregungen für die Wissenschaft:

Im Bereich der Diagnostik ist es wichtig zu fragen: Messe ich wirklich, was ich messen will? Wie können wir die Fähigkeiten von Kindern messen, wenn sie all ihre sprachlichen Ressourcen nutzen können?

Wenn eine Testung beabsichtigt, nicht nur die sprachliche Korrektheit in einer Sprache, sondern auch hierarchiehohe Prozesse zu messen, ist dies bei mehrsprachigen Kindern nicht in einer Sprache möglich.

Es ist wichtig, Lehramtsstudierende dafür zu sensibilisieren, Mehrsprachigkeit als Vorteil wahrzunehmen.

Anregungen für die Praxis:

Bei allen Testungen ist auch eine pädagogische Perspektive einzunehmen: Welchen Einfluss hat die Testung auf die teilnehmenden Schülerinnen und Schüler?

Schülerinnen und Schüler sollten in ihrer Gesamtsprachlichkeit wahr- und angenommen werden. Dafür können Translanguaging-Prozesse in den Unterricht integriert werden, beispielsweise indem man Kindern der gleichen Herkunftssprache die Möglichkeit gibt, sich auch in ihrer Erstsprache auszutauschen.

Literatur:

Celic, C. & Seltzer, K. (2011). Translanguaging: A CUNY-NYSIEB Guide for Educators. Verfügbar unter www.nysieb.ws.gc.cuny.edu/files/2012/06/FINAL-Translanguaging-Guide-With-Cover-1.pdf. [11.11.2015]

Francis, N. (2000). The Shared Conceptual System and Language Processing in Bilingual Children: Findings from Literacy Assessment in Spanish and Nahuatl. In: Applied Linguistics, 21(2), 170–204.

Francis, N. (2012). Bilingual Competence and Bilingual Proficiency in Child Development. Cambridge, Mass: The MIT Press.

Gantefort, C. (2013). Schriftliches Erzählen mehrsprachiger Kinder - Entwicklung und sprachenübergreifende Fähigkeiten. Interkulturelle Bildungsforschung: Vol. 21. Münster: Waxmann.

García, O. (2009). Bilingual education in the 21st century: A global perspective. Malden, Mass: Wiley-Blackwell.

García, O., & Wei, L. (2014). Translanguaging: Language, Bilingualism and Education. Basingstoke, Hampshire u. a.: Palgrave Macmillan.

Levin, T., & Shohamy, E. (2008). Achievement of Immigrant Students in Mathematics and Academic Hebrew in Israeli School: A Large-Scale Evaluation Study. Studies in Educational Evaluation, 34(1), 1–14.

Minami, M. & McCabe, A. (1995). Rice balls and bear hunts: Japanese and North American family narrative patterns. Journal Of Child Language, 22(2), 423–445.

Otheguy, R., García O. & Reid, W. (2015). Clarifying translanguaging and deconstructing named languages: A perspective from linguistics. Applied Linguistics Review, 6(3), 281–307.

Shohamy, E. (2002). The power of tests: A critical perspective on the uses of language tests. Studies in Second Language Acquisition, 24(4), 644–645.

Shohamy, E. (2011). Assessing Multilingual Competencies: Adopting Construct Valid Assessment Policies. Modern Language Journal, 95(3), 418–429.

van de Vijver, F., & Tanzer, N. K. (2004). Bias and equivalence in cross-cultural assessment: An overview. European Review of Applied Psychology / Revue Européenne de Psychologie Appliquée, 54(2), 119–135.

Workshop: Der Einsatz herkunftssprachlicher Versionen von standardisierten Verfahren zur Messung von Lesekompetenz

Referent: Dr. Christoph Gantefort, Mercator-Institut

In diesem Workshop wurde anhand eines aktuellen Projektes thematisiert und diskutiert, inwieweit sich im Kontext einer Evaluationsstudie rezeptive schriftsprachliche Fähigkeiten neben dem Deutschen auch in der Herkunftssprache erheben lassen. Die Grundlage dafür bilden zwei normierte und standardisierte Verfahren, die im Projekt aktuell auch in einer herkunftssprachlichen Version eingesetzt werden.

Leitfragen:

Wie lassen sich herkunftssprachliche Versionen von Testverfahren erstellen? Was gilt es dabei zu beachten?

Inwieweit lässt sich bei Testungen und Diagnostik im Kontext sprachlicher und kultureller Vielfalt Fairness gegenüber allen Probandinnen und Probanden erreichen?

Welche Erfahrungen lassen sich aus einer Türkisch-Übersetzung der WLLP (Würzburger Leise Leseprobe zur Erfassung der Leseleistung in Grundschulklassen) und ELFE 1-6 (Leseverständnistest für Erst- bis Sechstklässker) im Rahmen der wissenschaftlichen Begleitung eines BiSS-Verbundes weitergeben?

Erkenntnisse:

Es besteht die Gefahr, bei Erhebungen Verzerrungen durch unbeabsichtigte Unfairness gegenüber bestimmten Gruppen der Probandinnen und Probanden zu erhalten. Dieser Risiken sollte man sich bewusst sein und versuchen, sie möglichst gering zu halten.

Es gibt zwei Wege zu diagnostischen Instrumenten in zwei verschiedenen Sprachen:
1.) Die simultane Entwicklung, bei der ein neues Instrument gleichzeitig in verschiedenen Sprachen entwickelt wird.
2.) Die sukzessive Entwicklung, bei der ein bestehendes Instrument an andere Sprachen angepasst wird. Die sukzessive Entwicklung ist für Fehler anfälliger, tritt aber in der Praxis häufiger auf.

Um einen gruppenabhängigen Indikator (DIF - different item functioning), der möglicherweise zu Verzerrungen führt, in den Daten zu erkennen, eignen sich statistische Verfahren wie die Mantel-Haenszel-Prozedur, eine logistische Regression oder IRT-Modelle.

Anregungen für die Wissenschaft:

Es gibt noch viel Forschungsbedarf, um Testverfahren im Kontext sprachlicher und kultureller Vielfalt fair zu gestalten.

Übersetzungen von Testverfahren von der einen in die andere Sprache haben eine große Fehleranfälligkeit und müssen auch kulturelle Kontexte beachten.

Erhobene Daten sind darauf zu testen, ob trotz aller Bemühungen um Fairness ein DIF auftritt, also ein Indikator, der eine Gruppe der Probandinnen und Probanden benachteiligt.

Anregung für die Praxis:

Für die Praxis sind informelle Verfahren oft sehr sinnvoll, da sie qualitative Informationen bieten, mit denen man direkt arbeiten kann, ohne Schülerinnen und Schüler zu etikettieren.

Literatur:

Celic, C. & Seltzer, K. (2011). Translanguaging: A CUNY-NYSIEB Guide for Educators. Verfügbar unter www.nysieb.ws.gc.cuny.edu/files/2012/06/FINAL-Translanguaging-Guide-With-Cover-1.pdf. [11.11.2015]

Francis, N. (2000). The Shared Conceptual System and Language Processing in Bilingual Children: Findings from Literacy Assessment in Spanish and Nahuatl. In: Applied Linguistics, 21(2), 170–204.

Francis, N. (2012). Bilingual Competence and Bilingual Proficiency in Child Development. Cambridge, Mass: The MIT Press.

Gantefort, C. (2013). Schriftliches Erzählen mehrsprachiger Kinder - Entwicklung und sprachenübergreifende Fähigkeiten. Interkulturelle Bildungsforschung: Vol. 21. Münster: Waxmann.

García, O. (2009). Bilingual education in the 21st century: A global perspective. Malden, Mass: Wiley-Blackwell.

García, O., & Wei, L. (2014). Translanguaging: Language, Bilingualism and Education. Basingstoke, Hampshire u. a.: Palgrave Macmillan.

Levin, T., & Shohamy, E. (2008). Achievement of Immigrant Students in Mathematics and Academic Hebrew in Israeli School: A Large-Scale Evaluation Study. Studies in Educational Evaluation, 34(1), 1–14.

Minami, M. & McCabe, A. (1995). Rice balls and bear hunts: Japanese and North American family narrative patterns. Journal Of Child Language, 22(2), 423–445.

Otheguy, R., García O. & Reid, W. (2015). Clarifying translanguaging and deconstructing named languages: A perspective from linguistics. Applied Linguistics Review, 6(3), 281–307.

Shohamy, E. (2002). The power of tests: A critical perspective on the uses of language tests. Studies in Second Language Acquisition, 24(4), 644–645.

Shohamy, E. (2011). Assessing Multilingual Competencies: Adopting Construct Valid Assessment Policies. Modern Language Journal, 95(3), 418–429.

van de Vijver, F., & Tanzer, N. K. (2004). Bias and equivalence in cross-cultural assessment: An overview. European Review of Applied Psychology / Revue Européenne de Psychologie Appliquée, 54(2), 119–135.