Interoperable interactive geometry for Europe
I forgot my login data
Register


Report a bug


Fan club

Quick Intro Videos
click to start movie
Create A Simple
GeoGebra Resource (25Mb)
click to start movie
Filing a review
click to start movie
Find a Resource

SPONSORS
This platform is brought to you by the intergeo project, funded under the eContent Plus programme of the European commission and by partners

Das Muster: Feedback on Demand

The FEEDBACK ON DEMAND Pattern

Problem / Challenges / Motivation

Um einen Lernprozess richtig unterstützen zu können, darf es nicht nur eine Rückmeldung aufgrund des Endergebnisses geben. Es muss auch Feedback zu mathematischen Prozessen wie algebraischen Umformungen durch vergleichen der verschiedenen Lösungsschritten aber auch zu übergeordneten Prozessen wie Begründen, Problemlösen, Darstellen und dem Lernprozess selbst.

Diese Schwierigkeit stellt sich nicht nur in den Einführungsveranstaltungen mit einer großen Anzahl an Teilnehmern, sondern auch in kleinen Übungsgruppen. Die Tutoren können auch hier nicht alle Prozesse der 10 bis 20 Studenten gleichzeitig verfolgen. Studenten sollten aber die Möglichkeit haben ein prozessorientiertes Feedback zu erhalten, wenn sie es benötigen (Notwendigkeit kommt von den Studenten). Ebenso solle es möglich sein, dass Dozenten oder Lehrer interessante (richtige oder falsche) mathematische Prozesse auswählen können, um diese dann in den Veranstaltungen anonymisiert zu diskutieren.

Forces / Kräfte

Studenten benötigen Rückmeldungen zu ihren mathematischen Tätigkeiten und Lernprozessen um diese dann zu verbessern und um zu wissen wo sie stehen. Tutoren können maximal den Lernprozess eines Studenten oder einer Lerngruppe begleiten. Zudem kann eine Rückmeldung zu einem mathematischen Prozess komplex und zeitaufwändig sein: insbesondere müssen Lernprozesse über eine längere zeit hinweg beobachtet werden. Wurde ein Prozess diagnostiziert/ermittelt, muss das Feedback vorsichtig gewählt werden, so dass es informativ, aufmunternd und nicht einschüchternd wirkt.

Solution/Lösung

Prozesse werden von speziellen Computerprogrammen aufgezeichnet und analysiertt. Normalerweise sind an einer Lösungsfindung einer komplexen mathematischen Aufgabe mehrere unterschiedliche Prozesse beteiligt/verstrickt. Es gibt zudem mehrer „falsche Lösungswege“ wenn Studenten eine Aufgabe lösen. Es wäre also unmöglich einen Verfahren für den Computer zu entwickeln, der alle Prozesse korrekt aufzeichnet und analysiert. Stattdessen reicht es schon aus, Standardfehler und –lösungen zu ermitteln. Prozesse, die nicht automatisch eingeordnet werden können, können dann an den Dozenten oder den Tutor weitergeleitet und dort bewertet werden (semi-automated assessment; Müller, Bescherer, Kortenkamp, & Spannagel, 2006). Dies bedeutet:

  • Man benötigt Programme, die Prozesse in Anwendungen wie Dynamischen Geometriesystemen oder Tabellenkalkulationsprogrammen aufzeichnen und analysieren können. Dies können ganz allgemeine Werkzeuge sein, die die Benutzerinteraktionen innerhalb des Programms analysieren können (z.B. Jacareto; Spannagel, Gläser-Zikuda, & Schroeder, 2005) oder Auswertungsfunktionen eingebaut haben (z.B. das Testen von Gleichungen/Termen in Cinderella; Richter-Gebert & Kortenkamp, 1999).
  • Studenten müssen die Möglichkeit haben prozessnahe Rückmeldung zu bekommen, zum Beispiel indem sie auf einen „Feedback-Button“ klicken können. Wenn dass Analyseprogramm den Prozess einordnen kann, kann direkt ein e Rückmeldung gegeben werden. Ansonsten kann die Aufzeichnung des Prozesses an den Dozenten oder Tutor weitergegeben werden und dieser kann dann eine Rückmeldung geben.
  • Der Dozent sollte die Möglichkeit haben die aufgezeichneten Prozesse zu durchsuchen/überfliegen und interessante (richtige und falsche) für die nächste Veranstaltung auszuwählen. Demnach braucht es ein Repertoire an Prozessen, die von den Studierenden kommen (cf. Oppermann & Thomas, 1995). Zusätzlich müssen die aufgenommenen Prozesse in einer Form gespeichert werden, dass diese wieder vorgeführt werden können. Das kann mit „capture & replay“ - Werkzeugen wie Jacareto gemacht werden (Schroeder & Spannagel, 2006).

Rationale/Theoretischer Hintergrund

Um angemessene Rückmeldung geben zu können muss die Theorie zu Feedback und Bewertung herangezogen werden (z.B. Dempsey & Sales, 1993). Bewertung ist die „systematische bewertende Auswertung einer individuellen Fähigkeit und in einer speziellen Umgebung oder Kontext“ (übers. nach Payne, 1997, S. 474). Normalerweise wird dies aufgrund eines Produkts (Unterlagen, schriftlichen Prüfungen, Portfolios, …) oder auch auf Beobachtungen des Lehrers, mündlichen Unterrichtsbeiträgen, oder Schülerpräsentationen. Die Bewertung wird dann zu einem „formative assessment“, wenn es das Lehren und Lernen voranbringt, d.h. „das Material wird hauptsächlich dafür genutzt, dass das Lehren die Bedürfnisse des Lernens genügen (übers. nach Black et al., 2004, S. 10).

Blickt man auf die Beurteilung mathematischen Lernens, so gibt es derzeit eine weltweite Diskussion, dass Änderungen in der Lehre von Mathematik stark an Änderungen in der Bewertung mathematischen Wissens zusammenhängen. In den Assessment Standard for School, die 1995 vom National Council of Teachers of Mathematics veröffentlicht wurden, ist der Schwerpunkt auf der Beurteilung der kompletten mathematischen Fähigkeiten der Studenten anstatt nur das spezifische Wissen eines Bereichs oder vereinzelte Fähigkeiten zu beurteilen. Beurteilungen müssen als etwas Kontinuierliches und Wiederkehrendes gesehen werden und nicht als etwas Unregelmäßiges und Endgültiges (NCTM, 1995, S. 83).

Es ist wichtig, dass prozessnahe Rückmeldung informativ ist und keinerlei negative Emotionen hervorruft. Es sollte die wahrgenommene Fähigkeit der Studierenden stärken, was für die Motivation ein wichtiger Faktor darstellt (Deci & Ryan, 2002).

Halbautomatische Bewertung verringern den Anspruch automatisch alle Prozesse zu interpretieren. Stattdessen kombiniert es die Leistungsfähigkeit von Computern, Standardlösungen und -fehler zu erkennen, und die fachlichen Fähigkeiten der Tutoren und Dozenten, ungewöhnliche Lösungen zu verstehen. Für weitere Hintergrundinformationen über „intelligent assessment“, bei dem halbautomatische Bewertungen eine Teilrolle spielt, vergleiche Bescherer et al.(im Druck).

Examples/Beispiele

Das dreijährige Projekt SAiL-M (Semi-automatischen Analyse individueller Lernprozesse in der Mathematik) startete Ende 2008, finanziert vom Bundesministerium für Bildung und Forschung, arbeitet an der Umsetzung dieser Art von Rückmeldung. Zur Zeit wird an mehreren Umsetzungen gearbeitet, die ab dem Sommersemester 2009 eingesetzt werden sollen.

So entstand mittlerweile ein Beweistool für den Computer zur Bearbeitung von Beweisen. Dem Vorgehen/Der Beweismethode im Programm liegt die Idee des Zwei-Spalten-Beweises oder Listenbeweis (vgl. Holland, 2007), bei denen es vor allem auch auf die Begründungen der jeweiligen Beweisschritte an. Es werden Situationen von Standartbeweise von den Dozenten oder Tutoren vorgegeben, die die Studierenden dann lösen sollen. Die einzelnen Beweisschritte (Aussagen) müssen von den Studierenden aus einem vorgegebenen Repertoire an Aussagen sinnvoll zusammensetzen.

Der Computer kann nahe am Prozess zu den einzelnen Beweisschritten Rückmeldung geben ob Zirkelschlüsse enthalten sind, Beweisschritte oder Begründungen fehlen. Allerdings kann dies immer nur mit der Standardlösung verglichen werden, Lösungen oder Fehler die das Programm nicht erkennt werden an den Tutor oder den Dozenten weitergeleitet.

Related Patterns

Literatur

  1. Bescherer, C., Kortenkamp, U., Müller, W. & Spannagel, C.: Intelligent Computer-Aided Assessment in Mathematics Classrooms. To appear in the IFIP WG 3.3 book Theory and History, Questions and Methodology: Current and Future Issues in Research into ICT in Education (in press).
  2. Black, P., Harrison, C., Lee,C., Marshall, B., & Wiliam, D.: Working Inside the Black Box: Assessment for Learning in the Classroom. Phi Delta Kappan, 86(1), 9–21 (2004).
  3. Deci, E. L. & Ryan, R. M.: An overview of self-determination theory: an organismic-dialectical perspective. In: E. L. Deci & R. M. Ryan (eds.), Handbook of self-determination research, pp. 3–33, The University of Rochester Press, Rochester, NY (2002).
  4. Dempsey, J. V. & Sales, G. C. (eds.): Interactive Instruction and Feedback. Educational Technology Publications, Englewood Cliffs, NJ (1993).
  5. Holland, G.: Geometrie in der Sekundarstufe: Entdecken – Konstruieren – Deduzieren. Verlag Franzbecker, Hildesheim, Berlin (2007).
  6. Müller, W., Bescherer, C., Kortenkamp, U., & Spannagel, C.: Intelligent Computer-Aided Assessment in Math Classrooms:  State-of-the-art and Perspectives. In: Proceedings of the Joint Conference of the IFIP WG 3.1, 3.2 and 3.5 at Alesund, Norwegen, Juni 2006.
  7. NCTM: Assessment Standards for School Mathematics, The National Council of Teachers of Mathematics, Reston VA (1995).
  8. Oppermann, R. & Thomas, C. G.: Learning and problem solving as an iterative process: Learner’s Living Repository: LEAR. In: C. Stephanidis (ed.), Towards user interfaces for all: current efforts and future trends. Proceedings of the ERCIM Workshop, Heraklion, Crete, Greece, 30.–31. October 1995.
  9. Payne, D. Applied Educational Assessment, Wadworth Publishing Company, Belmont, CA (1997)
  10. Richter-Gebert, J. & Kortenkamp, U.: The Interactive Geometry Software Cinderella. Springer, Heidelberg (1999).
  11. Schroeder, U. & Spannagel, C.: Supporting the Active Learning Process. International Journal on E-Learning, 5(2), 245-264, 2006.
  12. Spannagel C., Gläser-Zikuda, M., & Schroeder, U.: Application of Qualitative Content Analysis in User-Program Interaction Research. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 6(2). Art. 29, (2005).