Multimodalität
Version vom 3. September 2008, 08:52 Uhr von Luckhardt (Diskussion | Beiträge)
Weidenmann (1995) schlägt die Aufspaltung des Multimediabegriffs in die Dimensionen MEDIUM, CODIERUNG und SINNESMODALITÄT vor. Letzteres meint die Sinneskanäle (Auge, Ohr, Tastsinn...), mit denen ein mediales Angebot wahrgenommen wird. Informationen werden multimodal präsentiert, wenn sie verschiedene Sinnesmodalitäten (Sinneskanäle) ansprechen (z.B. akustisch, optisch, haptisch/taktil).
Literatur
- Weidenmann, Bernd (1995): Multicodierung und Multimodalität im Lernprozess. In: L.J.Issing, P. Klimsa (Hrsg., 1995): Information und Lernen mit Multimedia. Weinheim: Psychologie-Verlagsunion
Links
- Hedicke, Volkmar: Multimodalität in Mensch-Maschine-Schnittstellen. http://www.symposion.de/mensch-maschine/mms_07.htm
- Virtuelles Handbuch Informationswissenschaft: "MULTIMEDIA - ein Begriff und seine (Er-)Klärung": http://is.uni-sb.de/studium/handbuch/multimedia.php
Verwandte Begriffe
… weitere Daten zur Seite „Multimodalität“
Informationen werden multimodal präsentiert, wenn sie verschiedene Sinnesmodalitäten (Sinneskanäle) ansprechen (z.B. akustisch, optisch, haptisch/taktil) +