Multimodalität: Unterschied zwischen den Versionen

Aus InfoWissWiki - Das Wiki der Informationswissenschaft
Zur Navigation springen Zur Suche springen
K
 
(Eine dazwischenliegende Version desselben Benutzers wird nicht angezeigt)
Zeile 6: Zeile 6:
  
 
==Links==
 
==Links==
 
*Hedicke, Volkmar: Multimodalität in Mensch-Maschine-Schnittstellen. http://www.symposion.de/mensch-maschine/mms_07.htm
 
  
 
*Virtuelles Handbuch Informationswissenschaft: "MULTIMEDIA - ein Begriff und seine (Er-)Klärung": http://is.uni-sb.de/studium/handbuch/multimedia.php
 
*Virtuelles Handbuch Informationswissenschaft: "MULTIMEDIA - ein Begriff und seine (Er-)Klärung": http://is.uni-sb.de/studium/handbuch/multimedia.php
Zeile 20: Zeile 18:
 
[[category:Multi- und Hypermedia]]
 
[[category:Multi- und Hypermedia]]
 
[[category:Psychologische Aspekte von Information]]
 
[[category:Psychologische Aspekte von Information]]
 
 
 
[[category:Psychologische Aspekte von Information]]
 
[[category:Multi- und Hypermedia]]
 

Aktuelle Version vom 6. Juli 2011, 14:04 Uhr

Weidenmann (1995) schlägt die Aufspaltung des Multimediabegriffs in die Dimensionen MEDIUM, KODIERUNG und SINNESMODALITÄT vor. Letzteres meint die Sinneskanäle (Auge, Ohr, Tastsinn...), mit denen ein mediales Angebot wahrgenommen wird. Informationen werden multimodal präsentiert, wenn sie verschiedene Sinnesmodalitäten (Sinneskanäle) ansprechen (z.B. akustisch, optisch, haptisch/taktil).

Literatur

  • Weidenmann, Bernd (1995): Multicodierung und Multimodalität im Lernprozess. In: L.J.Issing, P. Klimsa (Hrsg., 1995): Information und Lernen mit Multimedia. Weinheim: Psychologie-Verlagsunion

Links

Verwandte Begriffe

… weitere Daten zur Seite „Multimodalität
Informationen werden multimodal präsentiert, wenn sie verschiedene Sinnesmodalitäten (Sinneskanäle) ansprechen (z.B. akustisch, optisch, haptisch/taktil) +