Claude E. Shannon: Unterschied zwischen den Versionen
(→Links) |
|||
(5 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 5: | Zeile 5: | ||
Shannon wurde am 30. April 1916 in Petoskey (Michigan) geboren. Nach Abschluss der Schule besuchte er die Universität Michigan und erwarb 1940 seinen Doktortitel am Massachusetts Institute of Technology. Nachdem er bei den Bell Telefone Laboratories gearbeitet hatte, wurde Shannon 1956 Fakultätsmitglied am Massachusetts Institute of Technology. Shannon litt während seiner letzten Lebensjahre an der Alzheimer-Krankheit. Er starb am 24. Februar 2001 in einem Pflegeheim in Medford (Massachusetts). (http://de.encarta.msn.com/encyclopedia_761573772/Claude_Shannon.html) | Shannon wurde am 30. April 1916 in Petoskey (Michigan) geboren. Nach Abschluss der Schule besuchte er die Universität Michigan und erwarb 1940 seinen Doktortitel am Massachusetts Institute of Technology. Nachdem er bei den Bell Telefone Laboratories gearbeitet hatte, wurde Shannon 1956 Fakultätsmitglied am Massachusetts Institute of Technology. Shannon litt während seiner letzten Lebensjahre an der Alzheimer-Krankheit. Er starb am 24. Februar 2001 in einem Pflegeheim in Medford (Massachusetts). (http://de.encarta.msn.com/encyclopedia_761573772/Claude_Shannon.html) | ||
− | == | + | == Diplomarbeit "A Symbolic Analysis of Relay and Switching Circuits" == |
In seiner Diplomarbeit beschreibt Shannon, wie aus den Zuständen 1 und 0 bestehende [[Suchoperatoren|Boolesche]] Logik mit Hilfe von elektrischen Schaltern automatisch ausgeführt werden kann: Ist ein Schaltkreis geschlossen, entspricht dies der 1; fließt kein Strom wird die 0 symbolisiert. Diese Idee prägte den Begriff Bit als kleinste Informationseinheit in der Wissenschaft. | In seiner Diplomarbeit beschreibt Shannon, wie aus den Zuständen 1 und 0 bestehende [[Suchoperatoren|Boolesche]] Logik mit Hilfe von elektrischen Schaltern automatisch ausgeführt werden kann: Ist ein Schaltkreis geschlossen, entspricht dies der 1; fließt kein Strom wird die 0 symbolisiert. Diese Idee prägte den Begriff Bit als kleinste Informationseinheit in der Wissenschaft. | ||
− | == | + | ==Artikel "A mathematical theory of communication"== |
Im Jahr 1948 veröffentlichte er den Artikel "A mathematical theory of communication", in dem er sein ursprüngliches Konzept unterbreitete – eine einheitliche Theorie der Nachrichtenübertragung und -verarbeitung. Der Begriff Nachrichten umfasst in diesem Zusammenhang alle Formen von übertragenen Botschaften, einschließlich derer, die im Nervensystem von lebenden Organismen versendet werden. | Im Jahr 1948 veröffentlichte er den Artikel "A mathematical theory of communication", in dem er sein ursprüngliches Konzept unterbreitete – eine einheitliche Theorie der Nachrichtenübertragung und -verarbeitung. Der Begriff Nachrichten umfasst in diesem Zusammenhang alle Formen von übertragenen Botschaften, einschließlich derer, die im Nervensystem von lebenden Organismen versendet werden. | ||
Zeile 29: | Zeile 29: | ||
==Links== | ==Links== | ||
− | + | *http://de.wikipedia.org/wiki/Claude_Elwood_Shannon | |
− | *http://de.wikipedia.org/wiki/Claude_Elwood_Shannon | ||
==Verwandte Begriffe== | ==Verwandte Begriffe== | ||
− | * [[ | + | * [[related::Informationstheorie]] |
[[category:Personen]] | [[category:Personen]] |
Aktuelle Version vom 21. Juli 2010, 09:58 Uhr
Claude Elwood Shannon (* 30. April 1916 in Petoskey, Michigan; † 24. Februar 2001 in Medford, Massachusetts) war ein US-amerikanischer Mathematiker. Er gilt als Begründer der Informationstheorie.
Inhaltsverzeichnis
Biographie
Shannon wurde am 30. April 1916 in Petoskey (Michigan) geboren. Nach Abschluss der Schule besuchte er die Universität Michigan und erwarb 1940 seinen Doktortitel am Massachusetts Institute of Technology. Nachdem er bei den Bell Telefone Laboratories gearbeitet hatte, wurde Shannon 1956 Fakultätsmitglied am Massachusetts Institute of Technology. Shannon litt während seiner letzten Lebensjahre an der Alzheimer-Krankheit. Er starb am 24. Februar 2001 in einem Pflegeheim in Medford (Massachusetts). (http://de.encarta.msn.com/encyclopedia_761573772/Claude_Shannon.html)
Diplomarbeit "A Symbolic Analysis of Relay and Switching Circuits"
In seiner Diplomarbeit beschreibt Shannon, wie aus den Zuständen 1 und 0 bestehende Boolesche Logik mit Hilfe von elektrischen Schaltern automatisch ausgeführt werden kann: Ist ein Schaltkreis geschlossen, entspricht dies der 1; fließt kein Strom wird die 0 symbolisiert. Diese Idee prägte den Begriff Bit als kleinste Informationseinheit in der Wissenschaft.
Artikel "A mathematical theory of communication"
Im Jahr 1948 veröffentlichte er den Artikel "A mathematical theory of communication", in dem er sein ursprüngliches Konzept unterbreitete – eine einheitliche Theorie der Nachrichtenübertragung und -verarbeitung. Der Begriff Nachrichten umfasst in diesem Zusammenhang alle Formen von übertragenen Botschaften, einschließlich derer, die im Nervensystem von lebenden Organismen versendet werden.
Übertragungsmodell nach Shannon
Den Ausgangspunkt bildet die Informationsquelle (Information Source), die ihre Nachricht (Message) an dem Sender (Transmitter) abgibt. Hierbei kann es sich um eine Folge von Zeichen eines Textes, um eine Funktion wie der Spannungsverlauf an einem Mikrofon oder ein Fernsehfarbbildsignal handeln. Der Sender passt die Nachricht auf die physikalischen Eigenschaften des Kanals (Rauschquelle; Noise Source) an und erzeugt das Sendesignal. Das gestörte Signal kommt als Empfangssignal (Received Signal) an. Der Empfänger soll aus dem gestörten Empfangssignal die Nachricht wiedergewinnen und in geeigneter Form an ihr Ziel (Destination) weiterleiten.
(Werner, Martin: Information und Codierung. Grundlagen und Anwendungen, Braunschweig/Wiesbaden 2002, S.2)
Weitere bedeutende Werke und Errungenschaften
Zu seinen Forschungsergebnissen im Bereich der Booleschen Algebra gehören der Inversionssatz sowie der Entwicklungssatz von Shannon. Nach ihm wurde die Einheit des Informationsgehaltes einer Nachricht (Shannon) benannt.
Literatur
- Werner, Martin: Information und Codierung. Grundlagen und Anwendungen, Braunschweig/Wiesbaden 2002, S.2