Diskussion:Claude Shannon
Zum Archiv |
Wie wird ein Archiv angelegt? |
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 7 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. |
Abtastfrequenz
[Quelltext bearbeiten]"Demnach muss die Abtastfrequenz (Sampling rate) für ein Signal mehr als doppelt so groß sein wie die höchste Frequenz, die in ihm enthalten ist, bzw. die Datenrate (Symbolrate) kann maximal doppelt so hoch sein wie die zur Verfügung stehende Bandbreite (Nyquist-Shannon-Abtasttheorem)."
Hier müsste doch eigentlich die Datenrate maximal halb so hoch sein, wie die zur Verfügung stehende Bandbreite? --62.180.118.126 12:35, 23. Sep. 2008
- Meines Erachtens nicht. Ein Gegenbeispiel ist die digitale NRZ-Kodierung. Hier wird ein Strom an binären Symbolen (0 oder 1) dadurch kodiert, daß ein digitales Übertragungssignal stabil bleibt, wenn eine 0 kodiert werden soll, und seinen Wert ändert, wenn ein Symbol "1" kodiert werden soll.
- Beispiel:
000000101010111111111 Symbolfolge, wird kodiert zu: 000000110011010101010 Übertragungssignal
- Wenn die Symbolrate 2Hz beträgt, dann ist die höchste Frequenz im Übertragungssignal 1Hz. Man erhält sie bei Kodierung der Symbolfoge "111111" zu "010101"
- Das bedeutet, daß die Symbolrate(2Hz) doppelt so groß sein kann wie die Bandbreite (1Hz) - die ursprüngliche Aussage
- Dies gilt auch wohl dann noch, wenn man das entstehende Rechteck-Übertragungssignal filtert.
- Da ich nicht weiß, ob die ursprüngliche Aussage direkt von Shannon stammt und/oder wirklich korrekt ist, habe ich den Halbsatz zunächst nur entfernt, damit sicher nichts Falsches im Artikel steht.
- Wer es bestätigen kann, möge es ggfs. wieder einfügen. Danke! (nicht signierter Beitrag von 85.176.232.205 (Diskussion | Beiträge) 03:46, 10. Jul 2009 (CEST))
Informationstheorie
[Quelltext bearbeiten]Kommentar aus dem Artikel hierher verschoben --84.130.244.38 18:16, 6. Feb. 2012 (CET)
Hinweis: Das ist leider so nicht richtig: "Die Informationstheorie wurde entwickelt von [[Claude Elwood Shannon]" - Shannon hat keine "Informationstheorie" entwickelt. Es ist ein Unding, daß immer und immer wieder falsch voneinander abgeschrieben und sogar so gelehrt wird.
Shannon hat stets darauf bestanden, daß er eine "Kommunikationstheorie" entwickelt hat, all dieweil die Information seinerzeit erst noch der Ergründung und Beschreibung bedurfte und weil diese substanziell weit über die Arbeit Shannons an den Signalen der Informations-Technik, der Kommunikation, hinausreiche und nichts mit seinen technisch mathematischen Erkenntnissen zu tun habe, er beschäftige sich mit Signalen, nicht mit Information. Signale können Information tragen, müssen aber nicht. Datenübertragung sei noch lange keine Informationsübertragung. (Leider von unterwegs, die Quellen nicht zur Hand, dürfte nicht schwer sein, sie bei Shannon zu finden). Lu.R. (nicht signierter Beitrag von 77.186.177.140 (Diskussion) 04:21, 5. Feb. 2012 (CET))
- was willst du uns damit sagen? die informationstheorie gibt es zweifellos, und Shannon hat wensentlich zu ihr beigetragen, auch wenn er sie nicht so genannt hat. wenn du anderslautende quellen findest, kannst du sie gerne posten. --Mario d 18:58, 6. Feb. 2012 (CET)
Übersetzung
[Quelltext bearbeiten]Woher stammt „Mathematische Grundlagen in der Informationstheorie“ als Übersetzung von „A Mathematical Theory of Communication“?—Godung Gwahag (Diskussion) 15:26, 8. Aug. 2019 (CEST)
- Ist der deutsche Titel des Buchs, z.B. hier--Claude J (Diskussion) 16:38, 8. Aug. 2019 (CEST)
- Das genannte Buch besteht aus zwei Artikeln, einer von Weaver und einer von Shannon, siehe z.B. hier.
- Die Abhandlung von Shannon heißt dort Die mathematische Theorie der Kommunikation. 24 Jahre später wurde die Übersetzung noch einmal überarbeitet, siehe z.B. hier, nunmehr unter dem Titel Eine mathematische Theorie der Kommunikation.
- Ist es Ok, wenn ich diesen Titel nachpflege? --T. Wirbitzki (Diskussion) 15:55, 8. Okt. 2022 (CEST)
- Ist der deutsche Titel des Buchs, z.B. hier--Claude J (Diskussion) 16:38, 8. Aug. 2019 (CEST)
Entropie
[Quelltext bearbeiten]Entropie verlinkt aktuell auf den physikalischen Begriff, nicht auf den aus der Informationstheorie.—Godung Gwahag (Diskussion) 15:26, 8. Aug. 2019 (CEST)
- Soll es auch, Informationstheorie im zweiten Teil des Satzes verlinkt auf die informationstheoretische Entropie.--Claude J (Diskussion) 16:40, 8. Aug. 2019 (CEST)
Shannon-Index
[Quelltext bearbeiten]Sollte der Shannon-Index nicht irgendwo erwähnt werden? --Lsky (Diskussion) 15:24, 24. Jan. 2022 (CET)
- jetzt unter "siehe auch"--Claude J (Diskussion) 18:20, 24. Jan. 2022 (CET)
kein nobelpreis
[Quelltext bearbeiten]Shannon hat keinen Nobelpreis erhalten. Sollte jemand korrigieren --2003:D8:C720:CD00:3066:33C2:92DD:10B7 14:07, 30. Aug. 2024 (CEST)
- Er hat den Alfred Noble Prize erhalten, und mehr steht - soweit ich das sehe - ja auch nicht im Artikel. --WAH (Diskussion) 14:10, 30. Aug. 2024 (CEST)
- (nach Bk) In dem Artikel steht nichts von einem Nobelpreis; Shannon bekam 1939 den Alfred Noble Prize, und das ist ein vollkommen anderer Preis. Gruß -- Achim Raschka (Diskussion) 14:11, 30. Aug. 2024 (CEST)