0

Algorithmische Informationstheorie

Statistische Informationstheorie und Anwendungen auf algorithmische Fragestellungen, Teubner Texte zur Informatik 23

Erschienen am 01.01.1997, 1. Auflage 1997
34,95 €
(inkl. MwSt.)

Nachfragen

In den Warenkorb
Bibliografische Daten
ISBN/EAN: 9783815423103
Sprache: Deutsch
Umfang: 143 S., 2 s/w Illustr., 143 S. 2 Abb.
Einband: kartoniertes Buch

Beschreibung

Dieses Buch beinhaltet eine Einführung in die statistische Informationstheorie, die von Shannon 1948 begründet wurde. Ich gebe dieses Buch heraus, da die Vorlesung auch den Anwendungen dieser Theorie auf algorithmische Probleme nachgeht. Daß die Entropie einer Quelle als untere Schranke für die Laufzeit von Suchprogrammen verwendet werden kann, ist seit 20 Jahren bekannt, ohne daß aber die Konzepte der Informationstheorie eine systematische Anwendung in diesem Bereich erfahren haben. So wurden Markovquellen im Zusammenhang mit effizienten Suchverfahren bei geordneten Schlüsseln erstmals 1992 vom Autor diskutiert. Die Vorlesung geht auf die Frage der Gewinnung unterer Schranken für die mittlere Laufzeit von Algorithmen ein und versucht die Kodierungstheoreme zur Konstruktion effizienter Algorithmen zu nutzen. Günter Hotz

Produktsicherheitsverordnung

Hersteller:
Springer Vieweg in Springer Science + Business Media
juergen.hartmann@springer.com
Abraham-Lincoln-Straße 46
DE 65189 Wiesbaden


Inhalt

Inhaltsangabe1 Statistische Informationstheorie im Falle diskreter ungestörter Kanäle.- 1.1 Definition der Entropie einer Quelle.- 1.2 Der Kodierungssatz im störungsfreien Fall.- 1.3 Ordnungserhaltende Kodierungen.- 1.4 Anwendungen des Kodierungstheorems.- 1.4.1 Suchprobleme.- 1.4.2 Unvollständige Suchbäume bei gedächtnislosen Quellen.- 1.4.3 Sortieren bei gedächtnisloser Quelle.- 1.4.4 Suchen und Sortieren in Linearzeit bei Quellen (A,p) mit unbekanntem p.- 1.4.5 Abschätzung der Laufzeit bei anderen Suchverfahren.- 1.4.6 Die Entropie als untere Schranke für die Größe von Schaltkreisen.- 1.4.7 Die Entropie als untere Schranke für Sortierverfahren.- 1.4.8 Die Entropie als untere Schranke für beliebige Berechnungen.- 1.4.9 Anwendungen in der Kryptographie.- 1.5 Kritische Würdigung des Kodierungstheorems.- 2 Informationstheorie bei Markovketten.- 2.1 Quellen mit Gedächtnis.- 2.2 Definition von Markovketten.- 2.3 Entropie von Markovprozessen.- 2.4 Das Kodierungstheorem für Markovprozesse.- 2.5 Suchgraphen.- 2.6 ?-Zerlegungen von Markovquellen.- 2.7 ?-Überdeckungen von Markovprozessen.- 2.8 Sortieren und andere Anwendungen.- 2.8.1 Sortieren.- 2.8.2 Andere Anwendungen.- 3 Die Kapazität von diskreten Kanälen.- 3.1 Gestörte diskrete Kanäle ohne Gedächtnis.- 3.1.1 Definitionen.- 3.1.2 Kanalerweiterungen und Entscheidungsschemata.- 3.2 Der Satz von Fano.- 3.3 Das Kodierungstheorem für Kanäle ohne Gedächtnis.- Ausblick.- Historische Bemerkungen.- Aufgaben.- zu Kapitel 1.- zu Kapitel 2.- zu Kapitel 3.

Weitere Artikel aus der Kategorie "Informatik, EDV/Informatik"

Lieferbar innerhalb 1 - 2 Wochen

33,49 €
inkl. MwSt.

Lieferbar innerhalb 24 Stunden

18,00 €
inkl. MwSt.
Alle Artikel anzeigen