0

Neuronale Netze programmieren mit Python

Der Einstieg in KI, Machine Learning und Deep Learning. Mit KI-Lernumgebung, Python-Crashkurs, Keras und TensorFlow

Erschienen am 07.01.2025, 3. Auflage 2025
34,90 €
(inkl. MwSt.)

Lieferbar innerhalb 24 Stunden

In den Warenkorb
Bibliografische Daten
ISBN/EAN: 9783367102549
Sprache: Deutsch
Umfang: 510 S.
Format (T/L/B): 2.8 x 23 x 17.3 cm
Einband: Paperback

Beschreibung

Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht. Sie revolutionieren Bild- und Spracherkennung, Spiele-KIs und vieles mehr. Zum Glück lassen sich die genialen Ideen dahinter einfach erklären. Um sie zu verstehen und einzusetzen, programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse. Aus dem Inhalt: Die Grundidee hinter Neuronalen NetzenEin einfaches Neuronales Netz aufbauenNeuronale Netze trainierenÜberwachtes und unüberwachtes LernenEinführung in TensorFlowKompaktkurs PythonWichtige mathematische GrundlagenReinforcement LearningVerschiedene Netzarten und ihre AnwendungsbereicheBack PropagationDeep LearningWerkzeuge für Data Scientists

Produktsicherheitsverordnung

Hersteller:
Rheinwerk Verlag GmbH
service@rheinwerk-verlag.de
Rheinwerkallee 4
DE 53227 Bonn

Rezension

»Neuronale Netze programmieren mit Python ist eine ausgezeichnete Wahl für jeden, der sich intensiv mit künstlicher Intelligenz und maschinellem Lernen auseinandersetzen möchte. Die Kombination aus theoretischer Fundierung, praktischen Übungen und moderner Didaktik macht dieses Buch zu einer wertvollen Ressource für Studierende, Fachleute und Technik-Enthusiasten gleichermaßen. Besonders hervorzuheben ist die gelungene Balance zwischen Zugänglichkeit und Tiefgang, die es sowohl Einsteigern als auch Fortgeschrittenen ermöglicht, von diesem Werk zu profitieren.«

Inhalt

       Vorwort zur 2. Auflage ... 16        Vorwort zur 3. Auflage (in Kooperation mit einem Transformer Neural Network) ... 17        1.1 ... Wozu neuronale Netze? ... 19        1.2 ... Über dieses Buch ... 20        1.3 ... Der Inhalt kompakt ... 22        1.4 ... Ist diese Biene eine Königin? ... 25        1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 26        1.6 ... Von der Biologie zum künstlichen Neuron ... 32        1.7 ... Einordnung und der Rest ... 36        1.8 ... Zusammenfassung ... 45        1.9 ... Referenzen ... 45        2.1 ... Die technische Entwicklungsumgebung ... 49        2.2 ... Zusammenfassung ... 72        3.1 ... Vorgeschichte ... 73        3.2 ... Her mit dem neuronalen Netz! ... 73        3.3 ... Neuron-Zoom-in ... 77        3.4 ... Stufenfunktion ... 82        3.5 ... Perceptron ... 84        3.6 ... Punkte im Raum -- Vektorrepräsentation ... 85        3.7 ... Horizontal und vertikal -- Spalten- und Zeilenschreibweise ... 92        3.8 ... Die gewichtete Summe ... 95        3.9 ... Schritt für Schritt -- Stufenfunktionen ... 95        3.10 ... Die gewichtete Summe reloaded ... 96        3.11 ... Alles zusammen ... 97        3.12 ... Aufgabe: Roboterschutz ... 100        3.13 ... Zusammenfassung ... 103        3.14 ... Referenzen ... 103        4.1 ... Vorgeschichte: Man lässt planen ... 105        4.2 ... Lernen im Python-Code ... 106        4.3 ... Perceptron-Lernen ... 107        4.4 ... Trenngerade für einen Lernschritt ... 110        4.5 ... Perceptron-Lernalgorithmus ... 112        4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 117        4.7 ... scikit-learn-kompatibler Estimator ... 120        4.8 ... scikit-learn-Perceptron-Estimator ... 127        4.9 ... Adaline ... 129        4.10 ... Zusammenfassung ... 139        4.11 ... Referenzen ... 141        5.1 ... Ein echtes Problem ... 143        5.2 ... XOR kann man lösen ... 145        5.3 ... Vorbereitungen für den Start ... 150        5.4 ... Der Plan für die Umsetzung ... 152        5.5 ... Das Setup (»class«) ... 153        5.6 ... Die Initialisierung (»__init__«) ... 155        5.7 ... Was für zwischendurch (»print«) ... 158        5.8 ... Die Auswertung (»predict«) ... 159        5.9 ... Die Verwendung ... 161        5.10 ... Zusammenfassung ... 162        6.1 ... Wie misst man einen Fehler? ... 163        6.2 ... Gradientenabstieg an einem Beispiel ... 165        6.3 ... Ein Netz aus sigmoiden Neuronen ... 174        6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Propagation ... 176        6.5 ... Ein fit-Durchlauf ... 189        6.6 ... Zusammenfassung ... 198        6.7 ... Referenz ... 198        7.1 ... Convolutional Neural Networks ... 199        7.2 ... Transformer Neural Networks ... 216        7.3 ... Das Optimierungsverfahren ... 226        7.4 ... Overfitting verhindern ... 228        7.5 ... Zusammenfassung ... 230        7.6 ... Referenzen ... 231        8.1 ... Convolutional Networks zur Handschriftenerkennung ... 233        8.2 ... Transfer Learning mit Convolutional Neural Networks ... 249        8.3 ... Transfer Learning mit Transformer Neural Networks ... 259        8.4 ... Zusammenfassung ... 264        8.5 ... Referenzen ... 265        9.1 ... Ihr Gehirn in Aktion ... 270        9.2 ... Das Nervensystem ... 270        9.3 ... Das Gehirn ... 271        9.4 ... Neuronen und Gliazellen ... 274        9.5 ... Eine Übertragung im Detail ... 276        9.6 ... Darstellung von Zellen und Netzen ... 279        9.7 ... Zusammenfassung ... 280        9.8 ... Referenzen ... 281        10.1 ... Die 1940er-Jahre ... 284        10.2 ... Die 1950er-Jahre ... 286        10.3 ... Die 1960er-Jahre ... 288        10.4 ... Die 1970er-Jahre ... 288        10.5 ... Die 1980er-Jahre ... 289        10.6 ... Die 1990er-Jahre ... 303        10.7 ... Die 2000er-Jahre ... 303        10.8 ... Die 2010er-Jahre ... 304        10.9 ... Zusammenfassung ... 307        10.10 ... Referenzen ... 307        11.1 ... Das CRISP-DM-Modell ... 309        11.2 ... Ethische und rechtliche Aspekte ... 313        11.3 ... Feature Engineering ... 324        11.4 ... Zusammenfassung ... 353        11.5 ... Referenzen ... 354        12.1 ... Lernstrategien ... 355        12.2 ... Werkzeuge ... 384        12.3 ... Zusammenfassung ... 389        12.4 ... Referenzen ... 390        13.1 ... Warmup ... 391        13.2 ... Bildklassifikation ... 394        13.3 ... Erträumte Bilder ... 415        13.4 ... Deployment mit vortrainierten Netzen ... 426        13.5 ... Zusammenfassung ... 430        13.6 ... Referenzen ... 431        A ... Python kompakt ... 435        B ... Mathematik kompakt ... 465        C ... TensorFlow 2 und Keras ... 485