KI-Anwendungen selbst erstellen und mit eigenen Daten nutzen - das ist möglich mit frei verfügbarer Technologie, lokaler Hardware und sogar ohne Programmierkenntnisse.
Die KI-Technologie wird in atemberaubendem Tempo immer zugänglicher. Mit diesem Buch sind Sie immer einen Schritt voraus. Lernen Sie einschlägige KI-Verfahren kennen und setzen Sie für jedes dieser Verfahren eine Anwendung selbst um. Dafür nutzen Sie die Data Science Plattform KNIME - ideal, um eigene Daten aus unterschiedlichen Quellen zu integrieren und mit rein grafischer Programmierung Anwendungen zu erstellen.
Das Buch deckt eine Reihe von Themen ab, darunter:
Künstliche neuronale Netze
Entscheidungsbäume
Bilderkennung
Convolutional Neural Networks
Transfer Learning
Textgenerierung
Unsupervised und Reinforcement Learning
Transformer: ChatGPT, DALL-E und Co.
Außerdem führen wir Sie in die Welt von TensorFlow und Keras ein und zeigen Ihnen, wie Sie Anwendungen in einfachem Python erstellen können. Alle vorgestellten Projekte sind in der beruflichen Bildung erprobt und haben sich als effektiv erwiesen.
So bereichern Sie Ihre Skills mit einem modernen Werkzeugkasten, mit dem Sie maschinelles Lernen in der Datenanalyse, dem Controlling und vielen weiteren Anwendungsfeldern nutzen können.
Alle Codebeispiele zum Download; Jupyter Notebooks erleichtern die Arbeit mit dem Material zum Buch. Starten Sie jetzt mit Ihrer eigenen KI!
Aus dem Inhalt:
- Installation und Konfiguration
- Mit verschiedenen Datenquellen arbeiten
- Bilderkennung
- Klassifizierungsaufgaben
- Convolutional Neural Networks
- Transfer Learning
- Zeitreihenanalysen
- Texte generieren
- Unsupervised Learning
- Reinforcement Learning
- Datenanalyse mit KNIME
- Evolutionäre Algorithmen
- ChatGPT und DALL-E
Inhaltsverzeichnis
Materialien zum Buch . . . 13 1. Einleitung . . . 15 1. 1 . . . Was bietet dieses Buch? . . . 16 1. 2 . . . Was ist eine »künstliche Intelligenz«? . . . 17 1. 3 . . . Geschichte der KI -- ein kurzer Überblick . . . 19 1. 4 . . . Verwendete Werkzeuge . . . 21 2. Installation . . . 27 2. 1 . . . Anaconda-Distribution . . . 27 2. 2 . . . KNIME . . . 33 3. Das künstliche neuronale Netz . . . 43 3. 1 . . . Klassifizierung . . . 44 3. 2 . . . Das Kochrezept . . . 46 3. 3 . . . Aufbau künstlicher neuronaler Netze . . . 50 3. 4 . . . Aufbau eines künstlichen Neurons . . . 52 3. 5 . . . Feed Forward . . . 53 3. 6 . . . Backpropagation . . . 56 3. 7 . . . Aktualisierung der Gewichte . . . 58 3. 8 . . . KNN für Klassifizierung . . . 61 3. 9 . . . Hyperparameter und Overfitting . . . 69 3. 10 . . . Umgang mit nichtnumerischen Daten . . . 71 3. 11 . . . Umgang mit Datenlücken . . . 73 3. 12 . . . Korrelation versus Kausalität . . . 75 3. 13 . . . Normierung der Daten . . . 84 3. 14 . . . Regression . . . 87 3. 15 . . . Deployment . . . 89 3. 16 . . . Übungen . . . 95 4. Entscheidungsbäume . . . 99 4. 1 . . . Einfache Entscheidungsbäume . . . 100 4. 2 . . . Boosting . . . 112 4. 3 . . . XGBoost Regressor . . . 122 4. 4 . . . Deployment . . . 123 4. 5 . . . Entscheidungsbäume mit Orange . . . 125 4. 6 . . . Übungen . . . 129 5. Faltungsschichten, Bilder und mehr . . . 131 5. 1 . . . Einfache Bildklassifizierung . . . 133 5. 2 . . . Hyperparameter-Optimierung mit Early Stopping und KerasTuner . . . 138 5. 3 . . . Convolutional Neural Network (CNN) . . . 143 5. 4 . . . Bildklassifizierung mit CIFAR-10 . . . 150 5. 5 . . . Verwendung vortrainierter Netze . . . 153 5. 6 . . . Übungen . . . 157 6. Transfer Learning . . . 159 6. 1 . . . Funktionsweise . . . 162 6. 2 . . . Übungen . . . 169 7. Anomalieerkennung . . . 171 7. 1 . . . Unausgewogene Daten . . . 172 7. 2 . . . Resampling . . . 177 7. 3 . . . Autoencoder . . . 179 7. 4 . . . Übungen . . . 186 8. Textklassifizierung . . . 187 8. 1 . . . Embedding Layer . . . 187 8. 2 . . . GlobalAveragePooling1D Layer . . . 191 8. 3 . . . Text Vectorization . . . 193 8. 4 . . . Analyse der Zusammenhänge . . . 196 8. 5 . . . Klassifizierung großer Datenmengen . . . 201 8. 6 . . . Übungen . . . 204 9. Clusteranalyse . . . 205 9. 1 . . . Grafische Analyse der Daten . . . 206 9. 2 . . . Der Algorithmus k-Means-Clustering . . . 211 9. 3 . . . Das fertige Programm . . . 214 9. 4 . . . Übungen . . . 21710. AutoKeras . . . 219 10. 1 . . . Klassifizierung . . . 220 10. 2 . . . Regression . . . 222 10. 3 . . . Bildklassifizierung . . . 223 10. 4 . . . Textklassifizierung . . . 226 10. 5 . . . Übungen . . . 22911. Visuelle Programmierung mit KNIME . . . 231 11. 1 . . . Einfache künstliche neuronale Netze . . . 232 11. 2 . . . XGBoost . . . 252 11. 3 . . . Bildklassifizierung mit vortrainiertem Modell . . . 256 11. 4 . . . Transfer Learning . . . 262 11. 5 . . . Autoencoder . . . 268 11. 6 . . . Textklassifizierung . . . 277 11. 7 . . . AutoML . . . 281 11. 8 . . . Clusteranalyse . . . 285 11. 9 . . . Zeitreihenanalyse . . . 290 11. 10 . . . Textgenerierung . . . 306 11. 11 . . . Weitere Hinweise zu KNIME . . . 312 11. 12 . . . Übungen . . . 31312. Reinforcement Learning . . . 317 12. 1 . . . Q-Learning . . . 318 12. 2 . . . Erforderliche Python-Kenntnisse für das Spiel . . . 324 12. 3 . . . Training . . . 329 12. 4 . . . Test . . . 332 12. 5 . . . Ausblick . . . 333 12. 6 . . . Übungen . . . 33413. Genetische Algorithmen . . . 335 13. 1 . . . Der Algorithmus . . . 336 13. 2 . . . Beispiel einer sortierten Liste . . . 340 13. 3 . . . Beispiel für Gleichungssysteme . . . 343 13. 4 . . . Beispielanwendung aus der Praxis . . . 346 13. 5 . . . Übungen . . . 34914. ChatGPT und GPT-4 . . . 351 14. 1 . . . Prompt Engineering . . . 354 14. 2 . . . Programmierschnittstelle ChatGPT . . . 372 14. 3 . . . Übung . . . 38915. DALL-E und Nachfolgemodelle . . . 391 15. 1 . . . DALL-E 2 . . . 392 15. 2 . . . DALL-E 3 . . . 397 15. 3 . . . Programmierschnittstelle . . . 399 15. 4 . . . Übung . . . 40516. Ausblick . . . 407 Anhang . . . 409 A . . . Lösungen . . . 409 B . . . Literaturhinweise . . . 445 Index . . . 447