+ | Grundlagen der KI |
+ | Künstliche Intelligenz (KI) / Artificial Intelligence (AI) | | + | Maschinelles Lernen (ML) / Machine Learning (ML) | | + | Überwachtes Lernen / Supervised Learning | | + | Unüberwachtes Lernen / Unsupervised Learning | | + | Verstärkendes Lernen / Reinforcement Learning | - | Ein Roboter, der durch Versuch und Irrtum lernt, wie man durch ein Labyrinth navigiert | OpenAI Gym | https://gym.openai.com | - | Ein Agent, der lernt, wie man ein Spiel wie Schach spielt | AlphaZero (DeepMind) | https://deepmind.com/research/alphazero | - | Ein Roboter, der lernt, sich in einer Umgebung zu bewegen | Boston Dynamics | https://www.bostondynamics.com | - | Ein selbstfahrendes Auto, das lernt, sicher zu fahren | Waymo (Google) | https://waymo.com | - | Ein Agent, der in einem virtuellen Markt lernt, zu handeln | OpenAI | https://openai.com |
| + | Algorithmus / Algorithm | | + | Bias / Bias | | + | Fairness / Fairness | | + | Erklärbarkeit / Explainability | |
|
+ | Daten und Datensätze |
+ | Big Data / Big Data | | + | Datensatz / Dataset | | + | Explorative Datenanalyse / Exploratory Data Analysis (EDA) | | + | Merkmalsselektion / Feature Selection | | + | Feature Engineering / Feature Engineering | - | Erzeugung neuer Features durch Kombination vorhandener Daten, wie das Erstellen eines Altersfeatures aus einem Geburtsdatum | DataRobot | https://www.datarobot.com |
| + | Tokenisierung / Tokenization | |
|
+ | Modellierung und Training |
+ | Modell / Model | - | Ein Entscheidungsbaummodell zur Vorhersage von Kundenabwanderung | Azure Machine Learning | Microsoft |
| + | Training / Training | - | Training eines neuronalen Netzwerks zur Bilderkennung mit einem großen Datensatz von gekennzeichneten Bildern. | TensorFlow | https://www.tensorflow.org |
| + | Validierung / Validation | - | Validierung eines Modells mit einem separaten Datensatz, um seine Genauigkeit zu bewerten | Keras | https://keras.io |
| + | Testen / Testing | - | Testen eines Modells auf einem neuen, unsichtbaren Datensatz, um seine Leistung zu messen | PyTorch | https://pytorch.org |
| + | Hyperparameter / Hyperparameters | - | Einstellung der Lernrate und der Anzahl der Neuronen in einer Schicht eines neuronalen Netzwerks | Scikit-Learn Grid Search | Scikit-Learn |
| + | Epoch / Epoch | - | Eine vollständige Iteration durch den gesamten Trainingsdatensatz während des Modelltrainings. | TensorFlow Epochs | https://www.tensorflow.org |
| + | Batch-Größe / Batch Size | - | Verwendung einer Batch-Größe von 32 während des Trainings eines neuronalen Netzwerks. | TensorFlow Batch Size | https://www.tensorflow.org |
| + | Overfitting / Overfitting | | + | Underfitting / Underfitting | - | Ein Modell, das die zugrunde liegenden Muster in den Trainingsdaten nicht erfasst und sowohl auf Trainings- als auch auf Testdaten schlecht abschneidet | Underfitting auf Wikipedia | https://de.wikipedia.org/wiki/Underfitting |
| + | Kreuzvalidierung / Cross-Validation | - | Aufteilen eines Datensatzes in fünf Teile und Verwenden von jeweils vier Teilen zum Trainieren und eines Teils zum Validieren, um die Modellleistung zu bewerten. | Scikit-Learn Cross-Validation | https://scikit-learn.org |
| + | K-Falt-Kreuzvalidierung / K-Fold Cross-Validation | - | Verwenden von 10-facher Kreuzvalidierung, um ein Modell zu validieren und seine Stabilität zu überprüfen. | Scikit-Learn K-Fold Cross-Validation | https://scikit-learn.org |
|
|
+ | Neuronale Netze und Deep Learning |
+ | Neuronales Netzwerk / Neural Network | - | Ein einfaches neuronales Netzwerk zur Klassifikation von Blumenarten basierend auf Merkmalen wie Blütenblattlänge und -breite. | TensorFlow Neural Network | https://www.tensorflow.org |
| + | Deep Learning / Deep Learning | - | Ein tiefes neuronales Netzwerk, das Katzen und Hunde in Bildern unterscheiden kann | Keras Deep Learning | https://keras.io |
| + | Künstliches neuronales Netz (KNN) / Artificial Neural Network (ANN) | | + | Konvolutionales neuronales Netz (CNN) / Convolutional Neural Network (CNN) | - | Ein CNN, das zur Erkennung von Objekten in Bildern verwendet wird | PyTorch CNN | https://pytorch.org |
| + | Rekurrentes neuronales Netz (RNN) / Recurrent Neural Network (RNN) | - | Ein RNN, das zur Vorhersage von Textsequenzen wie der nächsten Wortvorhersage verwendet wird. | TensorFlow RNN | https://www.tensorflow.org |
| + | Generative Adversarial Network (GAN) / Generative Adversarial Network (GAN) | | + | Autoencoder / Autoencoder | - | Ein Autoencoder, der verwendet wird, um Bilder zu komprimieren und anschließend wiederherzustellen. | Keras Autoencoder | https://keras.io |
|
|
+ | Optimierung und Regulierung |
+ | Gradientenabstieg / Gradient Descent | - | Ein Algorithmus zur Minimierung der Kostenfunktion eines Modells durch iterative Anpassung der Gewichte | TensorFlow Gradient Descent | https://www.tensorflow.org |
| + | Stochastic Gradient Descent (SGD) / Stochastic Gradient Descent (SGD) | - | Eine Variante des Gradientenabstiegs, die Gradienten auf Basis einzelner Datenpunkte oder kleiner Batches aktualisiert | TensorFlow SGD | https://www.tensorflow.org |
| + | Mini-Batch Gradient Descent / Mini-Batch Gradient Descent | - | Verwendung kleiner Datenbatches zur Aktualisierung der Gradienten während des Modelltrainings. | TensorFlow Mini-Batch Gradient Descent | https://www.tensorflow.org |
| + | Adam Optimizer / Adam Optimizer | - | Ein Optimierungsalgorithmus, der adaptive Lernraten verwendet und für schnelle Konvergenz sorgt. | TensorFlow Adam Optimizer | https://www.tensorflow.org |
| + | RMSprop / RMSprop | - | Ein Optimierungsalgorithmus, der die Lernrate basierend auf dem gleitenden Mittelwert der Gradienten anpasst | TensorFlow RMSprop | https://www.tensorflow.org |
| + | Lernrate / Learning Rate | | + | L1-Regulierung / L1 Regularization | - | Anwendung von L1-Regularisierung auf die Gewichte eines Modells, um Überanpassung zu vermeiden. | Scikit-Learn L1 Regularization | https://scikit-learn.org |
| + | L2-Regulierung / L2 Regularization | - | Anwendung von L2-Regularisierung, um die Gewichte eines Modells zu verkleinern und Überanpassung zu vermeiden. | Scikit-Learn L2 Regularization | https://scikit-learn.org |
| + | Regulierung / Regularization | - | Hinzufügen eines Regularisierungsterms zur Kostenfunktion eines Modells, um Überanpassung zu verhindern. | Scikit-Learn Regularization | https://scikit-learn.org |
| + | Dropout / Dropout | - | Deaktivierung zufälliger Neuronen während des Trainings eines neuronalen Netzwerks, um Überanpassung zu vermeiden. | TensorFlow Dropout | https://www.tensorflow.org |
| + | Batch-Normalisierung / Batch Normalization | - | Normalisierung der Eingaben jeder Schicht in einem tiefen neuronalen Netzwerk, um das Training zu beschleunigen | TensorFlow Batch Normalization | https://www.tensorflow.org |
|
|
+ | Aktivierungsfunktionen |
+ | Aktivierungsfunktion / Activation Function | - | Verwendung der Sigmoid-Funktion in der letzten Schicht eines neuronalen Netzwerks für binäre Klassifikation. | TensorFlow Activation Functions | https://www.tensorflow.org |
| + | ReLU / ReLU | - | Eine häufig verwendete Aktivierungsfunktion in tiefen neuronalen Netzwerken, die negative Eingaben auf Null setzt. | TensorFlow ReLU | https://www.tensorflow.org |
| + | Sigmoid-Funktion / Sigmoid Function | | + | Tanh-Funktion / Tanh Function | | + | Softmax / Softmax | - | Eine Aktivierungsfunktion, die verwendet wird, um Wahrscheinlichkeiten für Mehrklassen-Klassifikationen zu berechnen. | TensorFlow Softmax | https://www.tensorflow.org |
|
|
+ | Spezifische Modelle und Algorithmen |
+ | Decision Tree / Decision Tree | - | Ein Entscheidungsbaummodell zur Vorhersage von Kreditwürdigkeit basierend auf Merkmalen wie Einkommen und Alter. | Scikit-Learn Decision Tree | https://scikit-learn.org |
| + | Random Forest / Random Forest | - | Ein Ensemble-Modell, das mehrere Entscheidungsbäume kombiniert, um die Vorhersagegenauigkeit zu verbessern. | Scikit-Learn Random Forest | https://scikit-learn.org |
| + | Support Vector Machine (SVM) / Support Vector Machine (SVM) | - | Ein Modell, das Datenpunkte durch eine Hyperplane trennt, um sie in verschiedene Klassen zu klassifizieren | Scikit-Learn SVM | https://scikit-learn.org |
| + | K-Means Clustering / K-Means Clustering | - | Ein Algorithmus, der Kunden basierend auf ihrem Kaufverhalten in K Gruppen einteilt | Scikit-Learn K-Means | https://scikit-learn.org |
| + | Logistische Regression / Logistic Regression | - | Ein Modell zur Vorhersage, ob ein Kunde ein Produkt kauft oder nicht | Scikit-Learn Logistic Regression | https://scikit-learn.org |
| + | Lineare Regression / Linear Regression | - | Ein Modell zur Vorhersage von Hauspreisen basierend auf der Größe und Lage des Hauses. | Scikit-Learn Linear Regression | https://scikit-learn.org |
| + | Ridge-Regression / Ridge Regression | - | Eine Variante der linearen Regression mit L2-Regularisierung zur Vermeidung von Überanpassung. | Scikit-Learn Ridge Regression | https://scikit-learn.org |
| + | Lasso-Regression / Lasso Regression | - | Eine Variante der linearen Regression mit L1-Regularisierung zur Auswahl der wichtigsten Merkmale | Scikit-Learn Lasso Regression | https://scikit-learn.org |
| + | Elastische Netz-Regression / Elastic Net Regression | - | Eine Kombination aus Lasso- und Ridge-Regression zur Verbesserung der Vorhersagegenauigkeit | Scikit-Learn Elastic Net | https://scikit-learn.org |
| + | PCA / PCA | | + | t-SNE / t-SNE | | + | Boosting / Boosting | - | Eine Methode, bei der schwache Modelle sequentiell trainiert werden, um Fehler der vorherigen Modelle zu korrigieren | XGBoost | https://xgboost.readthedocs.io |
| + | Adaboost / Adaboost | - | Ein Boosting-Algorithmus, der adaptive Gewichte verwendet, um die Genauigkeit zu verbessern | Scikit-Learn AdaBoost | https://scikit-learn.org |
| + | Gradient Boosting / Gradient Boosting | |
|
+ | NLP (Natural Language Processing) |
+ | Natural Language Processing (NLP) / Natural Language Processing (NLP) | | + | Natural Language Understanding (NLU) / Natural Language Understanding (NLU) | | + | Sprachsynthese / Speech Synthesis | | + | Spracherkennung / Speech Recognition | | + | Automatisches Tagging / Automatic Tagging | | + | Latente semantische Analyse (LSA) / Latent Semantic Analysis (LSA) | - | Ein Modell, das Beziehungen zwischen Begriffen und Dokumenten analysiert, um thematische Zusammenhänge zu finden. | Scikit-Learn LSA | https://scikit-learn.org |
| + | Wortvektoren / Word Vectors | - | Verwendung von Word2Vec, um Wörter als Vektoren darzustellen, die semantische Ähnlichkeiten erfassen. | Gensim Word2Vec | Gensim |
| + | Stemming / Stemming | - | Reduzierung der Wörter "running", "runner" und "ran" auf den Stamm "run". | NLTK Stemming | https://www.nltk.org |
| + | Lemmatisierung / Lemmatization | - | Reduzierung der Wörter "better" und "best" auf die Grundform "good". | NLTK Lemmatization | https://www.nltk.org |
| + | Named Entity Recognition (NER) / Named Entity Recognition (NER) | - | Ein System, das in einem Text Namen von Personen, Orten und Organisationen erkennt | Spacy NER | https://spacy.io/ |
| + | Sentimentanalyse / Sentiment Analysis | - | Ein System, das die Stimmung eines Kundenfeedbacks als positiv, negativ oder neutral klassifiziert | MonkeyLearn Sentiment Analysis | https://monkeylearn.com |
| + | Word Embeddings / Word Embeddings | - | Verwendung von GloVe zur Darstellung von Wörtern als Vektoren in einem semantischen Raum. | Stanford NLP GloVe | Stanford NLP |
| + | GloVe / GloVe | - | Global Vectors for Word Representation, eine Technik zur Erstellung von Wortembeddings | Stanford NLP GloVe | Stanford NLP |
| + | Word2Vec / Word2Vec | - | Ein Modell zur Erstellung von Wortembeddings durch neuronale Netzwerke | Gensim Word2Vec | Gensim |
| + | FastText / FastText | - | Ein Modell zur Erstellung von Wortembeddings, das Subwortinformationen verwendet | FastText | Facebook AI |
| + | BERT / BERT | - | Bidirectional Encoder Representations from Transformers, ein Modell zur natürlichen Sprachverarbeitung, das den Kontext von Wörtern in beiden Richtungen berücksichtigt. | BERT | Google AI |
|
|
+ | Computer Vision |
+ | Computer Vision / Computer Vision | - | Ein System, das Bilder analysiert und erkennt, ob ein Bild eine Katze oder einen Hund zeigt | OpenCV | https://opencv.org |
| + | Faltungsoperation / Convolution Operation | | + | Pooling / Pooling | - | Reduzierung der räumlichen Größe der Darstellung durch Max-Pooling oder Average-Pooling. | TensorFlow Pooling | https://www.tensorflow.org |
| + | Max-Pooling / Max Pooling | | + | Average Pooling / Average Pooling | |
|
+ | Probabilistische Modelle und Inferenz |
+ | Bayessches Netzwerk / Bayesian Network | - | Ein Modell, das die Abhängigkeiten zwischen Variablen in einem medizinischen Diagnosesystem darstellt. | BayesiaLab | https://www.bayesia.com |
| + | Markow-Kette / Markov Chain | | + | Hidden Markov Model (HMM) / Hidden Markov Model (HMM) | - | Ein Modell zur Spracherkennung, das versteckte Zustände berücksichtigt. | HTK | HTK |
| + | Monte-Carlo-Simulation / Monte Carlo Simulation | - | Eine Technik zur Schätzung der Wahrscheinlichkeiten von verschiedenen Ergebnissen in einem Finanzmodell. | Palisade @RISK | https://www.palisade.com/risk |
| + | Bayessche Inferenz / Bayesian Inference | - | Eine Methode zur Aktualisierung von Wahrscheinlichkeiten basierend auf neuen Daten in einem medizinischen Diagnosesystem | PyMC3 | https://docs.pymc.io |
|
|
+ | Evaluation und Experimentierung |
+ | A/B-Testing / A/B Testing | - | Ein Experiment, bei dem zwei Varianten einer Webseite verglichen werden, um die bessere zu ermitteln | Optimizely | https://www.optimizely.com |
|
|
+ | Spezielle Techniken und Konzepte |
+ | Transfer Learning / Transfer Learning | - | Verwendung eines vortrainierten Bildklassifikationsmodells zur Erkennung von speziellen Objekten in einer neuen Domäne. | TensorFlow Hub | https://www.tensorflow.org/hub |
| + | Clustering / Clustering | - | Gruppierung von Kunden basierend auf ihrem Kaufverhalten, um Marketingstrategien zu entwickeln | Scikit-Learn Clustering | https://scikit-learn.org |
| + | Klassifikation / Classification | | + | Regression / Regression | - | Ein Modell zur Vorhersage der Temperatur basierend auf historischen Wetterdaten | Scikit-Learn Regression | https://scikit-learn.org |
|
|
+ | Anwendungsbeispiele und Ressourcen |
+ | Anwendungsbeispiele und Resourcen UNSORTIERT | |
|
+ | Sprache zu Text Software |
+ | Sprache zu Text Software UNSORTIERT | |
|
+ | Erkennen von Emotionen |
+ | Erkennen von Emotionen UNSORTIERT | |
|
+ | Textkorrektur |
+ | Textkorrektur UNSORTIERT | |
|
+ | Sonstige Links |
+ | Sonstige Links UNSORTIERT | | + | Künstliche Intelligenz und Maschinenethik | | + | Historische Maschinen und Mechanismen | | + | Technologischer Fortschritt und Gesellschaftliche Auswirkungen | | + | Wissenschaftliche Durchbrüche und Forschung | | + | Historische und kulturelle Artefakte | |
|
+ | Weitere Ressourcen und Kategorien |
+ | Weitere Ressourcen und Kategorien UNSORTIERT | | + | Künstliche Intelligenz und autonome Systeme | | + | Künstliche Intelligenz in der Medizin und Biotechnologie | | + | Gesellschaftliche Auswirkungen von Technologie und Datenschutz | | + | KI und gesellschaftlicher Wandel | |
|