| + | Grundlagen der KI |
| + | Künstliche Intelligenz (KI) / Artificial Intelligence (AI) | | | + | Maschinelles Lernen (ML) / Machine Learning (ML) | | | + | Überwachtes Lernen / Supervised Learning | | | + | Unüberwachtes Lernen / Unsupervised Learning | | | + | Verstärkendes Lernen / Reinforcement Learning | | - | Ein Roboter, der durch Versuch und Irrtum lernt, wie man durch ein Labyrinth navigiert | OpenAI Gym | https://gym.openai.com | | - | Ein Agent, der lernt, wie man ein Spiel wie Schach spielt | AlphaZero (DeepMind) | https://deepmind.com/research/alphazero | | - | Ein Roboter, der lernt, sich in einer Umgebung zu bewegen | Boston Dynamics | https://www.bostondynamics.com | | - | Ein selbstfahrendes Auto, das lernt, sicher zu fahren | Waymo (Google) | https://waymo.com | | - | Ein Agent, der in einem virtuellen Markt lernt, zu handeln | OpenAI | https://openai.com |
| | + | Algorithmus / Algorithm | | | + | Bias / Bias | | | + | Fairness / Fairness | | | + | Erklärbarkeit / Explainability | |
|
| + | Daten und Datensätze |
| + | Big Data / Big Data | | | + | Datensatz / Dataset | | | + | Explorative Datenanalyse / Exploratory Data Analysis (EDA) | | | + | Merkmalsselektion / Feature Selection | | | + | Feature Engineering / Feature Engineering | | - | Erzeugung neuer Features durch Kombination vorhandener Daten, wie das Erstellen eines Altersfeatures aus einem Geburtsdatum | DataRobot | https://www.datarobot.com |
| | + | Tokenisierung / Tokenization | |
|
| + | Modellierung und Training |
| + | Modell / Model | | - | Ein Entscheidungsbaummodell zur Vorhersage von Kundenabwanderung | Azure Machine Learning | Microsoft |
| | + | Training / Training | | - | Training eines neuronalen Netzwerks zur Bilderkennung mit einem großen Datensatz von gekennzeichneten Bildern. | TensorFlow | https://www.tensorflow.org |
| | + | Validierung / Validation | | - | Validierung eines Modells mit einem separaten Datensatz, um seine Genauigkeit zu bewerten | Keras | https://keras.io |
| | + | Testen / Testing | | - | Testen eines Modells auf einem neuen, unsichtbaren Datensatz, um seine Leistung zu messen | PyTorch | https://pytorch.org |
| | + | Hyperparameter / Hyperparameters | | - | Einstellung der Lernrate und der Anzahl der Neuronen in einer Schicht eines neuronalen Netzwerks | Scikit-Learn Grid Search | Scikit-Learn |
| | + | Epoch / Epoch | | - | Eine vollständige Iteration durch den gesamten Trainingsdatensatz während des Modelltrainings. | TensorFlow Epochs | https://www.tensorflow.org |
| | + | Batch-Größe / Batch Size | | - | Verwendung einer Batch-Größe von 32 während des Trainings eines neuronalen Netzwerks. | TensorFlow Batch Size | https://www.tensorflow.org |
| | + | Overfitting / Overfitting | | | + | Underfitting / Underfitting | | - | Ein Modell, das die zugrunde liegenden Muster in den Trainingsdaten nicht erfasst und sowohl auf Trainings- als auch auf Testdaten schlecht abschneidet | Underfitting auf Wikipedia | https://de.wikipedia.org/wiki/Underfitting |
| | + | Kreuzvalidierung / Cross-Validation | | - | Aufteilen eines Datensatzes in fünf Teile und Verwenden von jeweils vier Teilen zum Trainieren und eines Teils zum Validieren, um die Modellleistung zu bewerten. | Scikit-Learn Cross-Validation | https://scikit-learn.org |
| | + | K-Falt-Kreuzvalidierung / K-Fold Cross-Validation | | - | Verwenden von 10-facher Kreuzvalidierung, um ein Modell zu validieren und seine Stabilität zu überprüfen. | Scikit-Learn K-Fold Cross-Validation | https://scikit-learn.org |
|
|
| + | Neuronale Netze und Deep Learning |
| + | Neuronales Netzwerk / Neural Network | | - | Ein einfaches neuronales Netzwerk zur Klassifikation von Blumenarten basierend auf Merkmalen wie Blütenblattlänge und -breite. | TensorFlow Neural Network | https://www.tensorflow.org |
| | + | Deep Learning / Deep Learning | | - | Ein tiefes neuronales Netzwerk, das Katzen und Hunde in Bildern unterscheiden kann | Keras Deep Learning | https://keras.io |
| | + | Künstliches neuronales Netz (KNN) / Artificial Neural Network (ANN) | | | + | Konvolutionales neuronales Netz (CNN) / Convolutional Neural Network (CNN) | | - | Ein CNN, das zur Erkennung von Objekten in Bildern verwendet wird | PyTorch CNN | https://pytorch.org |
| | + | Rekurrentes neuronales Netz (RNN) / Recurrent Neural Network (RNN) | | - | Ein RNN, das zur Vorhersage von Textsequenzen wie der nächsten Wortvorhersage verwendet wird. | TensorFlow RNN | https://www.tensorflow.org |
| | + | Generative Adversarial Network (GAN) / Generative Adversarial Network (GAN) | | | + | Autoencoder / Autoencoder | | - | Ein Autoencoder, der verwendet wird, um Bilder zu komprimieren und anschließend wiederherzustellen. | Keras Autoencoder | https://keras.io |
|
|
| + | Optimierung und Regulierung |
| + | Gradientenabstieg / Gradient Descent | | - | Ein Algorithmus zur Minimierung der Kostenfunktion eines Modells durch iterative Anpassung der Gewichte | TensorFlow Gradient Descent | https://www.tensorflow.org |
| | + | Stochastic Gradient Descent (SGD) / Stochastic Gradient Descent (SGD) | | - | Eine Variante des Gradientenabstiegs, die Gradienten auf Basis einzelner Datenpunkte oder kleiner Batches aktualisiert | TensorFlow SGD | https://www.tensorflow.org |
| | + | Mini-Batch Gradient Descent / Mini-Batch Gradient Descent | | - | Verwendung kleiner Datenbatches zur Aktualisierung der Gradienten während des Modelltrainings. | TensorFlow Mini-Batch Gradient Descent | https://www.tensorflow.org |
| | + | Adam Optimizer / Adam Optimizer | | - | Ein Optimierungsalgorithmus, der adaptive Lernraten verwendet und für schnelle Konvergenz sorgt. | TensorFlow Adam Optimizer | https://www.tensorflow.org |
| | + | RMSprop / RMSprop | | - | Ein Optimierungsalgorithmus, der die Lernrate basierend auf dem gleitenden Mittelwert der Gradienten anpasst | TensorFlow RMSprop | https://www.tensorflow.org |
| | + | Lernrate / Learning Rate | | | + | L1-Regulierung / L1 Regularization | | - | Anwendung von L1-Regularisierung auf die Gewichte eines Modells, um Überanpassung zu vermeiden. | Scikit-Learn L1 Regularization | https://scikit-learn.org |
| | + | L2-Regulierung / L2 Regularization | | - | Anwendung von L2-Regularisierung, um die Gewichte eines Modells zu verkleinern und Überanpassung zu vermeiden. | Scikit-Learn L2 Regularization | https://scikit-learn.org |
| | + | Regulierung / Regularization | | - | Hinzufügen eines Regularisierungsterms zur Kostenfunktion eines Modells, um Überanpassung zu verhindern. | Scikit-Learn Regularization | https://scikit-learn.org |
| | + | Dropout / Dropout | | - | Deaktivierung zufälliger Neuronen während des Trainings eines neuronalen Netzwerks, um Überanpassung zu vermeiden. | TensorFlow Dropout | https://www.tensorflow.org |
| | + | Batch-Normalisierung / Batch Normalization | | - | Normalisierung der Eingaben jeder Schicht in einem tiefen neuronalen Netzwerk, um das Training zu beschleunigen | TensorFlow Batch Normalization | https://www.tensorflow.org |
|
|
| + | Aktivierungsfunktionen |
| + | Aktivierungsfunktion / Activation Function | | - | Verwendung der Sigmoid-Funktion in der letzten Schicht eines neuronalen Netzwerks für binäre Klassifikation. | TensorFlow Activation Functions | https://www.tensorflow.org |
| | + | ReLU / ReLU | | - | Eine häufig verwendete Aktivierungsfunktion in tiefen neuronalen Netzwerken, die negative Eingaben auf Null setzt. | TensorFlow ReLU | https://www.tensorflow.org |
| | + | Sigmoid-Funktion / Sigmoid Function | | | + | Tanh-Funktion / Tanh Function | | | + | Softmax / Softmax | | - | Eine Aktivierungsfunktion, die verwendet wird, um Wahrscheinlichkeiten für Mehrklassen-Klassifikationen zu berechnen. | TensorFlow Softmax | https://www.tensorflow.org |
|
|
| + | Spezifische Modelle und Algorithmen |
| + | Decision Tree / Decision Tree | | - | Ein Entscheidungsbaummodell zur Vorhersage von Kreditwürdigkeit basierend auf Merkmalen wie Einkommen und Alter. | Scikit-Learn Decision Tree | https://scikit-learn.org |
| | + | Random Forest / Random Forest | | - | Ein Ensemble-Modell, das mehrere Entscheidungsbäume kombiniert, um die Vorhersagegenauigkeit zu verbessern. | Scikit-Learn Random Forest | https://scikit-learn.org |
| | + | Support Vector Machine (SVM) / Support Vector Machine (SVM) | | - | Ein Modell, das Datenpunkte durch eine Hyperplane trennt, um sie in verschiedene Klassen zu klassifizieren | Scikit-Learn SVM | https://scikit-learn.org |
| | + | K-Means Clustering / K-Means Clustering | | - | Ein Algorithmus, der Kunden basierend auf ihrem Kaufverhalten in K Gruppen einteilt | Scikit-Learn K-Means | https://scikit-learn.org |
| | + | Logistische Regression / Logistic Regression | | - | Ein Modell zur Vorhersage, ob ein Kunde ein Produkt kauft oder nicht | Scikit-Learn Logistic Regression | https://scikit-learn.org |
| | + | Lineare Regression / Linear Regression | | - | Ein Modell zur Vorhersage von Hauspreisen basierend auf der Größe und Lage des Hauses. | Scikit-Learn Linear Regression | https://scikit-learn.org |
| | + | Ridge-Regression / Ridge Regression | | - | Eine Variante der linearen Regression mit L2-Regularisierung zur Vermeidung von Überanpassung. | Scikit-Learn Ridge Regression | https://scikit-learn.org |
| | + | Lasso-Regression / Lasso Regression | | - | Eine Variante der linearen Regression mit L1-Regularisierung zur Auswahl der wichtigsten Merkmale | Scikit-Learn Lasso Regression | https://scikit-learn.org |
| | + | Elastische Netz-Regression / Elastic Net Regression | | - | Eine Kombination aus Lasso- und Ridge-Regression zur Verbesserung der Vorhersagegenauigkeit | Scikit-Learn Elastic Net | https://scikit-learn.org |
| | + | PCA / PCA | | | + | t-SNE / t-SNE | | | + | Boosting / Boosting | | - | Eine Methode, bei der schwache Modelle sequentiell trainiert werden, um Fehler der vorherigen Modelle zu korrigieren | XGBoost | https://xgboost.readthedocs.io |
| | + | Adaboost / Adaboost | | - | Ein Boosting-Algorithmus, der adaptive Gewichte verwendet, um die Genauigkeit zu verbessern | Scikit-Learn AdaBoost | https://scikit-learn.org |
| | + | Gradient Boosting / Gradient Boosting | |
|
| + | NLP (Natural Language Processing) |
| + | Natural Language Processing (NLP) / Natural Language Processing (NLP) | | | + | Natural Language Understanding (NLU) / Natural Language Understanding (NLU) | | | + | Sprachsynthese / Speech Synthesis | | | + | Spracherkennung / Speech Recognition | | | + | Automatisches Tagging / Automatic Tagging | | | + | Latente semantische Analyse (LSA) / Latent Semantic Analysis (LSA) | | - | Ein Modell, das Beziehungen zwischen Begriffen und Dokumenten analysiert, um thematische Zusammenhänge zu finden. | Scikit-Learn LSA | https://scikit-learn.org |
| | + | Wortvektoren / Word Vectors | | - | Verwendung von Word2Vec, um Wörter als Vektoren darzustellen, die semantische Ähnlichkeiten erfassen. | Gensim Word2Vec | Gensim |
| | + | Stemming / Stemming | | - | Reduzierung der Wörter "running", "runner" und "ran" auf den Stamm "run". | NLTK Stemming | https://www.nltk.org |
| | + | Lemmatisierung / Lemmatization | | - | Reduzierung der Wörter "better" und "best" auf die Grundform "good". | NLTK Lemmatization | https://www.nltk.org |
| | + | Named Entity Recognition (NER) / Named Entity Recognition (NER) | | - | Ein System, das in einem Text Namen von Personen, Orten und Organisationen erkennt | Spacy NER | https://spacy.io/ |
| | + | Sentimentanalyse / Sentiment Analysis | | - | Ein System, das die Stimmung eines Kundenfeedbacks als positiv, negativ oder neutral klassifiziert | MonkeyLearn Sentiment Analysis | https://monkeylearn.com |
| | + | Word Embeddings / Word Embeddings | | - | Verwendung von GloVe zur Darstellung von Wörtern als Vektoren in einem semantischen Raum. | Stanford NLP GloVe | Stanford NLP |
| | + | GloVe / GloVe | | - | Global Vectors for Word Representation, eine Technik zur Erstellung von Wortembeddings | Stanford NLP GloVe | Stanford NLP |
| | + | Word2Vec / Word2Vec | | - | Ein Modell zur Erstellung von Wortembeddings durch neuronale Netzwerke | Gensim Word2Vec | Gensim |
| | + | FastText / FastText | | - | Ein Modell zur Erstellung von Wortembeddings, das Subwortinformationen verwendet | FastText | Facebook AI |
| | + | BERT / BERT | | - | Bidirectional Encoder Representations from Transformers, ein Modell zur natürlichen Sprachverarbeitung, das den Kontext von Wörtern in beiden Richtungen berücksichtigt. | BERT | Google AI |
|
|
| + | Computer Vision |
| + | Computer Vision / Computer Vision | | - | Ein System, das Bilder analysiert und erkennt, ob ein Bild eine Katze oder einen Hund zeigt | OpenCV | https://opencv.org |
| | + | Faltungsoperation / Convolution Operation | | | + | Pooling / Pooling | | - | Reduzierung der räumlichen Größe der Darstellung durch Max-Pooling oder Average-Pooling. | TensorFlow Pooling | https://www.tensorflow.org |
| | + | Max-Pooling / Max Pooling | | | + | Average Pooling / Average Pooling | |
|
| + | Probabilistische Modelle und Inferenz |
| + | Bayessches Netzwerk / Bayesian Network | | - | Ein Modell, das die Abhängigkeiten zwischen Variablen in einem medizinischen Diagnosesystem darstellt. | BayesiaLab | https://www.bayesia.com |
| | + | Markow-Kette / Markov Chain | | | + | Hidden Markov Model (HMM) / Hidden Markov Model (HMM) | | - | Ein Modell zur Spracherkennung, das versteckte Zustände berücksichtigt. | HTK | HTK |
| | + | Monte-Carlo-Simulation / Monte Carlo Simulation | | - | Eine Technik zur Schätzung der Wahrscheinlichkeiten von verschiedenen Ergebnissen in einem Finanzmodell. | Palisade @RISK | https://www.palisade.com/risk |
| | + | Bayessche Inferenz / Bayesian Inference | | - | Eine Methode zur Aktualisierung von Wahrscheinlichkeiten basierend auf neuen Daten in einem medizinischen Diagnosesystem | PyMC3 | https://docs.pymc.io |
|
|
| + | Evaluation und Experimentierung |
| + | A/B-Testing / A/B Testing | | - | Ein Experiment, bei dem zwei Varianten einer Webseite verglichen werden, um die bessere zu ermitteln | Optimizely | https://www.optimizely.com |
|
|
| + | Spezielle Techniken und Konzepte |
| + | Transfer Learning / Transfer Learning | | - | Verwendung eines vortrainierten Bildklassifikationsmodells zur Erkennung von speziellen Objekten in einer neuen Domäne. | TensorFlow Hub | https://www.tensorflow.org/hub |
| | + | Clustering / Clustering | | - | Gruppierung von Kunden basierend auf ihrem Kaufverhalten, um Marketingstrategien zu entwickeln | Scikit-Learn Clustering | https://scikit-learn.org |
| | + | Klassifikation / Classification | | | + | Regression / Regression | | - | Ein Modell zur Vorhersage der Temperatur basierend auf historischen Wetterdaten | Scikit-Learn Regression | https://scikit-learn.org |
|
|
| + | Anwendungsbeispiele und Ressourcen |
| + | Anwendungsbeispiele und Resourcen UNSORTIERT | |
|
| + | Sprache zu Text Software |
| + | Sprache zu Text Software UNSORTIERT | |
|
| + | Erkennen von Emotionen |
| + | Erkennen von Emotionen UNSORTIERT | |
|
| + | Textkorrektur |
| + | Textkorrektur UNSORTIERT | |
|
| + | Sonstige Links |
| + | Sonstige Links UNSORTIERT | | | + | Künstliche Intelligenz und Maschinenethik | | | + | Historische Maschinen und Mechanismen | | | + | Technologischer Fortschritt und Gesellschaftliche Auswirkungen | | | + | Wissenschaftliche Durchbrüche und Forschung | | | + | Historische und kulturelle Artefakte | |
|
| + | Weitere Ressourcen und Kategorien |
| + | Weitere Ressourcen und Kategorien UNSORTIERT | | | + | Künstliche Intelligenz und autonome Systeme | | | + | Künstliche Intelligenz in der Medizin und Biotechnologie | | | + | Gesellschaftliche Auswirkungen von Technologie und Datenschutz | | | + | KI und gesellschaftlicher Wandel | |
|