Fächer
Informatik
Algorithmen, Datenstrukturen, Systeme — baue dein CS-Fundament.
Alle anzeigen (33)
Backpropagation — Wie neuronale Netze lernen
Backpropagation berechnet die Gradienten, mit denen neuronale Netze lernen. Mit Kettenregel, Beispiel, typischen Fehlern und Anwendungen.
BFS — Breitensuche einfach erklärt
Die Breitensuche besucht einen Graphen Ebene für Ebene. Erfahre, wie BFS eine Queue nutzt und wann sie kürzeste Wege findet.
Big-O-Notation – Zeitkomplexität einfach erklärt
Die Big-O-Notation zeigt, wie Laufzeit mit der Eingabegröße wächst. Mit Definition, Intuition, Beispiel und typischen Fehlern.
Binäre Suche — Algorithmus, Zeitkomplexität & Code
Lerne, wie die binäre Suche funktioniert, wann sie anwendbar ist, warum sie in O(log n) läuft und wie man ein klares Beispiel nachvollzieht.
Boolesche Algebra — Gesetze, Theoreme & Vereinfachung
Lerne, was boolesche Algebra ist, wie ihre wichtigsten Gesetze funktionieren und wie man einen logischen Ausdruck vereinfacht.
CNN — Architektur eines Convolutional Neural Network
Erfahre, was ein CNN ist, wie Faltungsschichten Muster erkennen, mit Beispiel, typischen Fehlern und Einsatzgebieten.
Datenbanknormalisierung — 1NF, 2NF, 3NF in einem Satz
Dieselbe Tatsache nur an genau einer Stelle — lerne den Kern der Normalisierung, indem du ihn mit interaktiven Visualisierungen direkt ausprobierst.
Datenstrukturen — Arrays, verkettete Listen, Bäume & Graphen
Lerne, was Datenstrukturen sind, wann man Arrays, verkettete Listen, Bäume und Graphen nutzt und wie man sie schnell unterscheidet.
Denkmuster in der Mathematik
Lerne, was Denkmuster in der Mathematik sind, wie Invarianten und Symmetrie helfen, mit Domino-Beispiel, typischen Fehlern und Einsatz.
DFS — Tiefensuche einfach erklärt
Tiefensuche einfach erklärt: was DFS macht, wie Backtracking funktioniert, ein klares Beispiel und typische DFS-Fehler.
Dijkstra-Algorithmus — Kürzester Pfad Schritt für Schritt
Der Dijkstra-Algorithmus findet kürzeste Wege in gewichteten Graphen mit nichtnegativen Kanten. Idee, Beispiel und typische Fehler.
Dynamische Programmierung — Memoization und Tabulation einfach erklärt
Lerne, was dynamische Programmierung ist, wann sie funktioniert und wie Memoization und Tabulation doppelte Arbeit vermeiden.
Entscheidungsbäume — Entropie, Gini & Random Forest
Lerne, wie Entscheidungsbäume mit Entropie und Gini Splits wählen, sieh ein Beispiel und verstehe, wann Random Forests helfen.
Gradient Descent – Algorithmus, Lernrate & Varianten
Gradient Descent erklärt: was es ist, wie die Lernrate wirkt und wann Batch-, stochastische und Mini-Batch-Verfahren genutzt werden.
Graphfärbung — chromatische Zahl & Anwendungen
Erfahre, was Graphfärbung bedeutet, was die chromatische Zahl misst, warum ein ungerader Kreis drei Farben braucht und wofür sie genutzt wird.
Hash-Tabelle — So funktionieren Hashing und Kollisionsauflösung
Lerne, was eine Hash-Tabelle ist, wie Hashing Schlüssel auf Array-Positionen abbildet und wie Kollisionen gelöst werden.
K-Means-Clustering — Algorithmus & Funktionsweise
Was K-Means-Clustering ist, wie der Algorithmus funktioniert, ein einfaches Beispiel, typische Fehler und wann K-Means sinnvoll ist.
Karnaugh-Diagramm — Anleitung zur K-Map-Vereinfachung
Lerne Karnaugh-Diagramme schnell: was eine K-Map ist, wie Gruppierung funktioniert, ein klares Beispiel, typische Fehler und wann man sie nutzt.
Konvexe Optimierung — Konzepte, Methoden und Anwendungen
Konvexe Optimierung minimiert eine konvexe Funktion über einer konvexen Menge. Lerne Definition, Beispiel und warum die Garantie wichtig ist.
Logistische Regression — Sigmoidfunktion & Klassifikation
Lerne, was logistische Regression ist, wie die Sigmoidfunktion einen linearen Score in eine Wahrscheinlichkeit umwandelt und wie klassifiziert wird.
Maschinelles Lernen — Überwachtes, unüberwachtes Lernen & wichtige Algorithmen
Grundlagen des maschinellen Lernens einfach erklärt: überwachtes und unüberwachtes Lernen, ein Beispiel und passende Algorithmen.
Neuronales Netzwerk – So funktionieren künstliche neuronale Netze
Lerne, was ein neuronales Netzwerk ist, wie Schichten Eingaben in Vorhersagen umwandeln und wie Training die Gewichte verändert.
Objektorientierte Programmierung (OOP)
Objektorientierte Programmierung mit Klassen, Objekten, einem klaren Beispiel, typischen Fehlern und sinnvollen Einsatzfällen.
OSI-Modell — die 7 Schichten einfach erklärt
Das OSI-Modell schnell verstehen: Aufgaben der 7 Schichten, ein klares Beispiel und Hilfe bei der Fehlersuche.
PCA — Hauptkomponentenanalyse einfach erklärt
PCA schnell verstehen: was die Hauptkomponentenanalyse macht, wann man zentriert oder skaliert, plus ein klares 2D-Beispiel.
Prozessplanung — Betriebssystemkonzepte
Verstehe Prozessplanung in Betriebssystemen, vergleiche FCFS, SJF und Round Robin und folge einem klaren Rechenbeispiel.
Rekursion — So funktioniert sie, mit Beispielen & Basisfällen
Was ist Rekursion in der Mathematik? Lerne Basisfälle und rekursive Schritte anhand des Fakultäts-Beispiels und typischer Fehler.
REST-API – was sie ist und wie sie funktioniert
Erfahre, was eine REST-API ist, wie Anfragen und Ressourcen zusammenhängen, mit einem klaren Beispiel und typischen Fehlern.
RNN — Rekurrentes neuronales Netz & LSTM einfach erklärt
Erfahre, was ein RNN ist, wie der Hidden State Sequenzgedächtnis trägt, warum einfache RNNs bei langen Eingaben scheitern und wie LSTMs helfen.
Sortieralgorithmen — Bubble Sort, Merge Sort und Quick Sort im Vergleich
Lerne, was Sortieralgorithmen tun, wie sich Bubble Sort, Merge Sort und Quick Sort unterscheiden und wann welcher sinnvoll ist.
SVM — Support Vector Machine einfach erklärt
Verstehe, was eine SVM ist, wie Margin und Support-Vektoren funktionieren und wann Soft-Margin- oder Kernel-SVMs nützlich sind.
Transformer — Aufmerksamkeitsmechanismus & Architektur
Lerne, was die Transformer-Architektur ist, wie Self-Attention funktioniert, mit Beispiel, typischen Fehlern und Einsatzgebieten.
Wahrheitstabellen — UND, ODER, NICHT, XOR und Implikation
Verstehe Wahrheitstabellen für UND, ODER, NICHT, XOR und Implikation mit einem klaren Beispiel und typischen Fehlern.