Trainiere eine KI direkt im Browser – ohne Anmeldung, ohne Cloud, ohne Datenweitergabe.
Trainiere die KI mit Kameraaufnahmen. Klassifiziere Objekte, Gesten oder Umgebungen.
Klassifiziere Klangmuster via Mikrofon – Sprache, Instrumente oder Klopfgeräusche.
Die KI erkennt Körperhaltungen anhand von Skelettpunkten – unabhängig von Kleidung.
Zeichne Skizzen auf dem Touchscreen und lass die KI erkennen, was du gezeichnet hast.
Spiegel-Avatar, Ausdrucks-Analyse und eigenes Training – mit kritischem Blick auf die Grenzen von Emotions-KI.
KI ohne Kamera: Klassifiziere strukturierte Messdaten. Mit Palmer-Pinguinen als Einstieg.
Bibliotheken, Lernmethoden, und was es sonst noch gibt – für alle, die mehr wissen wollen.
Stell dir vor, du bringst einem kleinen Kind bei, Katzen zu erkennen. Du zeigst ihm viele Bilder: „Das ist eine Katze. Das auch. Das hier nicht – das ist ein Hund." Nach vielen Beispielen kann das Kind neue Bilder selbst einordnen – auch Katzen, die es noch nie gesehen hat.
Genau so funktioniert Künstliche Intelligenz (KI): Ein Computer bekommt viele Beispiele und lernt daraus Regeln – ohne dass jemand diese Regeln aufschreibt. Das nennt man Maschinelles Lernen.
KI steckt heute überall: in Sprachassistenten, beim Entsperren deines Handys per Gesicht, in Übersetzungsapps, beim Streaming wenn dir neue Filme empfohlen werden oder beim E-Mail-Filter, der Spam aussortiert.
Die KI bekommt Beispiele mit der richtigen Antwort. Du zeigst ihr: „Das ist Klasse A, das ist Klasse B." Sie lernt, den Unterschied zu erkennen.
Die KI bekommt Daten ohne Beschriftung und sucht selbst nach Mustern und Gruppen. „Was gehört zusammen?"
Die KI probiert verschiedene Aktionen aus und bekommt Punkte für gute Entscheidungen – wie ein Videospiel. So lernt sie Schach oder steuert Roboter.
Du bist die Lehrerin oder der Lehrer! Du zeigst der KI Beispiele und gibst ihnen Namen – zum Beispiel „Daumen hoch" und „Daumen runter". Die KI lernt, neue Bilder in diese Kategorien einzuordnen.
Konkret passiert Folgendes: Ein vortrainiertes Netz (MobileNet) erkennt zuerst Merkmale in deinem Bild – Formen, Farben, Kanten. Dann merkt sich ein einfacher Algorithmus (KNN, siehe Tab „Für Fortgeschrittene"), welche Merkmale zu welcher Klasse gehören. Das Training dauert nur Sekunden!
💡 Wichtig: Alles passiert direkt in deinem Browser. Kein Bild, kein Ton und kein Skelettbild verlässt dein Gerät. Das ist DSGVO-konform und funktioniert sogar ohne Internetverbindung.
Wenn du auf „⬇ Modell herunterladen" klickst, speichert der Anton-KI-Trainer eine JSON-Datei auf deinem Gerät. Diese Datei enthält keine Kamerabilder – nur die numerischen Merkmalsvektoren (Feature-Vektoren), die das Netz aus deinen Trainingsbeispielen berechnet hat, sowie die Klassenbezeichnungen.
MobileNet selbst (~9 MB) ist nicht in der Datei enthalten – es wird beim Einbinden neu geladen. Das hält die Datei klein (typisch 10–200 KB).
fetch('modell.json').In Python kannst du die gespeicherte JSON-Datei nicht direkt laden – das KNN-Format ist TF.js-spezifisch. Es gibt zwei Wege:
scikit-learn's KNeighborsClassifier nachbauen.
tensorflow-hub) und KNN oder einen anderen
Klassifikator trainieren. Empfehlenswert für größere Projekte.
Da der Anton-KI-Trainer eine normale Webseite ist, läuft er auf jedem Gerät mit modernem Browser – iPad, iPhone, Android. Einfach die URL öffnen, fertig. Für Offline-Nutzung kannst du die HTML-Datei zusammen mit der JSON-Modelldatei und den Modell-Ordnern lokal speichern.
KNN ist einer der intuitivsten Algorithmen im maschinellen Lernen: „Sag mir, wer deine Nachbarn sind – und ich sage dir, wer du bist."
Wenn du eine neue Eingabe klassifizieren willst, sucht KNN die k ähnlichsten bekannten Beispiele aus dem Training und schaut, welche Klasse dort am häufigsten vorkommt. Im Anton-KI-Trainer ist k = 3.
Kein Training im klassischen Sinn: Neue Beispiele können jederzeit hinzugefügt werden, ohne alles neu zu berechnen. Das macht KNN interaktiv und sofort.
Nachvollziehbar: Man kann sich bildlich vorstellen, warum eine Klasse erkannt wird – die Nachbarn sind konkrete Trainingsbeispiele, die du selbst eingegeben hast.
Kombinierbar: KNN alleine wäre bei rohen Pixeln nutzlos (zu viele Dimensionen, zu viel Rauschen). Erst die Features von MobileNet machen den Raum „sinnvoll" – ähnliche Bilder liegen dann wirklich nah beieinander.
Langsam bei großen Datenmengen: Mit 10.000 Trainingsbeispielen muss jede Erkennung 10.000 Abstände berechnen. Im Schulkontext (50–200 Beispiele) ist das kein Problem.
Braucht gute Features: Wenn die Features nicht aussagekräftig sind (z. B. rohe Pixel ohne MobileNet), funktioniert KNN schlecht.
Kein „Lernen" aus Mustern: KNN erkennt keine abstrakten Regeln – es vergleicht nur. Ein tiefes neuronales Netz könnte das Konzept „Hund" verstehen, KNN kennt nur die konkreten Beispiele, die du ihm gezeigt hast.
Dieses Projekt und alle verwendeten Bibliotheken sind Open Source und stehen unter der Apache-2.0-Lizenz. Das bedeutet: Du kannst den Quellcode frei lesen, verwenden, verändern und weitergeben – auch für den Unterricht oder eigene Projekte. Die Apache-2.0-Lizenz erlaubt ausdrücklich die kommerzielle Nutzung und das Hosten auf eigenen Servern. Einzige Bedingung: Der Copyright-Hinweis muss erhalten bleiben.
Google · Apache 2.0 · Version 4.15
Google · Apache 2.0 · vortrainiert auf 1,2 Mio. Bildern
Google · Apache 2.0 · SinglePose Lightning
TensorFlow.js · Apache 2.0 · k-Nearest Neighbors
TensorFlow.js · Apache 2.0
Keine Kamerabilder – nur Feature-Vektoren, die MobileNet aus jedem Bild extrahiert hat.
fetch() ladenDas Mikrofon analysiert Frequenzmuster – wie ein Fingerabdruck des Klangs.
Nur Frequenzspektren als Float-Arrays. Kein Audio-Rohmaterial.
Nur normalisierte Koordinaten der 17 Körperpunkte. Kein einziges Pixel wird gespeichert.
Zeichne, füge der Klasse hinzu, wiederhole mit anderer Variation.
MobileNet-Feature-Vektoren der Zeichnungen. Die Zeichnungen selbst werden nicht gespeichert.
Der Avatar liest 468 Gesichts-Keypoints aus und berechnet daraus Mundöffnung, Lächeln, Augenbrauenposition und Augenöffnung. Dieselben Keypoints nutzt du im Trainieren-Tab als Eingabe für die KI.
Aus den Keypoints werden geometrische Kennzahlen berechnet – keine Black Box, sondern Abstände und Verhältnisse.