KI-Kompendium
KI praktisch nutzen: Bilder erstellen, Fotos verbessern, Texte schreiben, Alltag erleichtern – plus die Frage, wie KI auch lokal und datenschutzfreundlich auf deinem PC läuft.
Was ist KI eigentlich?
Künstliche Intelligenz – kurz KI – ist ein Sammelbegriff für Software, die Aufgaben löst, für die früher menschliche Intelligenz nötig war: Texte verstehen und schreiben, Bilder erkennen und erzeugen, Sprache übersetzen, Muster in Daten finden.
Das, was 2026 alle als „KI" meinen, sind große Sprachmodelle (LLMs) wie ChatGPT oder Claude und Bildmodelle wie Midjourney oder Stable Diffusion. Sie sind das Ergebnis jahrelangen Trainings mit gigantischen Mengen an Texten, Bildern und Daten – und haben sich in den letzten zwei Jahren von Spielzeug zu echten Werkzeugen entwickelt.
Dieses Kompendium ist praxis-fokussiert: Was du wirklich damit machen kannst – statt Forschungs-Hintergrund.
Worum geht's?
30+ Themen, in drei Cluster gegliedert nach Anwendungsfall.
KI für Kreatives
Bilder erschaffen, Fotos retten, Videos generieren, Texte schreiben – KI als kreativer Werkzeugkasten.
- KI-Bilder mit Midjourney & Co.
- Alte Fotos mit KI verbessern
- KI-Videos: Sora, Runway, Avatare
- KI-Texte: ChatGPT, Claude, Gemini
KI im Alltag
Praktische Helfer für jeden Tag – vom Mailfilter bis zur Oma am Tablet.
- KI-Tools für jeden Tag
- KI für Senioren (barrierearm)
- Hintergrundrauschen entfernen
- Die besten KI-Tools 2026
KI auf deinem PC
Wie du KI lokal auf Windows nutzt – ohne dass deine Daten in die Cloud wandern.
- KI lokal auf Windows
- Lokale Modelle (Ollama, LM Studio)
- KI auf älteren PCs
- Datenschutz bei KI
Die wichtigsten Begriffe
Von Prompt bis Halluzination – KI-Fachsprache verständlich erklärt.
Die Anweisung an die KI – eine Frage, ein Befehl, eine Beschreibung. „Schreib mir ein Gedicht über Berge" ist ein Prompt. Die Kunst, gute Prompts zu formulieren, heißt Prompt Engineering.
Die kleinste Texteinheit, die eine KI verarbeitet. Etwa 4 Zeichen = 1 Token. Ein deutsches Wort sind oft 1–3 Tokens. Modelle haben Token-Limits, die ihre Verarbeitungskapazität begrenzen.
Großes Sprachmodell. Die Familie, zu der ChatGPT, Claude, Gemini und Llama gehören. Wurde mit gigantischen Textmengen trainiert und kann Sprache verstehen und erzeugen.
Wenn KI Dinge erfindet, die plausibel klingen, aber falsch sind. Quellen, die nicht existieren. Fakten, die stimmen müssten, aber nicht stimmen. Die größte Schwäche aktueller LLMs.
Wie viel Text die KI gleichzeitig „im Kopf" haben kann. Modelle 2026 schaffen bis zu 1 Million Tokens – das sind ganze Bücher. Größeres Fenster = bessere Verarbeitung langer Dokumente.
KI, die mehrere Eingabe-Arten versteht: Text, Bild, Audio, Video. Die meisten modernen Modelle (GPT, Claude, Gemini) sind multimodal – du kannst ihnen ein Foto zeigen und Fragen dazu stellen.
Eine mathematische Repräsentation von Text als Zahlenvektor. KI nutzt Embeddings, um die Bedeutung von Wörtern und Sätzen zu erfassen – die Basis für Suchfunktionen und Empfehlungen.
Nachtraining eines bestehenden Modells mit eigenen Daten – z.B. firmenspezifischem Wissen. So passt man KI für spezielle Anwendungen an, ohne ein neues Modell von Grund auf zu trainieren.
KI, die externe Dokumente in Echtzeit nachlädt und einbezieht. Der Trick hinter „KI mit Zugriff auf deine Firmendokumente" – ohne Fine-Tuning, immer mit aktuellen Daten.
Die Technologie hinter Bild-KIs wie Midjourney und Stable Diffusion. Beginnt mit einem Bild aus reinem Rauschen und „entrauscht" es schrittweise zum gewünschten Motiv.
KI, die nicht nur antwortet, sondern selbst handelt: Programme öffnet, Buttons klickt, Aufgaben in Schritten löst. Ein historischer Moment: Anfang März 2026 hat erstmals ein KI-Modell auf dem OSWorld-Benchmark Menschen übertroffen (75 % vs. 72,4 % menschliche Baseline) – also bei autonomer Computer-Bedienung.
Allgemeine künstliche Intelligenz, die menschliche Fähigkeiten in allen Bereichen erreicht oder übertrifft. 2026 noch nicht erreicht – aber heiß diskutiert. Manche meinen, wir sind nah dran, andere weit entfernt.
Proprietär: ChatGPT, Claude, Gemini – nur über die Anbieter nutzbar. Open Source: Llama (Meta), Mistral, DeepSeek – frei verfügbar, lokal lauffähig. Open-Source-Modelle holen technisch rasant auf.
Die eigentliche Anwendung eines fertig trainierten KI-Modells. Wenn du ChatGPT eine Frage stellst, ist das Inferenz. Inferenz braucht weniger Leistung als das Training, aber bei großen Modellen immer noch eine GPU.
Das, womit ein Modell gelernt hat. Bei modernen LLMs: Millionen von Webseiten, Büchern, wissenschaftlichen Papern, Code. Die Qualität und Vielfalt der Trainingsdaten bestimmt die Qualität des Modells.
Die neuronale Netzarchitektur, die seit 2017 die KI-Welt revolutioniert hat. Das „T" in GPT steht dafür. Erst Transformer haben die heutigen Sprachmodelle möglich gemacht – durch effiziente Verarbeitung von Sequenzen.
📜 KI & Engelmann: KI-Komponenten setzen wir seit Jahren in unseren Produkten ein – am sichtbarsten in Photomizer (KI-basierte Bildverbesserung) und Photo BlowUp (KI-Vergrößerung). Die rasante Entwicklung der letzten zwei Jahre öffnet aber für Privatanwender ganz neue Möglichkeiten – und genau die zeigen wir hier.
Mehr aus dem Engelmann Blog
Tipps, Tutorials und Hintergrundwissen rund um Software, KI und digitalen Alltag – aus über 30 Jahren Software-Entwicklung.
