KI Definitionen & Begriffe & KI Glossar

Hier findest du KI-Definitionen, Erklärungen und einiges mehr, falls du etwas suchst, versuch es hier ...


chatbot-orange ki lernen onlinekurse

KI-
Lexikon 

KI-Definitionen & Lexikon

A

Algorithmus: Eine klar definierte Schritt-für-Schritt-Anleitung, die ein Computer ausführt, um ein bestimmtes Problem zu lösen oder eine Aufgabe zu erfüllen. Algorithmen bilden die Grundlage aller KI-Systeme.

Alignment: Übereinstimmung oder Ausrichtung zwischen verschiedenen Teilen eines KI-Modells oder zwischen einem KI-Modell und menschlichen Zielen und Werten.

API: API-Keys sorgen dafür, dass du die Technologien von Open AI (ChatGPT), Google (Gemini) oder Anthropic (Claude) auch in anderen Tools verwenden kannst. Der Vorteil an der Nutzung von API-Codes: Du bezahlst nur die tatsächliche Nutzung und kannst dir im Grunde die 20 USD für ChatGPT oder Claude sparen.

Artificial Intelligence (AI) oder Künstliche Intelligenz (KI): Die Nachbildung menschlicher Intelligenz in Computern, um Aufgaben wie Problemlösung, Lernen und Entscheidungsfindung durchzuführen.

 

B

BERT (Bidirectional Encoder Representations from Transformers): Ein von Google entwickeltes Sprachmodell, das Kontextinformationen aus beiden Richtungen eines Textes nutzt, um Sprache besser zu verstehen und Aufgaben wie Textklassifikation oder Fragenbeantwortung zu verbessern.
Mehr zu BERT

Bias (Verzerrung): Systematische Fehler oder Vorurteile in Daten oder Modellen, die dazu führen können, dass KI-Ergebnisse unfair oder einseitig sind. Bias kann z.B. durch unausgewogene Trainingsdaten entstehen und beeinflusst die Zuverlässigkeit von KI-Systemen.

C

ChatGPT: Ein auf der GPT-Architektur basierender Chatbot von OpenAI, der natürliche Sprache versteht und menschenähnliche Antworten generiert. Er wird für Dialogsysteme, Textgenerierung und kreative Anwendungen genutzt.
OpenAI ChatGPT

Cloud: Bereitstellung von Rechenleistung, Speicherplatz und Softwarediensten über das Internet, ohne dass Nutzer eigene Hardware benötigen. Cloud-Plattformen ermöglichen skalierbares Training und Einsatz von KI-Modellen.

Claude AI: Ein von Anthropic entwickeltes KI-Sprachmodell, das besonderen Wert auf Sicherheit und kontrollierte Textgenerierung legt, um Risiken durch unerwünschte Inhalte zu minimieren.
Anthropic Claude

Chatbot-Plattformen: Softwareplattformen, die Entwicklern ermöglichen, eigene Chatbots aufzubauen und zu implementieren, oft mit vorgefertigten Tools und Schnittstellen.

ChatGPT Code Interpreter: GPT-4 integrierte Funktion, die es ermöglicht Dateien hochzuladen und Code auszuführen. Dadurch kann ChatGPT z. B. PDF- oder Excel-Dateien analysieren und bearbeiten.

ChatGPT-Plugins: Erweiterungen in GPT, durch die ChatGPT auf externe Daten und Funktionen zugreifen kann.

Clusteranalyse: Eine Technik im maschinellen Lernen, bei der Datenpunkte in Gruppen oder Cluster basierend auf gemeinsamen Merkmalen oder Ähnlichkeiten gruppiert werden.

Context Window: Menge an Text, die von einem KI-Sprachmodell in einem Prompt verarbeitet werden kann. Wird in Token angegeben.

D

Deep Learning: Ein Teilgebiet des maschinellen Lernens, das neuronale Netze mit vielen Schichten verwendet, um komplexe Muster in großen Datenmengen zu erkennen und zu verarbeiten. Es ist die Grundlage moderner Bild- und Sprachverarbeitung.

Datenvorverarbeitung: Die Aufbereitung von Rohdaten durch Reinigung, Normalisierung oder Transformation, um sie für das Training von KI-Modellen nutzbar zu machen und bessere Ergebnisse zu erzielen.

DALL·E: Von OpenAI entwickeltes KI-Modell zur Generierung von Bildern aus Textbeschreibungen. Bekannt für kreative und detailreiche Bilder.
DALL·E

Deepfake: Manipulierte Videos oder Audioaufnahmen, die mithilfe von KI erstellt wurden und realistisch aussehen oder klingen.

Daten-Labeling: Das Hinzufügen von Tags oder Etiketten zu Daten, um sie für maschinelles Lernen und Training verständlicher zu machen.

E

Edge Computing: Datenverarbeitung direkt an oder in der Nähe des Ortes, an dem die Daten entstehen (z.B. Sensoren), anstatt sie zur Verarbeitung in zentrale Rechenzentren oder Clouds zu schicken. Dies reduziert Latenz und erhöht Datenschutz.

Encoder: Bestandteil vieler KI-Modelle, der Eingabedaten in eine komprimierte, abstrakte Form übersetzt, so dass sie leichter verarbeitet oder analysiert werden können. Oft im Zusammenhang mit Transformern verwendet.

F

Fine-Tuning: Anpassung eines bereits vortrainierten KI-Modells durch weiteres Training auf spezifischen Daten oder Aufgaben, um die Leistung für eine bestimmte Anwendung zu verbessern.

Fuzzy Logic: Ein Logiksystem, das mit unscharfen oder ungenauen Informationen umgehen kann und nicht nur „wahr“ oder „falsch“ kennt, sondern auch Zwischenwerte zulässt. Wird oft in Steuerungs- und Entscheidungsprozessen verwendet.

G

GAN (Generative Adversarial Network): Ein neuronales Netzwerk-Architektur aus zwei Teilen – Generator und Diskriminator –, die gegeneinander lernen, um realistische Daten (z.B. Bilder) zu erzeugen. GANs werden für Bildsynthese und Datenaugmentation genutzt.

GPT (Generative Pre-trained Transformer): Sprachmodell-Architektur von OpenAI, die große Textmengen vortrainiert und dann für vielfältige Sprachaufgaben eingesetzt wird, z.B. Textgenerierung oder Übersetzung.
OpenAI GPT

Google Gemini: KI-Modellreihe und Chatbot von Google

GPT: Ein Chatbot, den du innerhalb von ChatGPT selbst erstellen kannst und für andere freigeben kannst.

GPT-3.5: Älteres, weniger leistungsfähiges KI-Modell in ChatGPT. Generiert Texte schnell, hat aber keinen Internetzugriff, keine Zusatzfunktionen und ist weniger flexibel.

GPT-4: Flaggschiff-KI-Modell von OpenAI. Steht nur Nutzern von Bezahltarifen in ChatGPT zur Verfügung (ChatGPT Plus, Team oder Enterprise).

GPT Store: Ähnlich wie der App Store von Apple, nur für GPTs. Es wird bald wahrscheinlich auch möglich sein, dort GPTs zu kaufen und zu verkaufen.

GPU (Graphics Processing Unit): Eine spezialisierte Hardware, die in der KI-Berechnung häufig verwendet wird, um Berechnungen schneller durchzuführen.

 

H

Hyperparameter: Parameter eines KI-Modells, die vor dem Training festgelegt werden und das Lernverhalten beeinflussen, z.B. Lernrate oder Anzahl der Schichten. Die richtige Wahl ist wichtig für optimale Ergebnisse.

Hugging Face: Plattform und Community, die zahlreiche vortrainierte KI-Modelle bereitstellt und Tools für maschinelles Lernen anbietet.
Hugging Face

Hypothese: Im maschinellen Lernen eine Annahme über die Modellfunktion, die während des Trainings anhand von Daten überprüft und angepasst wird.

I

Indexierung: Organisieren von Daten so, dass sie schnell durchsucht und abgerufen werden können. In KI hilfreich bei der Suche in großen Text- oder Bilddatenbanken.

Inference (Schlussfolgerung): Vorgang, bei dem ein trainiertes Modell auf neue, unbekannte Daten angewendet wird, um Vorhersagen oder Entscheidungen zu treffen.

J

Jupyter Notebook: Eine interaktive Entwicklungsumgebung, die es ermöglicht, Code, Texte und Visualisierungen zusammen darzustellen und eignet sich besonders für Datenanalyse und KI-Experimente.
Jupyter Homepage

K

KNN (K-Nearest Neighbors): Einfacher klassifizierender Algorithmus, der Objekte basierend auf den Klassen ihrer nächsten Nachbarn in einem Merkmalsraum einordnet. Oft als Einstiegsmethode im maschinellen Lernen genutzt.

Künstliche Intelligenz (KI): Maschinen oder Software-Systeme, die Aufgaben ausführen können, für die normalerweise menschliche Intelligenz erforderlich ist – etwa Sprachverstehen, Lernen oder Problemlösen.

L

LSTM (Long Short-Term Memory): Spezielle Art eines rekurrenten neuronalen Netzes, das Langzeitabhängigkeiten in sequenziellen Daten erkennt und speichert – nützlich z.B. bei Spracherkennung oder Zeitreihenanalyse.

Learning Rate: Steuerparameter beim Training von KI-Modellen, der bestimmt, wie stark die Modellparameter bei jedem Schritt angepasst werden; beeinflusst Geschwindigkeit und Stabilität des Lernprozesses.

LLM (Large Language Model): KI-Modell, das Sprache analysieren, generieren oder kategorisieren kann

 

M

Maschinelles Lernen: Bereich der KI, in dem Algorithmen aus Daten Muster erkennen und Vorhersagen treffen, ohne explizit programmiert zu sein; umfasst überwachte, unüberwachte und bestärkende Lernmethoden.

MCP (Maximum a Posteriori Classifier): Ein probabilistischer Klassifikator, der basierend auf Wahrscheinlichkeiten die wahrscheinlichste Klasse für ein gegebenes Beispiel bestimmt.

Midjourney: KI-gestützte Plattform zur Erstellung von Bildern aus Texteingaben (Text-to-Image). Wird gern für kreative Bildgestaltung genutzt.
Midjourney

 

N

Neuronales Netz: Computermodell, das von der Funktionsweise des menschlichen Gehirns inspiriert ist. Es besteht aus vielen miteinander verbundenen Neuronen (Knoten), die Eingabedaten verarbeiten und Muster erkennen.
Neuronale Netze erklärt

NLP (Natural Language Processing): Teilgebiet der KI, das sich mit der Verarbeitung und Analyse natürlicher Sprache befasst, um Texte zu verstehen, zu generieren oder zu übersetzen.
NLP Übersicht

Natural Language Understanding (NLU): Ein Teilbereich von NLP, der sich darauf konzentriert, menschliche Sprache zu verstehen, indem er die Bedeutung von Texten und Anfragen erfasst.

O

Overfitting: Zustand beim maschinellen Lernen, wenn ein Modell zu gut an die Trainingsdaten angepasst ist und dadurch auf neuen Daten schlechtere Vorhersagen liefert. Vermeidung durch Regularisierung oder mehr Daten.

OpenAI: US-amerikanisches Unternehmen, das ChatGPT entwickelt hat.

 

P

Pretraining: Vortraining eines KI-Modells auf sehr großen Datenmengen, bevor es für spezielle Aufgaben weiter trainiert wird. So lernt das Modell allgemeine Muster und kann schneller angepasst werden.

Precision: Maß für die Genauigkeit von Vorhersagen bei Klassifikationsaufgaben, definiert als Anteil der korrekt als positiv klassifizierten Beispiele an allen als positiv klassifizierten.

PyTorch: Open-Source-Bibliothek für Deep Learning, entwickelt von Facebook, bekannt für Flexibilität und einfache Nutzung im Forschungsbereich.
PyTorch

Prompt: Befehl, der einem KI-Modell gegeben wird und auf dessen Basis es Output generiert.

 

Q

Quantisierung: Technik zur Reduzierung der Genauigkeit von Zahlenwerten in Modellen (z.B. von 32-Bit auf 8-Bit), um Speicherplatz und Rechenleistung zu sparen, oft ohne große Einbußen bei der Modellleistung.

R


Reinforcement Learning: Lernmethode, bei der ein Agent durch Versuch und Irrtum sowie Belohnungen lernt, optimale Entscheidungen in einer Umgebung zu treffen. Wird z.B. für Spiel-KI oder Robotik genutzt.

RNN (Recurrent Neural Network): Spezielle neuronale Netzarchitektur, die Sequenzen verarbeitet und Informationen über vorherige Schritte speichert. Anwendung bei Sprache, Zeitreihen oder Videos.

Runway ML: Tool für Kreative, das KI-Modelle für Bild- und Videobearbeitung einfach zugänglich macht. Unterstützt auch Echtzeit-Effekte.
Runway ML

Regression: Eine Aufgabe im maschinellen Lernen, bei der ein Modell numerische Werte oder kontinuierliche Ergebnisse vorhersagt, z. B. Preisprognosen.

Recurrent Neural Network (RNN): Ein spezieller Typ neuronaler Netzwerke, der für die Verarbeitung von Sequenzen und zeitlichen Abhängigkeiten verwendet wird.

S

Supervised Fine-Tuning: Eine Technik, bei der ein vortrainiertes LLM für spezifische Aufgaben angepasst wird, indem es mit gelabelten Daten weiter trainiert wird.

Synthetische Daten: Künstlich generierte Daten, die für das Training von KI-Modellen verwendet werden, um Datenschutzbedenken und den Zugang zu echten Daten zu minimieren.

Stable Diffusion: Open-Source-Modell zur Generierung von Bildern aus Text, beliebt wegen Flexibilität und freier Verfügbarkeit.
Stable Diffusion

Supervised Learning (Überwachtes Lernen): Lernmethode, bei der ein Modell mit gekennzeichneten Daten trainiert wird, um Eingaben bestimmten Ausgaben zuzuordnen. Gängig bei Klassifikation und Regression.

Stochastic Gradient Descent: Optimierungsverfahren zur Anpassung von Modellparametern durch schrittweise Minimierung des Fehlers mit zufälligen Teildatensätzen (Mini-Batches).

T

Token: Maßeinheit für die Länge eines Textes, meist berechnet in Tausenderschritten. 1.000 Token entsprechen ungefähr 500 deutschen Wörtern.

Transfer Learning: Eine Technik, bei der ein vortrainiertes Modell für eine ähnliche Aufgabe wiederverwendet wird, um Zeit und Ressourcen zu sparen.


TensorFlow: Open-Source-Framework von Google für maschinelles Lernen und Deep Learning mit umfangreichen Tools zum Erstellen von Modellen.
TensorFlow

Transformer: Moderne Modellarchitektur für Sprachverarbeitung, die durch Selbstaufmerksamkeit (Self-Attention) den Kontext besser berücksichtigt als ältere Modelle wie RNNs. Grundlage für GPT und BERT.


Training: Prozess des Anlernens eines KI-Modells aus Trainingsdaten durch Anpassung seiner Parameter, um Vorhersagen oder Klassifikationen zu optimieren.

U

Unsupervised Learning (Unüberwachtes Lernen): Lernmethode, bei der Modelle ohne vorgegebene Labels Muster in Daten erkennen, z.B. durch Clustering oder Dimensionsreduktion.

V

Validation (Validierung): Überprüfung der Modellleistung an einem unabhängigen Datensatz während des Trainings, um Overfitting zu vermeiden und die Generalisierbarkeit zu testen.

W

Word Embedding: Technik zur Umwandlung von Wörtern in dichte Vektor-Darstellungen, die semantische Beziehungen abbilden und Sprachmodelle verbessern. Beispiele: Word2Vec, GloVe.

X

XAI (Explainable AI): Methoden und Techniken, die es ermöglichen, Entscheidungen von KI-Modellen nachvollziehbar und verständlich zu machen, um Vertrauen und Transparenz zu fördern.

Y

YAML: Ein einfaches Datenformat zur Darstellung von Konfigurationsdateien, das in KI-Projekten häufig verwendet wird wegen seiner Lesbarkeit und einfachen Struktur.
YAML Info

Z

Zero-shot Learning: Fähigkeit eines KI-Modells, Aufgaben zu lösen oder Klassen zu erkennen, ohne dafür explizit trainiert worden zu sein, basierend auf allgemeinem Wissen oder Transferlernen.

>