Modellvarianz
Modellvarianz
Modellvarianz: Einfache Erklärung
Als Teil der Künstlichen Intelligenz bezeichnet die Modellvarianz die Veränderung, die man in den Vorhersagen eines Modells feststellt, wenn es auf verschiedenen Datensätzen (teils mit kleinen Variationen) trainiert wird. Die Modellvarianz ist eng verbunden mit dem Trade-off zwischen Bias und Varianz.
Modellvarianz und Überanpassung
Eine hohe Modellvarianz kann zu Problemen wie der Überanpassung (Overfitting) führen. Überanpassung tritt auf, wenn ein Modell die Daten, auf denen es trainiert wurde, zu genau "kennt". Es ist dann super auf diese spezifischen Daten abgestimmt, zeigt aber schlechte Resultate, wenn es auf neue Daten angewendet wird.
Reduzierung der Modellvarianz
Die Modellvarianz zu verringern, ist oft Ziel bei der Entwicklung von Algorithmen für die Künstliche Intelligenz. Es bestehen verschiedene Gewähr für die Reduzierung. Eine gängige Methode ist die Regularisierung, bei der dem Modell eine Art "Strafe" auferlegt wird, wenn es zu komplex wird. Eine weitere Methode ist das Ensemble-Lernen, bei dem mehrere Modelle zusammenarbeiten, um die Genauigkeit der Vorhersagen zu erhöhen.
Modellvarianz in der Praxis
Ein Modellvarianz-Problem kann beispielsweise auftreten, wenn eine KI zum Vorhersagen von Aktienkursen eingesetzt wird. Trainiert man die KI immer wieder mit leicht variierenden Datensätzen, so könnte sie bei identischen Eingaben sehr unterschiedliche Vorhersagen treffen. Solche Instabilität ist unerwünscht und zeigt, dass die KI eine zu hohe Modellvarianz aufweist.