KI-gestützte NPCs – Stereotype vermeiden und Vielfalt fördern

Sascha Giese, Technical Evangelist, Solarwinds

Vorprogrammierte Drachen, Feen und Ritter fungierten bisher in Videospielen als sogenannte Non-Playable-Characters (NPCs) und erfüllten dabei oft nur die Rolle von Statisten. Doch durch den Einsatz von künstlicher Intelligenz (KI) verändert sich ihre Bedeutung in der Gaming-Welt dramatisch. NPCs werden nun sogar nach dem Vorbild prominenter Fußballer, Rennfahrer oder Filmstars modelliert. Dabei tritt jedoch ein typisches Problem der KI zutage: Bias.

„Bias“ bezeichnet systematische Verzerrungen in den Algorithmen oder Modellen, die zu unfairen oder ungenauen Ergebnissen sowie zu stereotypen Darstellungen führen können. Diese Verzerrungen entstehen häufig durch unausgewogene oder nicht repräsentative Trainingsdaten. Wie aber lässt sich Bias in Videospielen vermeiden?

 

Stereotype Daten vermeiden – KI vor Verzerrungen schützen

Im Bereich der KI-Programmierung gilt das Prinzip „Garbage in – Garbage out“. Werden KI-Systeme mit vorurteilsbehafteten Daten gefüttert, übernehmen sie diese Vorurteile. Im schlimmsten Fall manifestieren sich dann Stereotype, die auf Geschlecht, Hautfarbe, Religion oder Herkunft basieren. Solche Fehler im Code nachträglich zu beheben, ist äußerst schwierig – insbesondere bei generativer KI, die sich die Muster selbst beigebracht hat. Die Konsequenzen können auch in Videospielen spürbar werden, wenn Spieler aufgrund ihrer Charakterwahl benachteiligt werden. Man kann sich ausmalen, welche negativen Auswirkungen verzerrte KI im echten Leben haben könnte. Was kann man dagegen tun?

 

Regulierung durch Gesetze?

Im „SolarWinds IT Trend Report KI: Freund oder Feind“ gaben 88 Prozent von rund 700 befragten IT-Fach- und Führungskräften an, dass sie eine stärkere staatliche Kontrolle von KI befürworten. Der EU-AI-Act schreibt beispielsweise vor, dass Unternehmen qualitativ hochwertige Daten nutzen müssen, um Bias zu minimieren. Eine globale Vereinheitlichung solcher Gesetze ist jedoch schwer umsetzbar, da die Verzerrungen regional unterschiedlich stark ausgeprägt sein können. Unternehmen können jedoch folgende Maßnahmen ergreifen:

  1. Diversität im Entwicklerteam
    Ein vielfältiges Team bringt unterschiedliche Perspektiven ein und kann unbewusste Vorurteile minimieren, da verschiedene Hintergründe und Erfahrungen berücksichtigt werden.
  2. Bewusste Gestaltung
    Entwickler sollten bewusst darauf achten, Stereotype zu vermeiden und vielfältige Charaktere sowie Geschichten zu integrieren, um eine realistischere und inklusivere Spielwelt zu schaffen.
  3. Nutzerfeedback einholen
    Regelmäßiges Feedback von Spielern hilft, problematische Inhalte zu identifizieren und zu korrigieren, wodurch das Spiel kontinuierlich verbessert wird.
  4. KI-Tools zur Bias-Erkennung
    Es gibt spezielle Tools, die helfen können, Bias in Algorithmen und Daten zu erkennen und zu reduzieren, indem sie Muster und Anomalien aufdecken.
  5. Schulung und Sensibilisierung
    Schulungen für Entwicklerteams über Bias und seine Auswirkungen schärfen das Bewusstsein und führen zu besseren Entscheidungen, indem sie die Sensibilität für das Thema erhöhen.

Ob in Computerspielen, als Assistenzsystem oder als Entscheidungshilfe im öffentlichen Dienst – die Vermeidung von Verzerrungen ist essenziell, um die Möglichkeiten der KI gerecht und gesellschaftlich vorteilhaft zu nutzen.

#Solarwinds