Hands on KI
Unsere Themenreihen bieten Ihnen wertvolles Fachwissen, praktische Umsetzungshilfen und aktuelle Informationen, um Ihre Fähigkeiten zu verbessern und auf dem neuesten Stand zu bleiben.
Entdecken Sie weitere Lerneinheiten und Themenreihen im eLearning!
KI und Bilder
Willkommen zur dritten Lerneinheit unserer spannenden Lernreihe! Wir freuen uns, Sie in diesem Lernabenteuer begrüßen zu dürfen!
In jeder Lerneinheit behandeln wir ein spezifisches Thema, das von großer Bedeutung ist. Diesmal geht es um die Frage: Was hat sich durch die rasante Entwicklung der KI in den letzten Jahren verändert? Wir beginnen diesmal mit der ethischen Perspektive und beschäftigen uns dann mit sprach-, video-, bild- und audiobasierter KI.
Künstliche Intelligenz (KI) bietet sowohl Chancen als auch Risiken. Einerseits können KI-Systeme durch maschinelles Lernen und Datenanalyse komplexe Probleme lösen, die Effizienz in der Industrie steigern und personalisierte Dienstleistungen anbieten. Andererseits birgt KI auch Risiken, insbesondere in Bezug auf Datenschutz, ethische Überlegungen und potenzielle Arbeitsplatzverluste durch Automatisierung.
Unsere Videos sind der Kern jeder Lerneinheit. In ihnen werden die Themen anschaulich und detailliert erklärt. Die Videos sind so gestaltet, dass Sie den Inhalt leicht verstehen und nachvollziehen können. In dieser Woche geht es weiter mit KI und Bildgenerierung, viel Spaß beim ansehen!
Unsichtbare Vorurteile: Die versteckte Voreingenommenheit des Bias in Bild-KI's
Definition von Bias:
Bias in Künstlicher Intelligenz (KI) bezieht sich auf die systematische Erzeugung voreingenommener, verzerrter oder diskriminierender Ergebnisse durch KI-Systeme. Dies geschieht häufig, wenn die Trainingsdaten, mit denen das KI-System arbeitet, nicht repräsentativ sind. Auch das Gegenteil kann der Fall sein, indem sie ausschließlich auf Quellen zurückgreifen, in welcher bestimmte Ethnien, Geschlechter oder Menschen des gleichen Alters überrepräsentiert sind. Das Verständnis von Bias ist essentiell, da es zu einer unfaireren Behandlung oder Diskriminierung führen kann. Diese Probleme können besonders in sensiblen Bereichen wie Personalwesen, Kreditvergabe oder Strafverfolgung auftreten, wo diskriminierende Entscheidungen schwerwiegende Folgen haben können.
Beispiele für Bias in der Anwendung von Bild-KI:
- Gesichtserkennung: Ein System, trainiert ausschließlich mit Bildern einer ethnischen Gruppe, könnte unzureichend in der Erkennung von Personen anderer Gruppen sein.
- Beschäftigungsmöglichkeiten: Ein KI-System zur Bewertung von Bewerbungsfotos, das vorwiegend Bilder aus historischen Zeiten mit vorherrschender männlicher Präsenz in bestimmten Berufen verwendet, kann diesen vorherrschenden Bias verstärken.
- Medizinische Diagnosen: Ein Bilderkennungssystem zur Diagnose von Hautkrankheiten, trainiert hauptsächlich mit Bildern von heller Haut, könnte bei dunkleren Hauttönen zu Fehldiagnosen führen.
Bild-KI und stilistischer Bias
Wenn KI-Systeme mit Daten trainiert werden, die bestimmte künstlerische Stile, Perspektiven oder kulturelle Merkmale überrepräsentieren, neigen sie dazu, diese Merkmale in ihren Bildern zu wiederholen. Dies kann zu einem Mangel an Vielfalt in den erzeugten Bildern führen, die den Reichtum und die Komplexität der realen Welt nicht angemessen widerspiegeln. Die zentrale Herausforderung besteht darin, die Trainingsdaten zu diversifizieren, um sicherzustellen, dass die KI ein ausgewogeneres und umfassenderes Bild unserer Gesellschaft erhält, um diese entsprechend vielfältig widerzuspiegeln.
Stereotype Vorstellungen von Berufen sind meistens auch in der KI-Bilderstellung einseitig
Im unteren Bild wurde in Midjourney der Prompt "Eine Gruppe von Handwerkern und Dachdeckern" verwendet. Sinnbildlich für die beschriebene Problematik wurden Bilder herausgegeben, welche fast ausschließlich westlich geprägte, weiße Männer mittleren Alters zeigten - ein klassisches Beispiel für die Voreingenommenheit der KI, welche das Bild mutmaßlich größtenteils auf Grundlage von Daten aus Nordamerika generiert hatte.
Eine Frau unter 13 Männern - eine stereotypische Darstellung des Handwerkerberufs. Tatsächlich entspricht dies aber nicht dem weltweit vorherrschenden Verständnis. Es handelt sich um ein scheinbar idealisiertes westliches Berufsbild.
Verwenden Sie ethnische und geschlechtsspezifische Modifikatoren in Ihren Prompts
Mit der Formulierung Ihres Prompts können Sie dem jedoch oft schon leicht entgegenwirken. Verwenden Sie spezifische Modifikatoren, die eine breitere Darstellung von Geschlechtern und Ethnien fördern. Beispielsweise können Sie explizit angeben:
- "Eine Gruppe von Handwerkern und Dachdeckern unterschiedlicher Ethnien und Geschlechter."
- "Ein Geschäftstreffen mit gleicher Repräsentation von Frauen und Männern verschiedener ethnischer Herkunft."
In der dritten Woche unserer Themenreihe möchten wir Ihnen nun außerdem noch einen Überblick zu grundlegenden Tipps zur Erstellung fotorealistischer Bilder geben.