Ethik in KI-Systemen: Warum sie relevant ist und welche Schlüsselwerte sie ausmachen

Geschätzte Lesezeit 20 Minuten

Wir sprechen derzeit alle über KI-Systeme, die besten Tools und richtiges Prompting. Aber hast du dir schon einmal überlegt, welche Werte Künstliche Intelligenz vertreten soll? Gibt es so etwas wie eine ethische KI? Du wirst dir jetzt vielleicht denken: Oh je, jetzt kommt die Moralkeule und es werden Anforderungen an KI-Systeme gestellt, die wir gesellschaftlich auch nicht auf die Reihe bekommen. Nicht ganz!

Während Ethik oft mit Softskills wie Mitgefühl und Empathie assoziiert wird, geht es im Kontext der Künstlichen Intelligenz überraschenderweise nicht primär darum. Vielmehr geht es darum, rechtliche Vorgaben und gesellschaftliche Normen zu beachten, damit diese Systeme von Nutzer:innen überhaupt verwendet werden wollen, also um die Integrität und das Vertrauen in diese Systeme zu wahren.

Der EU AI Act und die geltenden Bestimmungen in Österreich legen den rechtlichen Rahmen für den ethischen Einsatz von KI fest und stellen sicher, dass KI-Systeme transparent, rechenschaftspflichtig, datenschutzkonform und frei von Vorurteilen sind. Die rechtlichen Bestimmungen sind aber nur das Mindestmaß dessen, was KI-Systeme leisten müssen. Wer sich nur an die rechtlichen Bestimmungen hält, hat noch kein brauchbares System erschaffen. Dafür müssen ethische Werte her.

Vier Beispiele von ethischer KI

Stell dir vor, ein autonomes Fahrzeug navigiert durch den Stadtverkehr. Es muss in der Lage sein, nicht nur die Verkehrsgesetze zu befolgen, sondern auch in komplexen und unvorhersehbaren Situationen ethische Entscheidungen zu treffen. Was passiert beispielsweise, wenn das Fahrzeug in eine Situation gerät, in der es zwischen dem Schutz seiner Insassen und dem Schutz von Fußgänger:innen abwägen muss? Ohne klare ethische Leitlinien könnten solche Systeme Entscheidungen treffen, die das Vertrauen der Öffentlichkeit untergraben.

Ähnlich verhält es sich in der Medizin, wo KI-Systeme zur Diagnose und Behandlung von Patient:innen eingesetzt werden. Hier müssen ethische Werte sicherstellen, dass die Privatsphäre der Patient:innen gewahrt bleibt und dass die Entscheidungen der KI nicht aufgrund von Verzerrungen in den Trainingsdaten diskriminierend sind. Ein KI-System, das beispielsweise Diagnosen stellt, muss nicht nur klinisch genau sein, sondern auch transparent in seinen Entscheidungsprozessen, sodass Ärzt:innen und Patient:innen verstehen können, wie diese Diagnosen zustande kommen.

Ethik in der KI umfasst auch den Schutz vor algorithmischen Verzerrungen. Ein einfaches Beispiel ist die Nutzung von KI in der Personalrekrutierung. Wenn ein solches System auf historischen Daten basiert, die diskriminierende Muster enthalten, kann es diese Vorurteile verstärken (dazu kommen wir gleich noch). Unternehmen müssen sicherstellen, dass ihre KI-Systeme fair sind und dass sie regelmäßig überprüft und angepasst werden, um solche Verzerrungen zu minimieren. Das bedeutet, ethische Werte wie Gleichheit und Gerechtigkeit in den Mittelpunkt der Systementwicklung zu stellen.

Ein weiteres Beispiel ist der Einsatz von KI im Finanzsektor, wo Algorithmen Kreditwürdigkeitsprüfungen durchführen. Ohne ethische Standards könnten diese Algorithmen auf Daten zurückgreifen, die bestimmte Bevölkerungsgruppen benachteiligen, sei es aufgrund von Geschlecht, ethnischer Zugehörigkeit oder sozialem Status. Hier ist es entscheidend, dass ethische Prinzipien dafür sorgen, dass diese Systeme gerecht und transparent arbeiten und dass sie regelmäßig auf ihre Fairness hin überprüft werden.

Was versteht man unter Ethik?

Unter Ethik versteht man den Bereich der Philosophie, der sich mit den Prinzipien und Konzepten des richtigen und falschen Verhaltens beschäftigt. Ethik untersucht, was moralisch gut und schlecht ist, was richtig und falsch ist, und wie Menschen sich in verschiedenen Situationen verhalten sollten. Es geht darum, Normen und Werte zu identifizieren und zu verstehen, die das menschliche Verhalten leiten und bestimmen.

Nun ist es schon eine Herausforderung für uns Menschen, dass wir uns auf allgemeingültige Normen einigen, die kulturübergreifend funktionieren. Oft ist es schon schwierig, innerhalb einer Kultur eine gemeinsame Wertebasis zu schaffen. Genauso verhält es sich auch bei der Künstlichen Intelligenz. Wer legt fest, was richtig und was falsch ist?

Ich dachte bisher, das Definieren ethischer Werte für KI-Systeme seien so schwammige Werte in der öffentlichen Diskussion, zu der jede:r eine Meinung hat, die aber nichts Handfestes bieten.

Ich habe mich geirrt!

Das Programm, das dich dazu befähigt, KI-Systeme zu klassifizieren: IEEE CertifAIed

Ich habe an einem Programm teilgenommen (und es bestanden!) namens IEEE CertifAIed, das mich eines Besseren belehrt hat.

 

 

Wer ist IEEE?

Das Institute of Electrical and Electronics Engineers ist eine weltweit führende professionelle Organisation, die sich der Förderung der technologischen Innovation und Exzellenz zum Nutzen der Menschheit verschrieben hat.

IEEE veröffentlicht eine Vielzahl von wissenschaftlichen Zeitschriften, Konferenzberichten und Standards, zum Beispiel auch gemeinsam mit ISO-Standards, die weltweit anerkannt sind. Außerdem organisiert und sponsert es zahlreiche Konferenzen und Veranstaltungen, um den Austausch von Wissen und Innovationen zu fördern.

Für uns in diesem Beitrag besonders relevant ist, dass IEEE eine bedeutende Organisation für die Entwicklung technischer Standards, die in vielen Branchen und Bereichen angewendet werden, ist. IEEE entwickelt und fördert ethische Standards und Richtlinien, die sicherstellen, dass technologische Entwicklungen verantwortungsvoll und zum Wohl der Gesellschaft eingesetzt werden. Die IEEE P7000-Serie etwa, is eine Reihe von Standards, die sich mit ethischen Erwägungen in der Entwicklung von KI und autonomen Systemen beschäftigen.

Die Klassifizierung ISO/IEC/IEEE 24748-7000

Zum Beispiel ISO/IEC/IEEE 24748-7000, das sogenannte Value-Based Engineering. Das ist ein internationaler Standard, der sich mit der ethischen Betrachtung in System- und Software-Engineering befasst, insbesondere in Bezug auf den Einsatz von künstlicher Intelligenz und autonomen Systemen. Dieser Standard wurde in einer Zusammenarbeit zwischen den drei großen Normierungsorganisationen ISO (International Organization for Standardization, wie die arbeitet, erfährst du in unserem Blog ISO/IEC JTC1/SC 42 – Wien wird Standardisierungshauptstadt), IEC (International Electrotechnical Commission) und IEEE (Institute of Electrical and Electronics Engineers) entwickelt.

Der Standard bietet eine Richtlinie zur Integration ethischer Erwägungen in den Entwicklungsprozess von Systemen und Software. Er richtet sich an Ingenieur:innen, Entwickler:innen und Organisationen, die an der Entwicklung und dem Einsatz von KI und autonomen Systemen beteiligt sind.

 

Dein Meißel in der Tischlerwerkstatt: IEEE CertifAIed

So, genug Theorie, ich hatte dir ja versprochen, dass es hier um konkretes Handwerkszeug geht, und nicht um Worthülsen. Also, ethische KI. Was soll das sein?

IEEE CertifAIed unterscheidet vier Kriterien: Transparenz, Verantwortlichkeit, Datenschutz und Algorithmische Verzerrung. Dabei wird innerhalb dieser vier Kategorien unterschieden zwischen Zielen und sogenannten "ethischen Grundvoraussetzungen".

Transparenz - wer weiß, was gemacht wird?

Es muss beim Einsatz von KI-Systemen in jedem Unternehmen klare Verantwortlichkeiten geben, sodass jede:r genau weiß, was seine bzw. ihre Rolle in Bezug auf die KI ist, wofür er oder sie verantwortlich ist und wofür zuständig (Organisationsdiagramm).

Es braucht detaillierte Beschreibungen, wie das KI-System funktioniert, dass es vorhersagbar agiert und keine Fehlerquellen aufweist (Designspezifikationen, Handbücher). Es muss sichergestellt werden, dass Endnutzer:innen bewusst ist, wenn sie mit einer KI interagieren, die möglicherweise mit einem Menschen verwechselt werden könnte. Dafür braucht es geeignete Benachrichtigungsmaßnahmen.

Um die Fehlerfreiheit eines Systems zu garantieren, braucht es Regeln, was im Falle einer Fehlfunktion zu tun ist (Protokolle, Fehlerkorrekturmechanismen).

Damit Nutzer:innen wissen, was mit ihren Daten passiert (was ja auch datenschutzrechtlich relevant ist), müssen ihnen Updates und Änderungen am System unbedingt mitgeteilt werden, und zwar so, dass sie sie verstehen.

Verantwortlichkeit - wer ist schuld?

Es braucht auch in KI-Systemen einen „Human in the Loop“, der kritische Aspekte des Prozesses oder der Produktion überwacht und kontrolliert.

Darüber hinaus sind die Beweise, die man für Verantwortlichkeit antreten muss, ähnlich denen von Transparenz.

Auch in der Frage der Haftung müssen Verantwortlichkeiten klar definiert sein, es braucht genauso Designspezifikationen und Transparenz für die Nutzer:innen.

Nutzer:innen müssen sich genauso darüber im Klaren sein, dass sie mit einer Künstlichen Intelligenz interagieren und sie müssen die Möglichkeit haben nicht mit dieser KI interagieren zu müssen. Es braucht klare Regeln in Haftungsfragen, die auch an die Nutzer:innen kommuniziert werden.

Klarerweise müssen auch im Sinne der Verantwortlichkeit Vorkehrungen getroffen werden, damit das KI-System nicht irgendwas macht, sondern seine Struktur nachvollziehbar ist, das ganze System kohärent und verlässlich ist.

Datenschutz - was passiert mit meinen privaten Informationen?

Es ist mal ganz klar, dass sichergestellt werden muss, dass die Privatsphäre der Nutzer:innen während der gesamten Lebensdauer des KI-Systems geschützt wird, auch in Abhängigkeit zur Datenschutzgrundverordnung DSGVO. Wie das gemacht wird, muss dokumentiert sein.

Nutzer:innen müssen klar und verständlich Informationen darüber erhalten, wie personenbezogene Daten gesammelt, verwendet und gespeichert werden.

Es dürfen nur die personenbezogenen Daten gesammelt werden, die unbedingt notwendig sind, um den Zweck der KI zu erfüllen. Heißt, wenn du ein System hast, das deine Fotos aufpeppt, braucht es keinen Zugriff auf deine Kontaktdaten.

Du musst als Nutzer:in auch deine eindeutige Zustimmung gegeben haben, dass deine Daten verarbeitet werden und es müssen Sicherheitsnetze eingezogen werden, dass mit deinen Daten nichts passieren kann, sprich kein unbefugter Zugriff, Verlust oder Missbrauch entsteht. Und du musst deine Zustimmung auch jederzeit widerrufen können.

Es muss klar sein, welche Person im Unternehmen dafür verantwortlich ist, dass der Datenschutz eingehalten wird, dass die Einhaltung laufend überwacht und überprüft wird.

Die DSGVO in der EU legt klare Regeln fest, wie personenbezogene Daten gesammelt, verarbeitet und gespeichert werden müssen. Diese Vorschriften sind keine bloße Formalität, sondern dienen dem Schutz der Privatsphäre und der Rechte der Nutzer:innen. Unternehmen müssen sicherstellen, dass ihre Systeme diesen Anforderungen entsprechen, indem sie transparente und nachvollziehbare Prozesse zur Datenverarbeitung implementieren.

Algorithmische Verzerrung - werde ich von der KI benachteiligt?

Es muss dir klar sein, dass wir alle voll von Vorurteilen sind. Genauso ist es auch mit Künstlicher Intelligenz. Sie kann nur die Daten verwerten, mit denen sie gefüttert wird und die sind in der Regel menschlich und menschliche Daten haben Vorurteile.

Wie geht man jetzt am besten damit um? Eines gleich vorweg: es ist unmöglich, ein vorurteilsfreies System zu erstellen. Probiere es gar nicht. Es geht darum, einmal zu erkennen, in welchem Rahmen die KI verzerrt. Dazu braucht es einen Kriterienkatalog, der einteilt in gute Verzerrung, böse Verzerrung. Klar, ist das auch wieder so eine Sache des kleinsten gemeinsamen Nenners.

Wenn einmal klar ist, wo das KI-System verzerrt, kann an diesen Punkten aktiv gegengesteuert werden, mit dem Einsatz von sogenannten positiven Vorurteilen. Zum Beispiel: Wenn ein System aufgrund seiner Datenbasis etwa gelernt hat, dass die geeignetste Person für den Chefposten ein Mann Mitte 40 ist, weil seine Datenbasis ergibt, dass die meisten Chefs diese Kriterien erfüllen, wird die KI selbst nur Männer Mitte 40 für geeignet halten, Chef zu werden.

Stell dir vor, du möchtest aber Frauen fördern Chefinnen zu werden, weil du dir in deinem Unternehmen eine 50:50 Verteilung vorgenommen hast. Das kannst du mit deiner KI knicken, wenn du sie nicht positiv verzerrst und ihr beibringst, entweder das Kriterium Mann/Frau bei der Auswahl eine:r geeignete:n Kandidat:in zu ignorieren, oder bei gleicher Qualifikation die Frau zu bevorzugen.

Ich gehe selbstverständlich davon aus, dass in unserem Beispiel letztlich eine Person entscheidet, wer eingestellt wird und wer nicht. Aber wenn ein Unternehmen sehr viele Bewerbungen erreichen und die KI vorsortieren darf, muss sich das Unternehmen schon sehr gut überlegen, nach welchen Kriterien das sinnvoll ist.

Bei der algorithmischen Verzerrung geht es knallhart auch um Gesetze, dass Systeme etwa nicht rassistisch oder sexistisch oder Minderheiten benachteiligend sind.

 

Jetzt wird's ethisch - was fühlen deine Nutzer:innen?

Stell dir vor, du hast ein KI-System, bleiben wir doch bei dem Bewerbungs-Assistenten: Zuerst solltest du dir überlegen, wer mit dem System überhaupt in Berührung kommt. In unserem Fall vereinfacht gesagt jedenfalls einmal die Programmierer:innen und die HR-Mitarbeiter:innen. Und nun überlege dir, wie die zu dem System stehen sollen, also mit welchem Gefühl, oder mit welchem Wert. Du wirst recht schnell merken, dass diese Gefühlsebene in Wahrheit etwas sehr Konkretes ist. Nehmen wir die HR-Mitarbeiterin. Die möchte dem System vertrauen, dass es so vorsortiert, dass sie aus den besten zwanzig Kandidat:innen die besten zehn zu einem Vorstellungsgespräch einlädt. Und die Frage, die du jetzt beantworten musst, es ist schließlich deine KI, ist, auf welcher Basis kann dir die Mitarbeiterin vertrauen? Welche Beweise kannst du ihr liefern, dass die KI so auswählt, wie sie selbst auswählen würde?

Und schon sind wir beim Kriterien-Katalog. Du musst, wenn du so ein KI-gestütztes Bewerbungsmanagementsystem einsetzt, beispielsweise sicherstellen, dass das System keine Bewerber:innen aufgrund von Geschlecht, Alter, ethnischer Zugehörigkeit oder anderen geschützten Merkmalen benachteiligt. Dies erfordert nicht nur technische Anpassungen, sondern auch eine kontinuierliche Überwachung und Bewertung der Systemleistung.

Du musst der Mitarbeiter:in gegenüber sehr transparent darstellen, wie die KI zu ihren Ergebnissen kommt, welche Daten zum Training der KI herangezogen worden sind, welche algorithmischen Verzerrungen beachtet und minimiert wurden. Du musst der Mitarbeiter:in auch die Handlungsmacht geben, in das System eingreifen zu können. Es braucht Entwickler:innen, die da sind und am System basteln, wenn etwas fehlerhaft ist, oder verbessert werden soll.

Ich habe dir dieses Beispiel jetzt so vor die Füße geknallt, ich will aber auf eine ganz bestimmte Sache hinaus:

Ethische KI ist keine Gefühlsduselei

Ethik in der KI ist keine Gefühlsduselei, sondern es geht um das Einhalten von Gesetzen und gesellschaftlichen Werten. Das schlägt sich in konkreten Handlungsanweisungen für die Gestaltung dieser Systeme nieder.

Ethik ist ein grundlegender Bestandteil der Technologieentwicklung, der sicherstellt, dass Systeme nicht nur funktional und effizient, sondern auch sicher, fair und vertrauenswürdig sind. Indem wir ethische Standards und Regelwerke in den Entwicklungsprozess integrieren, schaffen wir eine technologische Zukunft, die im Einklang mit unseren gesellschaftlichen Werten steht und das Vertrauen der Nutzer:innen verdient.

Es muss Menschen geben, die KI-Systemen vertrauen, um sie überhaupt zu nutzen und dafür braucht es Regelwerke. Erst, wenn KI genutzt wird, kann sie weiterentwickelt werden. Und nur wenn sie weiterentwickelt wird, kann sie uns Menschen eines Tages wirklich gut unterstützen. Und das wollen wir doch, oder?

Stell dir vor, du gehst zu einem Arzt und erfährst, dass deine Diagnose nicht von ihm, sondern von einem KI-System gestellt wurde. Würdest du dieser Diagnose vertrauen, wenn du wüsstest, dass das System nicht nach den höchsten ethischen Standards entwickelt wurde? Wahrscheinlich nicht. Dasselbe gilt für KI-Anwendungen in allen Bereichen unseres Lebens. Sei es im Finanzwesen, wo Algorithmen Kredite bewerten, oder im Verkehr, wo autonome Fahrzeuge unsere Straßen teilen – das Vertrauen der Nutzer:innen ist unerlässlich.

Ein weiteres Beispiel ist der Bildungssektor. Wenn KI-Systeme eingesetzt werden, um Lerninhalte zu personalisieren und Prüfungen zu bewerten, müssen wir sicherstellen, dass diese Systeme frei von Vorurteilen und Diskriminierungen sind. Eltern, Lehrer:innen und Schüler:innen müssen darauf vertrauen können, dass die Technologie fair und gerecht ist. Ohne dieses Vertrauen würde die Akzeptanz und Nutzung solcher Systeme erheblich leiden.

Ethik als Förderin von Innovationen

Ethische Überlegungen sind auch entscheidend für die Förderung von Innovationen. Wenn Entwickler:innen wissen, dass ihre Arbeit auf soliden ethischen Grundlagen beruht, können sie kreativer und mutiger bei der Erschaffung neuer Lösungen sein. Sie haben die Gewissheit, dass ihre Innovationen nicht nur technisch machbar, sondern auch gesellschaftlich akzeptiert und verantwortungsvoll sind. Dies schafft einen positiven Kreislauf, in dem Vertrauen und Innovation Hand in Hand gehen.

Doch Ethik in der KI ist nicht nur eine Frage der technischen Umsetzung. Es geht auch darum, eine Kultur der Verantwortlichkeit und des Respekts zu schaffen. Organisationen müssen sicherstellen, dass ihre Mitarbeiter:innen in ethischen Fragestellungen geschult sind und dafür sorgen, dass ethische Überlegungen in jeder Phase des Entwicklungsprozesses berücksichtigt werden. Dies erfordert eine klare Kommunikation und eine feste Verankerung ethischer Prinzipien in der Unternehmenskultur.

Letztlich müssen ethische Standards kontinuierlich überprüft und an neue Entwicklungen angepasst werden. Die Technologie entwickelt sich rasant weiter, und was heute als ethisch korrekt gilt, kann morgen schon überholt sein. Daher ist es wichtig, dass Unternehmen und Regulierungsbehörden flexibel und proaktiv bleiben, um sicherzustellen, dass ethische Standards immer auf dem neuesten Stand sind und den aktuellen Herausforderungen gerecht werden.

Ethik ist das Fundament für vertrauenswürdige KI

Kurz gesagt, Ethik in der KI ist kein optionales Extra, sondern eine Notwendigkeit. Sie ist das Fundament, auf dem wir vertrauenswürdige und nachhaltige Technologien aufbauen können. Indem wir ethische Standards und Prinzipien fest in die Entwicklung von KI-Systemen integrieren, stellen wir sicher, dass diese Technologien nicht nur funktional und effizient sind, sondern auch sicher, fair und vertrauenswürdig. Nur so können wir das volle Potenzial der KI ausschöpfen und sicherstellen, dass sie zum Wohl der gesamten Gesellschaft beiträgt. 

Du willst mehr über den Einsatz von KI in Unternehmen erfahren? Unsere Expert:innen helfen dir gerne weiter!

Elisabeth Pausz
Elisabeth Pausz

Wer wissen will, wie man seine Botschaft so rüberbringt, dass sie nicht falsch verstanden wird, ist bei Elisabeth richtig. Die gelernte Kommunikationsmanagerin und KI-Expertin stapft gerne in den Schuhen ihrer Kund:innen, um deren Bedürfnisse besser zu verstehen und zu übersetzen, welche Antworten auf welche Probleme gefunden werden müssen.