Künstliche Intelligenz ist überall und während viele nur über die Vorteile der Technologie für unseren Alltag und unsere Zukunft sprechen, ist auch ein Blick auf mögliche Nachteile wertvoll. Ein großes Thema bei den Schattenseiten von KI ist die Ethik. Können KI Tools moralische Entscheidungen fällen? Was darf KI alles? Was sind die Grenzen von künstlicher Intelligenz? Wir beleuchten das Thema KI-Ethik.
Was ist KI-Ethik?
Als Teilbereich der Philosophie beschäftigt sich die Ethik mit dem menschlichen Handeln, genauer der Bewertung dieses Handelns. Oft wird Ethik auch mit der Sittenlehre oder Moralphilosophie gleichgesetzt. Konkret beschäftigt sich die Disziplin der Ethik damit, menschliche Praktiken einzuordnen und so zu helfen zwischen Recht und Unrecht zu unterscheiden. Daher beschäftigt sich die KI-Ethik damit, wie die Entwicklung und Nutzung der Technologie in einem ethischen Rahmen stattfinden kann und welche Richtlinien dazu notwendig sind. Dies ist ein wichtiges Thema, da KI-Tools das Verhalten von Menschen reproduzieren; so können Vorurteile, die in den Datensätzen für das Entwickeln der KI vorkommen, nicht nur gespiegelt, sondern sogar verstärkt werden. Daher ist die Festlegung von ethischen Grundsätzen für künstliche Intelligenz vonnöten.
Alles führt zurück auf den Datensatz
Bisherige Versuche eine moralische KI zu erschaffen sind noch limitiert. Ein Projekt der TU Darmstadt beschäftigte sich damit, ob ihre KI auch ethische Überlegungen tätigen kann. Das Experiment zeigte jedoch, dass künstliche Intelligenz zwar Fragen moralisch „richtig“ beantworten kann, diese Antworten aber natürlich auf der Analyse von Texten mit menschlichem Ursprung basieren und somit nur die darin widergespiegelte Einstellung reproduzieren. Wenn nun also im Datensatz, der für das Lehren einer KI enorm groß sein muss, konträre Meinungen vorhanden sind oder sogar unethische Einstellungen untergekommen sind, wird die KI diese fehlerhaften Meinungen mimen.
Das System bei diesem Experiment ist folgendes: Die KI analysiert den Textkorpus darauf in welchem Kontext die einzelnen Wörter der Frage verwendet wurden. Beispielsweise kann sie dann so den Unterschied zwischen „killing people“ und „killing time“ erkennen und auf die Fragen, ob es in Ordnung ist Menschen oder Zeit tot zu schlagen, unterschiedlich antworten. Damit bestätigt dieses Projekt die derzeitige Annahme, dass Maschinen menschliche Werte widerspiegeln, jedoch bisher keinen eigenen Moral-Kompass entwickeln können. Diese Widerspiegelung kann also sowohl positiv als auch negativ sein, je nachdem welcher Datensatz der KI zu Grunde liegt.
Das Problem des Bias
Wenn nun also Maschinen die Grundsätze der Datensätze und somit der Menschen, die diese Daten produziert haben, reproduzieren, übernehmen sie gleichzeitig auch die Vorurteile und Biases dieser Menschen. Ein Bias ist laut Duden die „durch Voreingenommenheit verzerrte Wahrnehmung oder Einschätzung“.
Ein Exkurs: Was ist Bias?
Vereinfacht gesagt ist ein Bias, wenn ein Mensch einer anderen Person oder einer Sache mit zuvor gefassten Meinungen gegenübertritt. Vorurteile und Stereotypen gehören dazu. Unter diese Voreingenommenheit fallen viele Phänomene. Eine bekannte Ausführung ist beispielsweise der Gender Bias: Hier haben Menschen ihrem Gegenüber anhand des Geschlechts bereits vorgefasste Meinungen. Ist das Gegenüber eine Frau, können diese Meinungen sich beispielsweise darauf beziehen, dass sie stereotypisch weibliche Attribute mit sich bringt. Was eine Einstellung von simplem Stereotypen-Denken zu Bias verändert ist, wenn die Entscheidungsfähigkeit beeinflusst wird. So wird beim Gender Bias dann die Frau benachteiligt, weil man es ihr beispielsweise nicht zutraut eine Führungsposition zu übernehmen, da Frauen als zu emotional hierfür eingestuft werden.
Der Confirmation Bias
Quelle: FreepikEin weiterer bekannter Bias ist der Confirmation Bias oder zu Deutsch Bestätigungsfehler. Dieser wurde beobachtet, da Menschen dazu neigen ihnen vorgelegte Informationen und Daten so zu interpretieren, dass sie in ihr Weltbild passen und ihre Erwartungen erfüllen. Ein einfaches Beispiel für den Confirmation Bias: Wenn Person A denkt, dass eine Automarke öfter zum Rasen auf der Autobahn verwendet wird als andere, dann wird sie immer darauf aufmerksam, wenn diese bestimmte Automarke an ihr vorbei rast, während andere Automarken vermindert wahrgenommen werden. Somit bestätigt sich die Annahme.
Wie KI falsch von uns lernt: Ein Bias-Beispiel
Die Grundsätze für KI-Ethik
Um diesen Teufelskreis der Vorurteile zu umgehen, können ethische Grundsätze helfen. So können der KI verschiedene Grundregeln beigebracht werden, die gegen Biases wirken. Ethik in der experimentellen Forschung geht auf Leitsätze zurück, die weitaus älter sind als die Geburtsstunde der künstlichen Intelligenz. Der Belmont-Bericht hat bereits 1979 Richtlinien für den Schutz von menschlichen Proband:innen in der Forschung festgesetzt. Die ethischen Grundprinzipien, die dieser Bericht hervorgebracht hat, sind noch heute gültig. So sind die drei Grundpfeiler der Respekt für Personen, das Prinzip Gutes zu tun und Gerechtigkeit. Anhand dieser Pfeiler lassen sich auch Prinzipien für die Entwicklung von künstlichen Intelligenzen ableiten. Diese Grundprinzipien der ethischen Forschung können der KI als Regelwerk vorgelegt werden.
Die Umsetzung: Wie wird KI ethisch?
Obwohl es diese ethischen Grundsätze gibt und sich die allgemeine Öffentlichkeit der Risiken von KI auch durch die vielen Beispiele von unmoralischem Handeln der KI bereits mehr als bewusst ist, hakt es an der Umsetzung. Wie kann eine KI frei von Vorurteilen und Diskriminierung sein, wenn die Trainingsdaten selbst mit Vorurteilen behaftet sind? Wie kann ein subjektives Konzept wie ethisches Handeln objektiviert werden? Und wer kümmert sich darum, dass alle Technologien sich an diese ethischen Grundpfeiler halten?
KI-Ethik ist ein Bereich, der bereits in der Theorie viele Fragen aufwirft und in der Praxis noch viele weitere Hürden überwältigen muss. Deswegen gibt es hierfür schon einige Organisationen, die es sich zur Aufgabe gemacht haben, die Entwicklung von künstlicher Intelligenz ethisch voranzutreiben, sowie die sozialen Auswirkungen, die KI schon heute auf uns hat, zu beobachten und zu erforschen. Schwerpunkte in diesem Bereich sind:
- Erklärbarkeit: Hier geht es um die Transparenz der Algorithmen. KI soll keine undurchsichtige Blackbox sein, sondern die Einflüsse müssen erkennbar sein. Die Logik der Maschine muss für Menschen verständlich gemacht werden.
- Fairness: Menschliche Vorurteile können aktiv entgegengewirkt werden und dadurch Inklusivität und Gerechtigkeit gefördert werden.
- Transparenz: Im Vergleich zur Erklärbarkeit, die sich auf das Verhältnis zwischen der Technologie und den Menschen bezieht, geht es bei der Transparenz um das Verhältnis zwischen Entwickler:innen und Nutzer:innen. Letztere müssen in der Lage sein, die Stärken, Schwächen und allgemeine Funktionalitäten der KI einzusehen und zu verstehen.
- Privatsphäre: Der Datenschutz muss eine Priorität bei der Entwicklung von KI-Technologien sein. Vor allem der Schutz der Systeme und somit der Daten vor Angriffen durch Dritte.
Allgemeines Regelwerk zur KI-Ethik
Auch wenn es bereits viele Organisationen, die sich in diesem Bereich einsetzen, und auch Unternehmen gibt, die ethische Grundsätze in ihre Praktiken implementieren, ist KI-Ethik ein zu wichtiges Thema, als das es auf einer freiwilligen Basis gelöst werden kann. Die Regulierung sollte nicht auf die leichte Schulter genommen werden. Was darf KI und welche Grenzen müssen ihr gesetzt werden? Auch wenn sich viele Unternehmen, wie etwa Amazon, das die Verwendung des Recruiting Tools nach den verheerenden Ergebnissen eingestellt hat, ihrer sozialen und ethischen Pflichten bewusst sind und diesen nachkommen, ist das Potenzial von KI, menschliche Vorurteile noch weiter zu verstärken und vergrößern, enorm. Deswegen sollten ethische Fragen in dieser Hinsicht als Priorität gesehen werden.
Die UNESCO wie auch das Bundesministerium für Wirtschaft und Klimaschutz haben hierzu schon tiefgreifende Leitlinien vorgestellt, die beim Verwenden von KI interessant sein können. Allgemein ist die Forschung von KI-Ethik noch im Anfangsstadium. Während die Gefahren zum Teil bekannt sind, sind die Lösungen bisher vage Hypothesen. Als Unternehmen, die mit künstlichen Intelligenzen arbeiten, ist dieser Bereich gerade deswegen spannend und sollte unbedingt verfolgt werden. Vor allem sobald sich potenzielle weitgreifende Regelungen in die alltägliche Verwendung auswirken.
Wie kannst Du Dich schon heute vor den Risiken von KI schützen?
Ethische Fragen und Bedenken sind nicht die einzigen Risiken, die künstliche Intelligenz mit sich bringt. KI-Manipulation und wie man sich davor schützen kann sind weitere wichtige Themen. Auch wie man KI-Inhalte erkennt, sollte man in der Praxis wissen. Dieser Beitrag will aber auf keinen Fall nur negative Punkte beleuchten. Die Anwendungsbereiche von KI sind vielfaltig und können unseren Alltag revolutionieren. Im Prinzip geht es darum, künstliche Intelligenz zu verstehen und mit ihr verantwortungsbewusst umzugehen. Egal ob im Online-Shop, im Content Marketing oder in anderen Gebieten, die Vorteile dieser Technologie sollen auf keinen Fall vernachlässigt werden.
Du willst noch mehr zu KI erfahren? Unsere Konferenz: KI in der Unternehmenspraxis beantwortet alle Fragen zum Thema.
No Comment