31. Januar 2020 (aktualisiert am 12. Mai 2021)      Erstellt von Viktoria Szostakowski      Künstliche Intelligenz

Kethik

Künstliche Intelligenzen brauchen mehr ethische Verantwortung

Künstliche Intelligenzen sind auf dem Vormarsch. Kein Wunder, schließlich handelt es sich dabei um wichtige Helfer unseres Alltags, die bei manchen Arbeitsprozessen gar nicht mehr wegzudenken sind. KIs haben das Potenzial, unsere Wirtschaft und Gesellschaft voranzutreiben und grundlegend zu ändern. Wir sind dazu verpflichtet, die Richtung dieses Prozesses vorzugeben, indem wir ethische Standards setzen und diese kontrollieren.

Künstliche Intelligenz als Alltagshelfer

Die ursprünglich aus der Informatik stammenden KIs sind mittlerweile in unserem Alltagsleben angekommen.  Wir kennen sie beispielsweise als Sprachsteuerungsassistenten, die Tätigkeiten für uns übernehmen oder vorausschauend für uns planen.

Es gibt aber über Smart Home-Komponenten und kleine Alltagshelfer hinaus, weitere Zukunftsvorstellungen, inwiefern Künstliche Intelligenzen unseren Alltag verbessern und die Grenzen unserer Fähigkeiten ausschöpfen können. Besonders heiß diskutiertes Thema ist hierbei das autonome Fahren. Autonome Autos, die durch KIs gesteuert fahren, sollen die Straßen sicherer machen und Unfälle reduzieren. Gleichzeitig schwingen bei dieser Vorstellung auch die potenziellen Gefahren und Unsicherheiten bezüglich ethischen Verhaltens mit. Bei wem liegt die Verantwortung bei Unfällen? Wie soll bei kritischen Situationen im Straßenverkehr entschieden werden? Nach welchen Kriterien und Maßstäben sollen Künstliche Intelligenzen handeln?

Algorithmen und Datenmengen: Die Künstliche Intelligenz ist das, womit der Mensch sie füttert

Künstliche Intelligenzen arbeiten, indem sie Datenmengen durchsuchen, auswerten und anhand dessen Muster erkennen, die sie immer weiterspinnen – sprich, selbstständig weiterlernen. Künstliche Intelligenz übernehmen spezifische Aufgaben, die sie mithilfe dieser selbstentwickelten Muster erledigen. Doch es gibt auch Bedenken: „Verantwortlich für das Versagen der Algorithmen sind wir Menschen“, so Jörg Dräger und Ralph Müller-Eiselt, Autoren des Buches „Wir sind die intelligenten Maschinen“.

Was passiert, wenn die zugrunde liegenden Datenmengen nicht neutral sind und ein unerwünschtes Ergebnis hervorrufen? Künstliche Intelligenzen werden zunehmend in Unternehmen eingesetzt und übernehmen dabei oft Arbeiten, wie das Auswerten von Bewerbungen nach bestimmten Kriterien. Genau dabei ist einem großen Unternehmen ein Fehler unterlaufen. Die Arbeitsweise der eingesetzten KI erwies sich als unfair. Grund dafür war nicht die KI selbst, sondern die ihr zur Verfügung stehenden Daten. Die Programmierer setzen lediglich die Daten der letzten 10 Jahre ein, in denen mehr Männer als Frauen eingestellt wurden. Die KI schloss daraus, die Kategorie „männlich“ positiver zu bewerten als die Kategorie „weiblich“.

Auch im Bereich der Medizin erhofft man sich Abhilfe durch Künstliche Intelligenzen. Jedoch sind die Bedenken hierbei noch größer. Schließlich handelt es sich bei vielen Entscheidungen um Leben und Tod eines Patienten. Fehlerhaftes Verhalten einer KI kann tiefgreifende Folgen haben. Zudem fehlen zu manchen Krankheiten, Minderheiten und Kindern wichtige Forschungsdaten, sodass ein fehlerloser und vollständiger Algorithmus noch nicht möglich ist.

Defizite Künstlicher Intelligenzen

Als Biases bezeichnet man Verzerrungen aufgrund von diskriminierenden KI-Systemen. Diese können sowohl in der Konzipierung als auch in der Anwendung entstehen. Eine Diskriminierung liegt dann vor, wenn bestimmte Gruppen von Menschen anders behandelt werden als andere.

Solche Defizite und Systemfehler entstehen als Folge von Zeitdruck und der Erwartungshaltung, KI-Systeme schnell einsetzen zu können. Zudem besteht oft ein Mangel an Ressourcen und fehlende Berücksichtigung ethischer Standards. Die daraus resultierenden Folgen, sind beispielsweise Sensoren, die lediglich hellhäutige Menschen erkennen. Um die Funktionsweise von KI-Systemen möglichst fehlerfrei zu konzipieren, müssen große Datenmengen, insbesondere zu Personen, zur Verfügung stehen. Damit auch die Datenauswertung ethisch korrekt geschieht, muss eine Zustimmung des Betroffenen zur Erhebung dessen Daten vorliegen.

Wie kann man Künstliche Intelligenzen ethisch korrekt gestalten?

Christoph Lütge beantwortet in einem Interview mit der Zeit Fragen zur Ethik von Künstlichen Intelligenzen. Er ist Leiter des Institute for Ethics Artificia Intelligence (IEAI), welches es sich zur Aufgabe gemacht hat, ethische Richtlinien für KI-Systeme zu formulieren und Zusammenhänge zwischen Ethik und Künstlicher Intelligenz erforscht.

Auf die Frage, ob es faire und vorurteilsfreie Algorithmen gibt, antwortet Lütge mit einem klaren „Ja“, verweist jedoch darauf, dass KI-Systeme auch fehleranfällig sind. Um diese Fehler zu beseitigen, „muss man innerhalb des KI-Systems möglichst viele Szenarien durchspielen und beobachten, wann die Änderungen an den Randbedingungen zu einem fundamental anderen Resultat führen. Auf dieser Grundlage kann man den Algorithmus nachjustieren“ (Lütge). Als Präventionsmaßnahme sieht Lütge die Formulierung von ethischen Regeln, nach denen KIs arbeiten sollen. „Die Ethik muss in die Systeme eingeschrieben sein“ (Lütge). Unternehmen sollen sich an diese Richtlinien halten, andernfalls sollen künftig Strafzahlungen oder der Verlust der Reputation drohen. „Und wir müssen klären, wie Unternehmen reagieren, wenn es aufgrund von KI zu einem Verhalten kommt, das wir als nicht richtig empfinden“ (Lütge).

Fünf Grundsätze zum Umgang mit Künstlichen Intelligenzen

Der Zusammenhang von Ethik und Künstlicher Intelligenz wird immer wichtiger, insbesondere bei der fortschreitenden Digitalisierung der Welt. Die Reflexion und Gestaltung von ethischen Standards Künstlicher Intelligenzen stellt eine große Herausforderung dar, der sich die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) gestellt hat.

„Künstliche Intelligenz revolutioniert unser Leben und unsere Arbeit. Sie bietet enorme Vorteile für Wirtschaft und Gesellschaft. Aber sie weckt auch Ängste und ethische Bedenken. Entsprechend stehen unsere Regierungen in der Pflicht zu gewährleisten, dass KI-Systeme unseren Werten und Gesetzen folgen und die Menschen davon ausgehen können, dass Sicherheit und Privatsphäre höchste Priorität haben“,
OECD-Generalsekretär Angel Gurría, OECD-Ministertreffen 2019

Im Mai 2019 formulierte diese dazu fünf Grundsätze zum Umgang mit Künstlicher Intelligenz im Rahmen des OECD-Ministerratstreffens. Erarbeitet wurden die Grundsätze in Zusammenarbeit mit einer Gruppe von über 50 Expertinnen und Experten aus Politik, Wissenschaft, Wirtschaft, Zivilgesellschaft, Technologie, Gewerkschaften und internationalen Gremien. Diese Expertinnen und Experten kamen aus den 36 OECD-Mitgliedsländer und sechs weiteren Ländern.

Bei den Grundsätzen handelt es sich um wertbasierte Prinzipien für den verantwortungsvollen Einsatz vertrauenswürdiger Formen von künstlicher Intelligenz. Zudem wurden fünf Empfehlungen für das Regierungshandeln und die internationale Zusammenarbeit formuliert. Zusammen soll dies als ethischer Maßstab für die Gestaltung und Nutzung von KI-Systemen dienen.

OECD-Grundsätze zu künstlicher Intelligenz

  1. Künstliche Intelligenz soll den Menschen und dem Planeten zugutekommen, indem sie integratives Wachstum, nachhaltige Entwicklung und Wohlstand fördert.
  2. KI-Systeme sollen so gestaltet werden, dass sie rechtsstaatlichen Prinzipien folgen, demokratische Werte und Vielfalt respektieren und Schutzvorkehrungen beinhalten, die beispielsweise ein Eingreifen des Menschen ermöglichen, sodass eine faire und gerechte Gesellschaft gewährleistet wird.
  3. KI muss transparent gemacht und stets als solche erkennbar sein, damit die Menschen wissen, womit sie es zu tun haben und Ergebnisse gegebenenfalls hinterfragen.
  4. KI-Systeme müssen stets stabil und sicher arbeiten und potenzielle Risiken kontinuierlich untersucht und behandelt werden.
  5. Organisationen und Einzelpersonen, die KI-Systeme entwickeln, einsetzen oder verwalten sollten die rechtliche Verantwortung dafür tragen, dass die Systeme den oben genannten Grundsätzen entsprechend arbeiten.