Künstliche Intelligenz und Ethik

Leftshift OneLesezeit: 10 Minuten

Kann Künstliche Intelligenz moralisch vertretbar handeln? Wir haben bei Leftshift One einige Leitlinien definiert, um Diskriminierung und Ethikbrüche zu verhindern.

Leftshift One stellt sich bei der Forschung und Entwicklung rund um Künstliche Intelligenz zentrale Fragen zu Ethik und Moral. So vielseitig diese neue Technologie ist, so dringend braucht es ein Bewusstsein für ihre Wirkungsweisen. Losgelassene Algorithmen richten ohne Kontrolle mehr Schaden an, als sie Nutzen bringen.Künstliche Intelligenz ist in der Wahrnehmung vieler derzeit noch ein negativ konnotierter Begriff. Die Popkultur ist voll von Beispielen, die eine fürchtenswerte Dystopie präsentieren, in der Künstliche Intelligenz unsere Zivilisation massiv beeinflusst oder gar zerstört. Auch reale Beispiele aus der jüngeren Vergangenheit zeigen, dass KI ein negatives Potential birgt, wenn man leichtfertig mit ihr umgeht.

KI gone wrong

Die bekanntesten Beispiele sind wohl fehlgeschlagene Experimente im Bereich Human Resources oder der jüngste Fall in Österreich rund um den Algorithmus des Arbeitsmarktservice (AMS). Konkret kam es im Human-Resource-Case zu einer Art Intersektionalität, also der Diskriminierung aufgrund mehrerer demografischer Merkmale.Das KI-Tool sollte den Bewerbungsprozess erleichtern und riet explizit von all jenen Bewerbern ab, die zu weit vom Firmenstandort entfernt lebten. Dieser Faktor deckte sich jedoch auch mit der Zugehörigkeit zu einer bestimmten ethnischen Gruppe, die aufgrund ihrer tendenziell schlechteren Einkommenssituation gezwungen war, in billigeren Randbezirken der betreffenden Stadt zu wohnen. Der lernende Algorithmus schloss in weiterer Folge daraus, dass diese ethnische Gruppe nicht für den Job in Frage käme, obwohl der ursprüngliche Grund ein rein geographischer war.Ebenso problematisch wird die Situation, wenn wie im Falle des AMS-Algorithmus gleich die Hälfte der Bevölkerung, nämlich alle Frauen, benachteiligt werden. Eigentlich sollte der Algorithmus “nur” die Chancen am Arbeitsmarkt darstellen. In der Offenlegung dieser Bewertung, inklusive Punkteabzüge für das Frausein sowie etwaige damit verbundene Betreuungspflichten, liegt aber bereits das erste Diskriminierungspotential. Daraus erwachsen weitere Folgeprobleme, die schwer bis gar nicht zu korrigieren sein werden,wie einige Experten gegenüber “futurezone.at” erklärten.

Vorbeugen

Wie können solche Fälle in Zukunft vermieden werden? Dafür muss bereits die Entwicklung von KI-Komponenten vorausschauend agieren. Zwei Pfeiler dienen Leftshift One deshalb als Ausgangspunkt bei der Forschung und Entwicklung:die Charta der digitalen Grundrechte und die“Layers of Diversity” nach Gardenswartz und Rowe.Artikel 5 “Automatisierte Systeme und Entscheidungen“ der Digitalcharta beinhaltet die folgenden Absätze:
  • (1) Ethisch-normative Prinzipien dürfen nur vom Menschen aufgestellt, und Entscheidungen, die in Grundrechte eingreifen, nur von Menschen getroffen werden.
  • (2) Automatisierte Entscheidungen müssen von natürlichen oder juristischen Personen verantwortet werden.
  • (3) Die Kriterien automatisierter Entscheidungen, etwa bei Profilbildung, sind offenzulegen.
  • (4) Wer einer automatisierten Entscheidungen von erheblicher Bedeutung für seine Lebensführung unterworfen ist, hat Anspruch auf unabhängige Überprüfung und Entscheidung durch Menschen.
  • (5) Entscheidungen über Leben, körperliche Unversehrtheit und Freiheitsentzug dürfen nur von Menschen getroffen werden.
  • (6) Der Einsatz von künstliche Intelligenz und Robotik in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.
Darin ist exakt jener Ansatz definiert, den wir grundsätzlich als Maxime unserer KI-Lösungen ausgegeben haben. Unser Ziel ist stets ein symbiotisches Verhältnis zwischen digitaler und menschlicher Seite. Die reale Person behält dabei jederzeit die Entscheidungshoheit und bleibt somit immer die regulierende Instanz der KI. Artikel 1 und 3 der Charta formulieren weiters den Umgang mit Technik im Bezug auf Würde und Gleichheit.Das Vier-Schichten-Modell der Diversität nach Gardenswartz und Rowe definiert zudem jene Charakteristika von Menschen, die es besonders zu schützen gilt. Zusätzlich existieren natürlich auch von Seiten des Gesetzgebers eindeutige Regelungen, die gerade den innersten Bereich des Modells bedenken.

Ethik als Prozess

Auch wenn die Charta der digitalen Grundrechte bisher nicht rechtskräftig ist, wollen wir entlang dieser und anderer Leitlinien forschen und entwickeln. Wir begreifen Ethik als ständigen Begleiter. Denn aufgrund des rasenden Fortschritts in der Technologie stehen wir auch bei ethischen und moralischen Fragen fortlaufend vor neuen Herausforderungen.Die praktizierte Symbiose zwischen Mensch und KI-Services ist bereits ein wichtiger Schritt in dieser Hinsicht. In konkreten Proof-of-Concept-Cases konnten wir bereits zeigen, wie sich beide Komponenten sinnvoll ergänzen. Diese Fälle offenbaren aber auch, dass Nutzer unserer Technologie ebenfalls eine erhöhte Aufmerksamkeit für moralische Fragen mitbringen müssen.Gemeinsam mit unseren Partnern und potentiellen Kunden versuchen wir deshalb, ein erhöhtes Bewusstsein für Ethik im Umgang mit KI-Lösungen zu schaffen und weiter zu stärken.
#ethics

Ähnliche Artikel

INSIGHTS

Was ist künstliche Intelligenz?

INSIGHTS

Von der Idee zum perfekten Startup-Team

INSIGHTS

1. AI Styria Stammtisch

Das könnte Sie auch interessieren: