Gut oder nicht Gut? Wenn KI ethische Fragen aufwirft

Das gilt es bei der menschlichen Komponente von KI zu beachten

Forscher gehen davon aus, dass KI künftig menschenähnliche kognitive Fertigkeiten haben wird, oder sogar bessere. Die Frage ist nicht „ob“, sondern „wann“. Worauf Sie daher achten sollten, wenn Sie die Einführung einer KI planen, darüber haben wir mit DI Christof Wolf-Brenner von der Know-Center GmbH gesprochen.

Schon heute lassen sich dank KI schnellere Ergebnisse und auch neue Erkenntnisse erzielen. Die KI lernt dabei einerseits autonom – also ohne andauernde Supervision – und andererseits adaptiv: Je nachdem, was wir ihr zeigen, wird sie andere Dinge finden und lernen.

Was durchaus positiv klingt, kann jedoch auch negative Auswirkungen haben. Ein bekanntes Beispiel dafür ist der sogenannte AMS-Algorithmus, der Arbeitssuchende in drei Klassen einteilt: in hohe, mittlere und niedrige Chancen für eine Festanstellung innerhalb der nächsten sechs Monate. Kritiker werfen diesem System unter anderem vor, bestehende gesellschaftliche Missstände „einzubetonieren“.

Das bedeutet, dass die KI Entscheidungen auf einer weltanschaulichen Grundlage trifft, die als bereits überwunden gilt. Damit berührt KI ethische Fragen, die – wenn sie nicht angemessen beachtet werden – schnell zu Problemen bis hin zu öffentlicher Kritik führen können.

Die derzeit größten technischen Herausforderungen

Der Themenkomplex KI und Ethik findet aktuell vor allem in folgenden drei Bereichen Niederschlag.

  1. Bias: Das sind, vereinfacht gesagt, in Algorithmen gegossene Vorurteile und Ressentiments. Die Folgen sind etwa, dass ein KI-System bei gleicher Qualifikation für offene Stellen nur Männer oder nur Menschen mit heller Haut vorschlägt.
  2. Fehlende Transparenz: Es gibt Situationen, in denen sich nicht feststellen lässt, wie Algorithmen bei bestimmten Daten-Inputs zu bestimmten Outputs kommen. Um dieses Problem in den Griff zu bekommen, arbeiten Forscher*innen am Thema „Explainable AI“.
  3. Datenschutz: Dieser ist ein Gut, aber auch ein Recht, das es gerade im Zusammenhang mit KI zu schützen gilt. Helfen sollen hier technische Lösungen wie Anonymisierung oder Regulierungsansätze.

KI in der Praxis angehen und umsetzen

So lassen sich ethisch bedenkliche Ergebnisse verhindern

Um das Risiko zu minimieren, dass eine KI-Lösung moralisch unerwünschte Ergebnisse liefert, können Sie drei einfache Ansätze verfolgen.

  1. Aufklärung betreiben: Es braucht ein Bewusstsein und Verständnis für diese Problematik. Das ebnet auch den Weg für einen strategischen Ansatz, wenn es um den Einsatz von KI geht. Außerdem verhindert es, dass KI erst blind implementiert wird und dann später Feuer gelöscht werden müssen.
  2. Standpunkt beziehen: Es muss eine vom Management getragene Erklärung geben, wie Ihr Unternehmen zu Ethik und KI steht und was die Grundbedingungen abseits von Gesetzen sind, zu denen es sich verpflichtet fühlt.
  3. Prozesse aufsetzen: Es sind Abläufe zur systematischen, regelmäßigen Überprüfung des Risikopotenzials der KI-Anwendungen notwendig. Diese reichen von der Konzeption über die Planung und Entwicklung bis hin zur Nutzung.
So plant der industrielle Mittelstand KI-Lösungen

Sind die Grundlagen in Sachen KI und Ethik geschaffen, geht es an die konkrete Planung. Hier steht die Abstimmung mit der Unternehmensstrategie ganz oben. Die entscheidende Frage lautet: Wie passt KI in unsere Organisation und wie kann sie bei der Erreichung unserer Ziele helfen?

Die Planung umfasst nicht nur technische Aspekte: Gleich wichtig sind sowohl der unternehmerische als auch der menschliche Aspekt. Letzterer thematisiert die Auswirkungen von KI-Entscheidungen auf die Nutzer*innen.

In einem weiteren Schritt braucht es eine gute Roadmap. In der Praxis hat sich gezeigt, dass Unternehmen idealerweise mit Quick-Wins beginnen sollten – und zwar dort, wo es genügend Daten in ausreichender Qualität gibt und Menschen aus diesen Daten ohne großen Aufwand bereits nützliche Schlüsse ziehen konnten.  

Last but not least sind in der Umsetzung kompetente Partner nötig, die dafür sorgen, dass KI-Projekte nicht nur technisch-organisatorisch, sondern auch hinsichtlich ethischer Fragen erfolgreich ablaufen.

Fazit: KI ist mit Vorsicht zu genießen

Es grüßen öffentliche Kritik und Glaubwürdigkeitsverlust

Wer mit datengetriebener KI arbeitet, beispielsweise um produzierte Ware in „OK“ und „Ausschuss“ zu klassifizieren, stellt damit immer einen sehr starken Generalisierungsanspruch. Denn die Grundaussage hierbei lautet, dass sich auf Basis beobachteter Beispiele eine akkurate Aussage über zukünftige Ereignisse treffen lässt. Das bedeutet zwar, dass sich KI-Lösungen gut skalieren lassen. Gleichzeitig werden aber auch Fehler und ethisch bedenkliche Ergebnisse mit skaliert.

Daraus ergibt sich, dass KI-Projekte sehr gut geplant werden müssen. Das Einbetten von KI in die bestehende Organisation bedeutet einen ernstzunehmenden und langfristigen Change-Prozess, der nicht nur technische Aspekte umfasst, sondern auch so manche unternehmerische Grundüberzeugung in Frage stellt.

Unternehmen, die das Thema nicht mit der nötigen Vorsicht angehen, laufen Gefahr, über öffentliche Kritik und nachhaltigen Glaubwürdigkeitsverlust ihre ‚License to operate‘ zu verlieren. Mehrwert definiert sich heute für Kunden nicht mehr ausschließlich durch Funktionalität, sondern zunehmend auch über ethische Aspekte und die Berücksichtigung gesellschaftlicher Erwartungen.