Responsible AI: Wie funktioniert verantwortungsvolle KI?

Image
Christoph Bräunlich
Head of BSI AI, BSI
#crm#ai#cx#responsibleai#digitalresponsability#datafairness

Künstliche Intelligenz (KI) erleichtert unser aller Leben. Doch wo muss eine rote Linie gezogen werden, die nicht überschritten wird? Der verantwortungsvolle Einsatz von KI, im Englischen Responsible AI, bringt – wie der Name schon sagt – Verantwortung mit sich. Noch scheint das aber in vielen Unternehmen nicht angekommen zu sein.

Das Wichtigste in Kürze

  • Der verantwortungsvolle Umgang mit Künstlicher Intelligenz gewinnt an Bedeutung. Die relevanten Fachbegriffe: Responsible AI und AI Governance.
  • Unternehmen hängen bei der Entwicklung noch etwas hinterher, obwohl Verbraucherinnen bereits Schritte in diese Richtung erwarten.
  • Die Verbindung von Ethik und KI nimmt Fahrt auf: Die EU wird aktiv, zudem gibt es Labels und weitere Richtlinien, an denen sich Organisationen orientieren können.


Responsible AI


AI Governance: Die zentrale Bedeutung digitaler Ethik

Das Handelsblatt nennt es einen «Moralkodex für Maschinen»: AI Governance, also digitale Ethik, nimmt einen immer grösseren Stellenwert in der Unternehmenswelt ein. Der verantwortungsvolle Umgang mit Daten und der Schutz dieser steckt aber noch in den Kinderschuhen. Nur rund ein Fünftel der Unternehmen überwacht seine KI-Modelle hinsichtlich ethischer Richtlinien (FICO, 2021).

Ausgewogenheit ist der Schlüssel zu Data Fairness: Wussten Sie, dass nur 40 % der Verbraucher das Gefühl haben, die Kontrolle über ihre Daten zu haben, die sie einem Unternehmen überlassen (Zerotap, 2022)? Im Gegenzug sind sich 90 % der Befragten sicher, dass die Kombination aus menschlicher und Künstlicher Intelligenz die Zukunft darstellt. Davon sind auch wir bei BSI überzeugt!

Dass mehr Rücksicht auf die Belange der Verbraucherinnen genommen werden muss und es Grenzen der Ethik in der Technologie gibt, erkennen Unternehmen heute schon. Im Rahmen des «Stimmungsbarometer Digitale Ethik» zeigt das Pendel auf 83 von 100 Punkten bei der Frage, wie wichtig ethische Aspekte für Organisationen in fünf Jahren sind. Allerdings engagieren sich die Unternehmen heute nur bedingt, hier erreicht das Barometer nur 50 Punkte (Institute for Digital Business, HWZ 2022).

Künstliche Intelligenz, ethische Probleme – gibt es bereits Leitlinien?

Bei aller Wahrnehmung der Bedeutung von AI Governance stellt sich unmittelbar die Frage: Können sich Unternehmen an bestehenden Regeln, Leitlinien oder Gesetzen orientieren? Gibt es Behörden oder Institutionen, die vorgeben, was ethisch korrekt ist und was nicht?

Die Europäische Union hat beispielsweise 2018 eine Expertenkommission für künstliche Intelligenz eingesetzt, die 2019 eine EU-Leitlinie für vertrauenswürdige KI verabschiedet hat. Sie rückt vier ethische Grundsätze ins Licht: Achtung der menschlichen Autonomie, Schadensverhütung, Fairness und Erklärbarkeit (Europäische Kommission, 2019).

Zudem ist der Artificial Intelligence Act der EU (EU AI Act) in Planung, der die KI-Governance je nach Risiko für die Menschen regulieren und so die Grundrechte der Menschen in den Fokus rücken will (Future of Life, 2022). Beispielsweise soll Social Scoring der Bürger durch eine Regierung damit verboten werden, ein Programm zum Scannen von Jobbewerberinnen soll klare gesetzliche Vorgaben erhalten.

Darüber hinaus gibt es weitere Orientierungshilfen und Labels, die Unternehmen als Leitplanken dienen können. Eines davon: das Data Fairness Label vom Verband SWISS INSIGHTS, dessen Vize-Präsident unser Head of BSI AI Christoph Bräunlich ist. Unternehmen verpflichten sich damit, bei allen Data-Science-Projekten eigenverantwortlich einen Prüfprozess in Form eines digitalen Fragebogens zu durchlaufen.

Wofür werden Leitlinien benötigt? Christoph Bräunlich klärt das anhand eines Beispiels im Zusammenhang mit dem Data Fairness Label: «Ich verwende als Beispiel gerne die Velokuriere, die mit dem Fahrrad Essen ausliefern. Man kann sich eine KI vorstellen, die den Lohn dieser Kuriere berechnet, nach Schnelligkeit und Zuverlässigkeit etwa. Aber was ist, wenn das Fahrrad mal einen Platten hat? Sollte der Fahrer dann weniger Lohn bekommen?» (Horizont, 2022)

Weiter gibt es das Digital Trust Label der Stiftung Swiss Digital Initiative (SDI), das Unternehmen als erstes Label weltweit eine hohe Transparenz, klare Verantwortung und Datensicherheit bescheinigt. Ähnlich fungieren Zertifizierungen von Rechenzentren als «Trusted Data Center», das vom TÜV TRUST IT für Sicherheitsmanagement vergeben wird. Die Eingangsfragen dieses Absatzes können also mit einem klaren «Ja» beantwortet werden.

Digital Responsibility und Data Fairness als Grundpfeiler ethischer AI

Die Abkürzung «CDR» fällt in diesem Zusammenhang immer öfter. Abgeleitet von Corporate Social Responsibility (CSR) steht das Kürzel für Corporate Digital Responsibility und bezeichnet das nachhaltige, die Digitalisierung berücksichtigende und soziale Wirtschaften.

Gleichzeitig ist auch der faire Umgang mit Daten, die sogenannte Data Fairness, ein zentrales Thema. Das bewegt auch Konsumentinnen: Rund 80 % zeigen sich besorgt über den potenziellen Missbrauch ihrer personenbezogenen Daten (Ipsos und Google, 2021).

Da ist noch Luft nach oben: Ethische, soziale und die Nachhaltigkeit betreffende Auswirkungen werden bei der Wahl, Entwicklung und Anwendung von KI-Systemen im Unternehmen nur von rund 30 % der Entscheider zumindest gelegentlich berücksichtigt (Kienbaum, 2021).

3 Ideen, wie KI ethischer werden kann

Damit diese Zahl sinkt und Unternehmen das Vertrauen ihrer Kunden nicht verlieren, gibt es Stellschrauben, an denen gedreht werden kann.

  1. Aus Richtlinien werden Regularien: Ein denkbarer Weg, um mehr Konsequenz in Bezug auf Responsible AI zu erzwingen, ist, aus reinen Richtlinien Verpflichtungen zu machen. Der EU AI Act zeigt, in welche Richtung es gehen könnte.
  2. Teamwork: Die Kombination menschlicher und Künstlicher Intelligenz wird die Zukunft sein – ohne menschliche Aufsicht gibt es kein korrektes ethisches Verhalten.
  3. Transparenz: Verbraucher und Kundinnen wollen wissen, was mit ihren Daten passiert. Manipulative Einwilligungserklärungen zur KI-gesteuerten Datenverarbeitung sind nicht mehr zeitgemäss.

Unter Berücksichtigung dieser Punkte kann KI ethischer werden – ohne aktives Handeln nimmt das Misstrauen der Verbraucher jedoch zu. Die Veränderung liegt in den Händen der Organisationen.

Fazit: Keine KI ohne ethischen Rahmen

Responsible AI und das Bewusstsein, was der Einsatz von Künstliche Intelligenz pro Anwendungsfall bewirkt, ist zwingend notwendig. Ohne Ethik und verantwortungsvollen Einsatz kann KI nicht zukunftsfähig flächendeckend und nachhaltig eingesetzt werden.

Die EU ist mit der vorgestellten Leitlinie den ersten Schritt einer einheitlichen Ethik-Vorgabe gegangen. Nicht undenkbar, dass aus den Leitplanken und Handlungsempfehlungen schon bald Gesetze und Regularien werden, wie der EU AI Act beweist.

Interessieren Sie sich für Responsible AI? Egal, ob für Banking, Retail und Insurance: Ethik und Künstliche Intelligenz gehören für uns zusammen. Sie wollen wissen, wie das geht? Dann freuen wir uns auf Ihre Kontaktaufnahme.

Next Best Action: BSI.

Der beste nächste Schritt: Ihre Ziele mit BSI vernetzen.

Christoph Bräunlich, Head of BSI AI bei BSI

christoph.braeunlich@bsi-software.com

+41 58 255 93 09

BSI Customer Suite

Bieten Sie eine wirklich überzeugende Customer Experience mit sieben Produkten aus einem Guss.

bsi.engage
bsi.cx
bsi.crm
bsi.insight
bsi.ai
bsi.cdp
bsi.eip