Wie können wir die Geister kontrollieren, die wir riefen?

Die Nutzung von künstlicher Intelligenz (KI) bildet einen schmalen Grat zwischen Wertschöpfung und Verantwortung.

Ralf Hofstetter

Ralf Hofstetter
Director for Trust & Transparency Solutions
PwC Switzerland    

Seit seiner breiten Verfügbarkeit im November 2022 hat das KI-basierte Dialogsystem ChatGPT von OpenAI wiederholt Schlagzeilen gemacht – positive und negative. Zwar wurde die Sprachsoftware mit Schutzmechanismen versehen. Trotzdem liefert sie immer wieder Fehlinformationen, diskriminierende oder schablonenhafte Antworten. 

ChatGPT testet die Grenzen der Technologie

Nur weil maschinell lernende Anwendungen menschliche Fähigkeiten oft weit übertreffen, bedeutet das nicht, dass sie unfehlbar sind. Das liegt weder in deren begrenztem technologischem Potenzial noch in vermeintlich propagandistischen Absichten des OpenAI-Forschungsteams begründet. Vielmehr befindet sich ChatGPT derzeit in einer frühen Entwicklungsphase. In dieser treffen die enorm hohen Erwartungen der Nutzenden und die Grenzen der Technologie aufeinander – mit öffentlichkeitswirksamen Konsequenzen.

KI ist so stark wie die Datengrundlage

Die Erkennungsrate und damit der Mehrwert von KI-Sprachsoftware wie ChatGPT hängt wesentlich von der Anzahl und Qualität der Trainingsdaten und -vorgänge ab. Fehler oder Qualitätsmängel in diesen Daten und unvermeidbare Generalisierungen können auf das Entscheidungsverhalten der Anwendung durchschlagen und sie fehlerhafte Schlussfolgerungen ziehen lassen. Mit anderen Worten: Maschinell lernende KI ist immer nur so gut, wie die Daten, mit denen sie trainiert wurde und wird. ChatGPT greift auf einen Datenfundus ab 2011 zurück. Das sind also «nur» elf Jahre Wissen und Erfahrung in Datenform. 

Regulation hinter dem Fortschritt

Es ist nachvollziehbar, dass der Ruf nach klaren Regeln für die Umsetzung von KI immer lauter wird. Hier tut sich derzeit einiges. Mit Gesetzen wie der EU-Datenschutzgrundverordnung (DSGVO) oder dem revidierten Schweizer Datenschutzgesetz (nDSG) haben gesetzgebende Instanzen bereits ins digitale Marktgeschehen eingegriffen. Weitere staatliche und private Initiativen sowie diverse Prüfsiegel für KI-Anwendungen sind in Arbeit. Mit dem «Proposal for a Regulation laying down harmonised rules on artificial intelligence» will die EU das Vertrauen in KI stärken. Und mit Algo.Rules können Entwickler:innen auf eine praxisnahe Orientierungshilfe zurückgreifen. 

Unternehmen müssen digitale Verantwortung übernehmen

Trotz (selbst-)regulierender Initiativen bleiben die Unternehmen in der Pflicht. Denn wer digitale Wertschöpfung betreibt, muss sicherstellen, dass diese gemeinwohlverträglich ist. Allerdings ziehen Wirtschaftlichkeit und Ethik häufig Spannungsfelder auf. Zum Beispiel kann die Achtung der Privatsphäre im Umgang mit Personendaten den betriebswirtschaftlichen Erfolg schmälern. Automatisierte Rekrutierungsprozesse können die Diversität der Belegschaft beeinträchtigen. Oder der Einsatz eines Chatbots kann zu Enttäuschungen führen, weil Kund:innen lieber persönlich mit Menschen interagieren.

Zwischen Wirtschaftlichkeit und Ethik

Digitalethische Lösungen sind weder schwarz noch weiss, sondern eine fragile Balance zwischen betriebswirtschaftlicher Wertschöpfung und verantwortungsbewusstem Unternehmertum. Um diese Balance zu wahren, müssen die Unternehmen ihr Handeln an digitalethischen Werten ausrichten und einen hauseigenen Wertekodex ausarbeiten. Nur so stellen sie ihre technologische Innovationskraft in den Dienst der Menschen und verpflichten sich dazu, Technologien und Daten sicher, souverän, nachvollziehbar und verantwortungsbewusst zu nutzen.

Eine digitalethische Strategie geht aus der Vision des Unternehmens hervor. Sie basiert auf der Geschäftsstrategie und den unternehmerischen Kernwerten, allen voran der Integrität. Mit einer derart integrierten Strategie kann das Unternehmen sicherstellen, dass Menschen, Prozesse, Produkte und Technologien in jeder Zyklusphase innerhalb der Grenzen seiner Digitalethik liegen. Ein modulares Rahmenwerk erleichtert den Strategieprozess (vgl. Abbildung 1), da sich die Verantwortungsbereiche dem firmenspezifischen Kontext anpassen lassen. 

corporate ethics

Abbildung 1: Eine modular aufgebaute Digitalethik lässt sich gezielt in Unternehmensstrategie und Geschäftsprozesse integrieren. Quelle: PwC Deutschland

Prüfung digitaler Ethik kommt Unternehmen zugute 

KI-Anwendungen sind als Produkte zwar nicht haftbar, unterliegen aber dennoch einer Rechenschaftspflicht. Deshalb ist es wichtig, dass unternehmenseigene Leitlinien zur Digitalethik jederzeit einer Überprüfung standhalten. Hier kommt die Prüfung ins Spiel. Ein Prüfteam kann zum einen die Governance des Unternehmens prüfen und sicherstellen, dass prozessuale und technologische Prozesse den definierten Ethikgrundsätzen entsprechen, richtig umgesetzt und nachvollziehbar offengelegt werden. Mit einer entwicklungsbegleitenden Prüfung kann es das ethische Strategiefit eines innovativen digitalen Produkts gewährleisten. Schliesslich können Prüfende algorithmisierte Entscheidungen überwachen und so deren Fehleranfälligkeit kontrollieren.

Digitalisierung vertrauensvoll gestalten

Die ethische Vertrauenswürdigkeit selbstlernender KI beginnt mit deren Entwicklung und dem datenbasierten Training. Umso entscheidender ist es, dass ein Unternehmen davor digitale Ethikgrundsätze niederschreibt und seinem Innovationsprozess zugrunde legt. Mit der glaubhaften und von einem Prüfteam bestätigten Bindung an digitalethische Richtlinien hilft ein Unternehmen mit, die digitale Transformation verantwortungsvoll und gemeinwohlverträglich zu gestalten. Es beugt Reputationsschäden vor und trägt wesentlich zum nachhaltigen Vertrauen seiner Anspruchsgruppen und der Gesellschaft in wertschöpfende Innovationen wie ChatGPT bei.

Trust & Transparency Solutions 

PwC verhilft zu Transparenz und Vertrauen, um die Compliance-Anforderungen zu erfüllen, konkurrenzfähig zu bleiben und langfristigen Wachstum zu ermöglichen. 

Mehr erfahren

Dieser Artikel erschien bereits in der Handelszeitung im April 2023. 

#social#

Contact us

Ralf Hofstetter

Ralf Hofstetter

Director for Sustainability Assurance, PwC Switzerland

Tel: +41 58 792 5625

Cristian  Manganiello

Cristian Manganiello

Partner for Risk and Compliance Management Services, PwC Switzerland

Tel: +41 58 792 56 68