Investment Institute
Nachhaltigkeit

Künstliche Intelligenz: KI mit Verantwortung und der Weg zu langfristigem Wachstum

  • 26 September 2022 (7 Minuten Lesezeit)

Künstliche Intelligenz (KI) hat das Umfeld für Unternehmen enorm verändert und ist aus einigen Sektoren wie Finanzen, Gesundheit und Automobile nicht mehr wegzudenken.

Seit ihrer Einführung haben sich KI-Systeme stetig weiterentwickelt. Heute kombinieren sie komplexe Datensätze mit Computertechnologie, um menschliche Lösungsansätze und Entscheidungen nachzubilden. Auch im Alltag kommt KI zum Einsatz, beispielsweise bei der Automatisierung der Kundenbetreuung oder der Optimierung von Serviceprozessen und Produkten.

Die Zahl der Anwendungsbereiche steigt weiter. Nach einer Umfrage von McKinsey1  arbeiteten im Jahr 2021 56% der über 1.800 befragten Unternehmen mit KI. 2020 waren es noch 50%. Ein weiteres Ergebnis der Umfrage ist, dass der Anteil der befragten Unternehmen, die mindestens 5% ihrer Vorsteuergewinne (EBIT) in KI investieren, von 22% im Jahr 2020 auf 27% gestiegen ist. 

Auch nach einer ähnlichen Studie von Gartner im Jahr 2022 hat der Einsatz von KI in Unternehmen zugenommen.2  Gartner fand heraus, dass 40% der befragten Firmen Tausende von KI-Modellen nutzen und der Geschäftswert von KI bis 2025 auf 5,1 Milliarden US-Dollar anwachsen dürfte.

Damit dieser Trend anhalten und mögliche ethische und soziotechnische Probleme begrenzt werden können, müssen KI-Prozesse nachhaltig werden.

Als globaler Assetmanager mit einem enormen verwalteten Vermögen im Technologiesektor können wir aus unserer Sicht viel zu einem verantwortungsbewussteren Einsatz von KI beitragen. Im Rahmen unserer Analyse versuchen wir, entsprechende Grundsätze zu definieren und zu verstehen, wie man sie langfristig umsetzen kann.

KI-Chancen und -Risiken

Unternehmen können mit KI-Systemen echte Werte schaffen und sind deshalb auch für Investoren sehr interessant. KI ist die Basis des Metaversums und wird dessen Wachstum und Automatisierung ermöglichen.3 Deep Learning und natürliche Sprachverarbeitung (Natural Language Processing, kurz NLP) verbessern die Aktivitäten und Interaktionen im Web 3.0.4

Wir sind der Überzeugung, dass durch die KI und das Metaversum wachsende und greifbare Investmentchancen entstehen können, weil es hier Unternehmen gibt, deren Gewinne in jedem der nächsten zehn Jahre stark steigen können.

Mit KI dürften Investoren in einem noch nie dagewesenen Umfang Informationen zu ökologischen, sozialen und governancebezogenen Chancen und Risiken (ESG) gewinnen und analysieren können.5 Besonders großes Potenzial sehen wir im Einsatz von Algorithmen zur Analyse von Stimmungen und NLP-Lösungen zur besseren Einbindung von ESG-Überlegungen in Investmentstrategien.6

Bei AXA IM haben wir eine eigene NLP-fähige Technik für Impact Investing entwickelt, die bestimmte Abschnitte von Unternehmensdokumenten bewertet. So können wir besser beurteilen, wie Firmen die UN-Nachhaltigkeitsziele (SDGs) unterstützen können.  

Eine andere Studie ergab, dass KI einen klaren Beitrag zur Erreichung der 169 Unterziele der 17 SDGs leisten kann.7 Möglich sind beispielsweise Technologien, die durch die bessere Erkennung recyclingfähiger Materialien helfen, das Plastik in den Ozeanen zu verringern, oder eine Plattform, die mit Satellitendaten und KI zur Verminderung der Wasserverschmutzung beiträgt.

Aber KI-Systeme bringen nicht nur Chancen und interessante Anwendungsmöglichkeiten mit sich, sondern auch erhebliche Risiken. Die offenkundigsten sind Datenschutzverletzungen und Beeinträchtigungen der Cybersicherheit, die der Reputation eines Unternehmens schnell schaden können. 

Hinzu kommen soziale und Menschenrechtsrisiken, die zwar schwerer zu definieren und zu messen, aber zweifellos besonders auffällig sind.8 Vor allem kann KI der Diskriminierung Vorschub leisten. Beim Einsatz von KI im Bereich Finanzdienstleistungen kann „Network Discrimination“ bestimmten Gruppen der Gesellschaft bei der Aufnahme von Krediten Steine in den Weg legen, und im Personalwesen besteht die Gefahr, dass bestehende Vorurteile Eingang in den Auswahlprozess finden.

Selbst wenn mittels KI Inhalte moderiert werden, können automatisierte Warnungen das Recht auf freie Meinungsäußerung beschränken – gar nicht zu reden von rechtlichen und ethischen Bedenken im Zusammenhang mit der Möglichkeit, mit KI Personen zu identifizieren und ihre Aktivitäten zu verfolgen.

Regulierung: Ein neuer Bereich

Wegen dieser enormen Risiken entstehen jetzt völlig neue Regulierungen. Die Europäische Union (EU) entwirft zurzeit eine KI-Verordnung in Anlehnung an die Datenschutz-Grundverordnung (DSGVO) 9 Sie soll Risiken im Zusammenhang mit bestimmten Einsatzgebieten von KI mindern und zugleich das Vertrauen in die genutzten KI-Systeme stärken.10

  • R2xvYmFsIHN1cnZleTogVGhlIHN0YXRlIG9mIEFJIGluIDIwMjEg4oCTIE1jS2luc2V5LCAyMDIxLg==
  • VGhlIEdhcnRuZXIgQUkgU3VydmV5IFRvcCA0IEZpbmRpbmdzIOKAkyBHYXJ0bmVyLCAyMDIyLg==
  • VGhlIE1ldGF2ZXJzZTogRHJpdmVuIEJ5IEFJLCBBbG9uZyBXaXRoIFRoZSBPbGQgRmFzaGlvbmVkIEtpbmQgT2YgSW50ZWxsaWdlbmNlIOKAkyBGb3JiZXMsIDIwMjIu
  • V2ViIDMuMCBpc3QgZGllIFZvcnN0ZWxsdW5nIGVpbmVyIDMuIEdlbmVyYXRpb24gZGVzIEludGVybmV0cywgbWl0IERlemVudHJhbGlzaWVydW5nc2tvbnplcHRlbiB1bmQgbmV1ZW4gQmxvY2tjaGFpbi1UZWNobm9sb2dpZW4sIGRpZSBkaWdpdGFsZSBBbndlbmR1bmdlbiB2ZXJiZXNzZXJuLiBBbHMgV2ViIDEuMCBiZXplaWNobmV0IG1hbiBkaWUgZnLDvGhlIFBoYXNlIGRlcyBJbnRlcm5ldHMgYmlzIGV0d2EgMjAwNDsgV2ViIDIuMCBzdGVodCBmw7xyIGRhcyBJbnRlcm5ldCwgaW4gZGVtIGVoZXIgZGllIE51dHplciDDvGJlciB6ZW50cmFsZSBIdWJzIEluaGFsdGUgZ2VuZXJpZXJlbi4=
  • SG93IGNhbiBBSSBoZWxwIEVTRyBpbnZlc3Rpbmc/IOKAkyBTJmFtcDtQIEdsb2JhbCwgMjAyMA==
  • TmF0w7xybGljaGUgU3ByYWNodmVyYXJiZWl0dW5nIChOTFApIGlzdCBlaW4gQmVyZWljaCBkZXIgSW5mb3JtYXRpayB1bmQgS0ksIGRlciBlcyBNYXNjaGluZW4gZXJtw7ZnbGljaHQsIGRpZSBJbmhhbHRlIGdyb8OfZXIgTWVuZ2VuIHZvbiBTY2hyaWZ0c3TDvGNrZW4genUgdmVyYXJiZWl0ZW4sIHNjaG5lbGwgenUgYW5hbHlzaWVyZW4sIHp1c2FtbWVuenVmYXNzZW4gdW5kIHp1IG51dHplbi4gVHlwaXNjaGUgRWluc2F0emJlcmVpY2hlIHNpbmQgQXV0b2tvcnJla3R1ci1UZWNobm9sb2dpZW4gdW5kIFN0aW1tdW5nc2FuYWx5c2VuIGluIEVjaHR6ZWl0Lg==
  • VGhlIHJvbGUgb2YgYXJ0aWZpY2lhbCBpbnRlbGxpZ2VuY2UgaW4gYWNoaWV2aW5nIHRoZSBTdXN0YWluYWJsZSBEZXZlbG9wbWVudCBHb2FscyDigJMgTmF0dXJlIENvbW11bmljYXRpb25zLCAyMDIwLg==
  • QXJ0aWZpY2lhbCBJbnRlbGxpZ2VuY2UgJmFtcDsgSHVtYW4gUmlnaHRzOiBPcHBvcnR1bml0aWVzICZhbXA7IFJpc2tzIOKAkyBCZXJrbWFuIEtsZWluIENlbnRlciwgMjAxOC4=
  • RGllIERTR1ZPIGlzdCBlaW5lIFNhbW1sdW5nIHZvbiBWb3JzY2hyaWZ0ZW4genVtIERhdGVuc2NodXR6IHVuZCB6dW0gU2NodXR6IGRlciBQcml2YXRzcGjDpHJlLCBkaWUgMjAxOCBlaW5nZWbDvGhydCB3dXJkZS4gU2llIHNvbGwgZGllIEtvbnRyb2xsZSB2b24gUHJpdmF0cGVyc29uZW4gw7xiZXIgaWhyZSBwZXJzb25lbmJlem9nZW5lbiBEYXRlbiB2ZXJiZXNzZXJuLg==
  • V2hhdCB0aGUgZHJhZnQgRXVyb3BlYW4gVW5pb24gQUkgcmVndWxhdGlvbnMgbWVhbiBmb3IgYnVzaW5lc3Mg4oCTIE1jS2luc2V5LCAyMDIxLg==
EU-Risikokategorien für KI-Systeme
Quelle: McKinsey & Co., What the draft European Union AI regulations mean for business, 2021: Relevance of AI risks for companies

Nach dem Entwurf wäre der Einsatz von Systemen mit inakzeptablen Risiken in der EU verboten. Systeme mit hohen Risiken müssten bestimmte Anforderungen erfüllen, darunter menschliche Kontrolle, Transparenz, Cybersicherheit, Risikomanagement, hohe Datenqualität, ständige Überwachung und Pflichtberichterstattung. Von Systemen mit begrenzten oder minimalen Risiken wird Transparenz verlangt. Jeder Nutzer soll wissen, dass Künstliche Intelligenz eingesetzt wird.

Die Verordnung würde nicht nur für Unternehmen und KI-Anbieter innerhalb der EU, sondern für alle KI-Systeme gelten, die Daten in die EU liefern.  Bei Verstößen gegen die Verordnung könnten Unternehmen mit Geldstrafen bis zu 30 Millionen Euro bzw. 6% ihres weltweiten Umsatzes belegt werden (je nachdem, welcher Betrag höher ist). Damit wären die Strafen höher als die in der DSGVO vorgesehenen.

Weltweit befassen sich immer mehr Regierungen und Regulierungsbehörden mit der Steuerung und Regelung von KI. Deshalb könnten die damit zusammenhängenden rechtlichen und finanziellen Risiken für Unternehmen enorm sein.

Verantwortungsvoller Umgang mit KI

Neben der Vorbereitung der Verordnung hat die Europäische Kommission Ethik-Leitlinien für eine vertrauenswürdige KI11 entwickelt, die Unternehmen als Rahmen für verantwortungsbewusste KI-Prozesse dienen können. Angesichts der erheblichen Risiken von KI-Systemen unterstützen diese Leitlinien einen rechtlich unbedenklichen, ethischen und stabilen Einsatz von KI.

Die Leitlinien beruhen auf vier ethischen Grundsätzen, die konkrete Anforderungen an Unternehmen stellen:

 

  • Recht auf Selbstbestimmung: Das Recht auf Selbstbestimmung des Einzelnen bleibt gewahrt. Die Aufteilung der Aufgaben auf Mensch und KI folgt menschlichen Grundsätzen und lässt dem Menschen viele Wahlmöglichkeiten. Der Mensch behält die Kontrolle über die Arbeitsprozesse in KI-Systemen.
  • Abwendung von Schaden: KI-Systeme dürfen Menschen Schaden weder zufügen noch verschlimmern oder sie auf eine andere Weise beeinträchtigen. Auch Situationen, in denen KI-Systeme aufgrund von unausgewogenen Machtverhältnissen oder Informationsvorteilen Schaden zufügen oder verschlimmern können, müssen berücksichtigt werden. Die Menschenwürde sowie die geistige und körperliche Unversehrtheit bleiben geschützt.
  • Fairness: Eine gleiche und gerechte Verteilung von Vorteilen und Nachteilen wird sichergestellt. Personen und Personengruppen dürfen nicht unfair behandelt, diskriminiert oder stigmatisiert werden. Der Einsatz von KI-Systemen darf nicht dazu führen, dass Menschen getäuscht oder unangemessen in ihrer Entscheidungsfreiheit eingeschränkt werden. Die Möglichkeit, Entscheidungen von KI-Systemen und den sie bedienenden Menschen anzufechten und wirksam dagegen vorzugehen, muss erhalten bleiben.
  • Nachvollziehbarkeit: Prozesse müssen transparent sein. Die Möglichkeiten und Zwecke von KI-Systemen müssen offen kommuniziert werden. Entscheidungen müssen für alle direkt und indirekt Betroffenen nachvollziehbar sein. Black-Box-Algorithmen sind nicht zugelassen.

 

Der Ansatz für verantwortungsbewusste KI bei AXA IM beruht auf einer vergleichbaren Struktur und enthält vier Bedingungen. Nach unserer Überzeugung müssen die KI-Systeme von Unternehmen fair, ethisch und transparent sein und von Menschen kontrolliert werden. Das gilt sowohl für die Technik als auch für die Einhaltung strenger Governancestandards.

Aus unserer Sicht können Unternehmen die mit KI verbundenen Risiken mindern und nachhaltige Werte schaffen, wenn sie sich an Richtlinien für verantwortungsbewusste KI halten. So können sie vom Einsatz von KI-Systemen profitieren und zugleich das Vertrauen ihrer Kunden aufbauen und diese binden.

Wichtig ist, dass es bei einer verantwortungsbewussten KI nicht nur darum geht, Risiken zu vermeiden. Vielmehr sollen Menschen und Unternehmen gleichermaßen von diesen Technologien profitieren.

Verantwortungsbewusste KI in der Praxis

Wir haben einige Studien und Benchmark-/Beurteilungs-Tools untersucht, die sich damit befassen, wie Unternehmen verantwortungsbewusste KI angehen und umsetzen – und erhebliche Unterschiede bemerkt.

Beispielsweise zeigt die Umfrage von McKinsey aus dem Jahr 2021,12 dass sich die befragten Unternehmen der Risiken im Zusammenhang mit KI kaum bewusst sind.  Die unten stehende Grafik gibt Aufschluss darüber, inwieweit die Unternehmen die Risiken unterschätzen.

  • RXRoaWNzIGd1aWRlbGluZXMgZm9yIHRydXN0d29ydGh5IEFJIOKAkyBFdXJvcGVhbiBDb21taXNzaW9uIFJlcG9ydCwgMjAxOS4=
  • R2xvYmFsIHN1cnZleTogVGhlIHN0YXRlIG9mIEFJIGluIDIwMjEg4oCTIE1jS2luc2V5LCAyMDIxLg==
So schätzen Unternehmen KI-Risiken ein
Quelle: McKinsey & Co., The state of AI in 2021, 2021: Relevance of AI risks for companies

Auch die Big Tech Scorecard by Ranking Digital Rights (RDR) von 202213 ,14 , ein unabhängiges Analyseprogramm, erkennt bei den Algorithmen von Technologieunternehmen Transparenzdefizite. Gemessen wurde anhand ähnlicher Grundsätze, wie wir sie oben beschrieben haben, einschließlich Menschenrechtsrichtlinien bei der Entwicklung von Algorithmen, Risikoanalysen, Transparenz und Datenschutz.

Keines der untersuchten Technologieunternehmen hat nach der Methode von RDR eine Beurteilung über 22% erhalten, und einige der größten weltweit tätigen Unternehmen finden sich am unteren Ende der Skala.

Unterdessen beurteilt die Digital Inclusion Benchmark der World Benchmarking Alliance15 Unternehmen auf Grundlage „inklusiver und ethischer Analysen und Entwicklungen“. Ziel ist festzustellen, „inwieweit die Unternehmensabläufe die Teilhabe diverser Personengruppen berücksichtigen und ethische Fragen bei der Produktentwicklung einbinden“. Die Benchmark-Scores der 77 von uns betrachteten Unternehmen waren enttäuschend schwach. Nur 3% haben eine sehr gute Bewertung erhalten.

Diese Ergebnisse unterstreichen, dass sich verantwortungsvolle Investoren wie AXA IM bei Unternehmen engagieren, sie auf verantwortungsbewusste KI ansprechen und deren praktische Umsetzung erläutern müssen. Im Rahmen unserer Nachhaltigkeitsanalysen und unseres Engagements im Technologiesektor konzentrieren wir uns auf Unternehmen, die erhebliche Investitionen in die Entwicklung von KI-Systemen planen.

Ihnen empfehlen wir vor allem:

  • Orientierung an den Grundsätzen von AXA IM zu verantwortungsbewusster KI: Fairness, Ethik, Transparenz und Kontrolle durch den Menschen
  • Bessere Berichterstattung und mehr Transparenz zur Entwicklung von KI-Systemen
  • Kontrolle verantwortungsbewusster KI-Systeme durch das Board und die Geschäftsleitung

Wir sind überzeugt, dass die Eindämmung von Risiken im Zusammenhang mit KI-Systemen – und die Beschäftigung mit aufsichtsrechtlichen Vorgaben – eng mit der Fähigkeit der Unternehmen verbunden ist, mit KI-Technologien langfristige Werte zu schaffen. Und wir meinen, dass KI-Systeme besser langfristige und nachhaltige Chancen bieten, wenn sie auf verantwortungsbewusste Weise entwickelt und eingesetzt werden.

  • VGhlIDIwMjIgUkRSIEJpZyBUZWNoIFNjb3JlY2FyZCDigJMgUmFua2luZyBEaWdpdGFsIFJpZ2h0cywgMjAyMi4=
  • V2hvIFdlIEFyZSAtIFJhbmtpbmcgRGlnaXRhbCBSaWdodHM=
  • RGlnaXRhbCBJbmNsdXNpb24gQmVuY2htYXJrIOKAkyBXb3JsZCBCZW5jaG1hcmtpbmcgQWxsaWFuY2UsIDIwMjEu

Ähnliche Artikel

Nachhaltigkeit

Artensterben: Ein globales systemisches Risiko verstehen und darauf reagieren

  • von Liudmila Strakodonskaya , Sian Long
  • 28 September 2022 (7 Minuten Lesezeit)
Nachhaltigkeit

Der Zero Emissions Day: Wo Investoren etwas tun können

  • von Chris Iggo
  • 15 September 2022 (5 Minuten Lesezeit)
Nachhaltigkeit

Klimawandel: Was hat Netto-Null mit der weltweiten Erderwärmung zu tun?

  • von Olivier Eugène
  • 09 September 2022 (5 Minuten Lesezeit)

    Rechtliche Hinweise

    Anlagen enthalten Risiken, einschließlich dem des Kapitalverlustes. Die hier von AXA Investment Managers Deutschland GmbH bzw. mit ihr verbundenen Unternehmen („AXA IM DE“) bereitgestellten Informationen stellen weder ein Angebot zum Kauf bzw. Verkauf von Fondsanteilen noch ein Angebot zur Inanspruchnahme von Finanzdienstleistungen dar.

    Die Angaben in diesem Dokument sind keine Entscheidungshilfe oder Anlageempfehlung, (aufsichts-) rechtliche oder steuerliche Beratung durch AXA Investment Managers Deutschland GmbH bzw. mit ihr verbundenen Unternehmen („AXA IM DE“), sondern werden ausschließlich zu Informationszwecken zur Verfügung gestellt. Die vereinfachte Darstellung bietet keine vollständige Information und kann subjektiv sein.

    Dieses Dokument dient ausschließlich zu Informationszwecken des Empfängers. Eine Weitergabe an Dritte ist weder ganz noch teilweise gestattet. Wir weisen darauf hin, dass diese Mitteilung nicht den Anforderungen der jeweils anwendbaren Richtlinie 2004/39/EG bzw. 2014/65/EU (MiFID/ MiFID II) und der zu diesen ergangenen Richtlinien und Verordnungen entspricht. Das Dokument ist damit für jegliche Form des Vertriebs, der Beratung oder der Finanzdienstleistung nicht geeignet.

    Die in diesem Dokument von AXA IM DE zur Verfügung gestellten Informationen, Daten, Zahlen, Meinungen, Aussagen, Analysen, Prognose- und Simulationsdarstellungen, Konzepte sowie sonstigen Angaben beruhen auf unserem Sach- und Kenntnisstand zum Zeitpunkt der Erstellung. Die genannten Angaben können jederzeit ohne Hinweis geändert werden und können infolge vereinfachter Darstellungen subjektiv sein. Eine Haftung oder Garantie für die Aktualität, Richtigkeit und Vollständigkeit der zur Verfügung gestellten Informationen wird nicht übernommen. Soweit die in diesem Dokument enthaltenen Daten von Dritten stammen, übernehmen AXA IM DE für die Richtigkeit, Vollständigkeit, Aktualität und Angemessenheit dieser Daten keine Gewähr, auch wenn nur solche Daten verwendet werden, die als zuverlässig erachtet werden.

    Wertentwicklungsergebnisse der Vergangenheit bieten keine Gewähr und sind kein Indikator für die Zukunft. Wert und Rendite einer Anlage in Fonds können steigen und fallen und werden nicht garantiert.

    Informationen über Mitarbeiter von AXA Investment Managers dienen lediglich Informationszwecken und sind stichtagsbezogen. Ein Weiterbeschäftigungsverhältnis mit diesen Mitarbeitern wird nicht garantiert.