Das Potenzial von Künstlicher Intelligenz (KI) und maschinellem Lernen wird derzeit in nahezu allen Wirtschafts- und Anwendungsbereichen diskutiert und getestet. Auch im Nachhaltigkeitsresearch bieten die Technologien neue Möglichkeiten, um die Erhebung von ESG-Daten (Environmental, Social und Governance) effizienter und schneller zu gestalten. Trotz des enormen Potenzials von KI-Tools bleibt die Expertise menschlicher Analyst*innen jedoch unersetzbar – wir erklären, warum.
imug rating, seit 2023 Teil der unabhängigen europäischen EthiFinance-Gruppe, testet umfangreich die Integration von KI in seine Datenerhebungsprozesse. Markus Grünewald, Head of Research bei imug rating, warnt jedoch, dass der Einsatz von KI kein Selbstläufer für validierte Ergebnisse ist. Insbesondere bei maßgeschneidertem Research müssen KI-Modelle individuell angepasst und wiederholt getestet werden, um den hohen Anforderungen an die Genauigkeit und Validität von ESG-Ratings gerecht zu werden.
KI im Analyseprozess: Schnelle Informationen, aber wenig Tiefe
Eine wesentliche Herausforderung ist die Integration komplexer Kriterienkataloge in KI-Modelle. Während einige KI-Anbieter sich auf die Erhebung einfacher Leistungs-/Performanceindikatoren konzentrieren, benötigen Nachhaltigkeitsanalyst*innen tiefergehende Informationen. Die Bewertung der Umsetzung menschenrechtlicher Sorgfaltspflichten beispielsweise erfordert eine Vielzahl an qualitativen Informationen, die über oberflächliche „ja/nein“ oder „vorhanden/nicht vorhanden“ Aussagen hinausgehen. KI-Tools können große Datenmengen schnell durchsuchen und relevante Informationen extrahieren, aber für eine detaillierte Einschätzung qualitativer Sachverhalte stoßen sie an ihre Grenzen.
Markus Grünewald betont: „Wir müssen viel Zeit in das KI-Training investieren. Besonders, wenn Bewertungen auf unterschiedlichen Erfüllungsgraden einer Vielzahl qualitativer Indikatoren beruhen sollen. Unsere rechercheintensiveren Modelle müssen in KI integriert werden.“ Dies zeigt, dass KI zwar bei der Informationssuche helfen, aber nicht die Expertise und das Urteilsvermögen menschlicher Analyst*innen ersetzen kann.
Anwendung in der Praxis: Stärken und Schwächen von KI in der ESG-Analyse
Erklären lässt sich dies am konkreten Anwendungsfall: der Identifizierung von Kontroversen, etwa Verstöße gegen internationale Standards. Nach einer Testphase hat imug rating ein KI-gestütztes Tool eingeführt, das bei der effizienten Recherche nach relevanten Artikeln und Kontroversen hilft. Durch die automatisierte Analyse können potenzielle Risiken schneller identifiziert werden. Die Stärken der KI liegen klar im Auffinden von Datenpunkten und in der Effizienz: KI-Tools können hervorragend große Mengen an Daten durchsuchen und relevante Informationen schnell herausfiltern, was den Rechercheprozess erheblich beschleunigt. Dennoch bleibt die menschliche Expertise unverzichtbar, um die gefundenen Kontroversen im Anschluss zu bewerten und nach Schweregraden zu klassifizieren. Das ist wiederum wichtig, um vorhandene Kontroversen aus der Unternehmens- und Stakeholder-Perspektive gerecht in die ESG-Bewertungen einzuordnen.
Die Schwächen der KI zeigen sich insbesondere in der Interpretation und Einordnung der Daten: Die Bewertung komplexer, qualitativ unterschiedlicher Erfüllungsgrade erfordert menschliches Urteilsvermögen, das KI-Modelle derzeit noch nicht leisten können. Zudem erfordert die ESG-Analyse ein tiefes Verständnis und eine kontextuelle Urteilsfähigkeit, die über reine Datenanalyse hinausgeht. KI-Modelle stoßen bei der qualitativen und kontextreichen Interpretation von Informationen an ihre Grenzen. In vielen anderen Anwendungsbereichen, in denen klar definierte und strukturierte Daten genutzt werden, funktionieren KI-Modelle besser, wie zum Beispiel bei der Analyse rein quantitativer Finanzdaten.
Was rein KI-basierte ESG-Bewertungen dementsprechend nicht leisten können, zeigt sich vor allem in der Tiefe der Analyse: Während KI-Modelle effizient grundlegende Daten und oberflächliche Indikatoren identifizieren können, fehlt ihnen die Fähigkeit zur tiefgehenden Interpretation und kontextuellen Bewertung. Hier spielen Analyst*innen eine entscheidende Rolle, da sie die Daten in den richtigen Zusammenhang setzen, qualitative Unterschiede und Nuancen erkennen und somit die Auswirkungen auf die ESG-Bewertungen präzise einschätzen können. Diese menschliche Expertise ist besonders wichtig, wenn es um ethische Fragen und komplexe soziale oder ökologische Zusammenhänge geht, die nicht durch einfache Algorithmen erfasst werden können.
Ethik und Transparenz: Schlüsselprinzipien für die Integration von KI im Nachhaltigkeitsresearch
Die zunehmende Integration von KI neben menschlicher Expertise im Nachhaltigkeitsresearch erfordert nicht nur technisches Know-how, sondern auch die Entwicklung neuer Kompetenzen und die Auseinandersetzung mit ethischen Fragen. Analyst*innen müssen lernen, mit KI-Algorithmen zu arbeiten und deren Ergebnisse zu interpretieren. Dabei geht es nicht nur um die Beherrschung der Technologie, sondern auch um das Verständnis ihrer Grenzen und Implikationen.
Unternehmen und Organisationen tragen die Verantwortung dafür, dass der Einsatz von KI fair, transparent und ethisch verantwortungsvoll erfolgt. KI-Systeme sollten darauf abzielen, die Rechte von Gemeinschaften und die Umwelt zu respektieren und positive Veränderungen in Richtung einer nachhaltigeren Zukunft voranzutreiben. Dies erfordert klare Richtlinien und Standards für den Einsatz von KI.
Ein bedeutender Schritt in diese Richtung ist das kürzlich beschlossene KI-Gesetz (AI Act) der EU. Dieses Gesetz zielt darauf ab, die Entwicklung und den Einsatz von KI in Europa sicherer und transparenter zu gestalten. Der AI Act beinhaltet strenge Regelungen zur Risikobewertung, zur Transparenz der Algorithmen und zur Verantwortung der Entwickler und Nutzer von KI-Systemen. Mit diesem Rechtsrahmen soll sichergestellt werden, dass KI-Technologien im Einklang mit europäischen Werten und Grundrechten entwickelt und eingesetzt werden.
Der AI Act unterscheidet dabei zwischen verschiedenen Risikoklassen von KI-Systemen, wobei besonders strenge Vorschriften für sogenannte „hochriskante“ Anwendungen gelten. Diese umfassen Bereiche wie Gesundheit, Sicherheit, Grundrechte und Umwelt. Unternehmen, die solche KI-Systeme entwickeln oder einsetzen, müssen umfassende Risikobewertungen durchführen, die Transparenz und Nachvollziehbarkeit der Algorithmen gewährleisten und regelmäßige Audits durchführen. Zudem fordert der AI Act die Einrichtung von Mechanismen zur menschlichen Überwachung von KI-Systemen, um sicherzustellen, dass diese verantwortungsvoll und ethisch korrekt agieren.
Insbesondere im Nachhaltigkeitsbereich könnte der AI Act dazu beitragen, ethische Standards zu setzen und Vertrauen in die Nutzung von KI durch Transparenz zu stärken. Der AI Act stellt somit einen wichtigen Rahmen dar, um die positiven Potenziale von KI im Sinne einer nachhaltigen und gerechten Zukunft voll auszuschöpfen und betont ebenfalls die Wichtigkeit der menschlichen Ethik und Expertise.
Ausblick: Einsatz von KI nur auf konsequenter Grundlage menschlicher Prinzipien
Die Zukunft des Nachhaltigkeitsresearchs liegt somit in der harmonischen Zusammenführung von KI-Technologie und menschlicher Intelligenz. Während KI-Tools an Bedeutung gewinnen, bleibt die Rolle des menschlichen Analysten unersetzlich. Ersan Aydin, Nachhaltigkeitsanalyst bei imug rating, betont: „Eine vollständige Nachhaltigkeitsanalyse allein durch KI ist nicht möglich, da menschliches Urteilsvermögen und Fachwissen fehlen. Analyst*innen spielen eine entscheidende Rolle bei der Interpretation der Ergebnisse und der Berücksichtigung ethischer Aspekte.“
Die Kombination von KI und menschlicher Expertise verspricht, das Nachhaltigkeitsresearch effizienter zu machen. In einer zunehmend durch Daten gesteuerten Welt wird die ineinandergreifende Performance von KI-Tools und menschlichen Analysten entscheidend sein. Mit dem verantwortungsvollen Einsatz von KI können wir eine nachhaltigere Zukunft entscheidend mitgestalten.