Heute schon den Algo gefüttert?

Warum die Qualitätssicherung bei Corporate-(ESG)-Daten in Drittanbieter-Datenbanken immer wichtiger wird. Welche Lösungsansätze bieten sich Unternehmen an?

Die Berichtspflichten für Unternehmen nehmen immer weiter zu. Besonders hinsichtlich der Nachhaltigkeits-Kennzahlen wissen die Verantwortlichen im Reporting, wovon die Rede ist. Getrieben vom globalen Trend zu mehr Nachhaltigkeit werden die Teilnehmer am Kapitalmarkt von unterschiedlichen Stakeholder-Gruppen zu immer mehr Transparenz aufgefordert. Sie sollen über ihre Produkte, ihre Geschäftstätigkeit, ihre Lieferketten, ihre Emissionen oder ihre gute Unternehmensführung berichten. An sich ist das kein schlechter Ansatz, denn ein Unternehmen, das zeigt, dass es umweltfreundliche Produktionsmethoden hat und auch die Lieferanten gut behandelt, hat in der Regel eine gute Reputation, bekommt günstigere Finanzierungsbedingungen oder wird mit weniger Risikoaufschlag in den Bewertungen belohnt.

Das klingt gut, aber bis es so weit ist, müssen umfangreiche Hausaufgaben gemacht werden. Das Sammeln und Erheben berichtsfähiger ESG-Daten, die auch zumindest eine „limited assurance“ des Wirtschaftsprüfers bekommen, ist sehr aufwändig. Oft wird das noch mit verteilten Systemen in speziellen Datenbanken oder manuell in Excel-Dateien praktiziert. Die anschließende Aggregation der Daten nach den erforderlichen Standards ist ein weiterer, oft mühsamer und zeitaufwändiger Prozess, der meistens der Konsolidierung der klassischen Finanzdaten um Monate hinterherhinkt.

Erschwerend kommt hinzu, dass nicht nur die grassierende Zahl von Initiativen und Frameworks, sondern auch die zusätzlichen, beginnend ab 2021 gesetzlich verpflichtenden ESG-Anteile eines Geschäftsberichts (EU-Taxonomie), Mitarbeiter und ganze Abteilungen vor große Herausforderungen stellen. Hierzu empfiehlt sich auch ein Blick auf die aktuelle Analyse des DIRK zu „Ratern und Rankern“. Waren vor ein paar Jahren GRI1, CDP2 und TCFD3 vollkommen ausreichend, sind nun neben der EU-Taxonomie zusätzlich SASB4, WEF5 und zukünftig bald auch ISSB6 und VRF7 bei einer umfassenden Unternehmensberichterstattung zu berücksichtigen. Wohin soll das führen? Abgesehen von unterschiedlichen Schwerpunkten der einzelnen Frameworks, über generelle und industriespezifische Ansätze, bis zu höchst granular zu berechnenden Details einer Taxonomie-Berichterstattung ist alles dabei.

Immer häufiger werden Fragen gestellt, wie: Wozu das alles? Wer nutzt diese Information? Zu welchem Zweck? Was passiert mit den Daten? Welche Auswirkungen haben sie?

Der Weg der Daten ist oft unklar.

IR-Verantwortliche mit ihrem Blick auf die Welt außerhalb der Unternehmensgrenzen werden oft von internen Abteilungen mit diesen Fragen konfrontiert. Doch oft können auch gestandene IROs diese nicht wirklich abschließend beantworten. Zu unklar ist der Weg der Daten und die Nutzung durch die Empfänger. Jede Rating-Agentur und jeder große Asset-Manager haben ihr eigenes Scoring, beziehen mal mehr oder mal weniger Details darin ein. Je mehr Fragen man stellt, umso unterschiedlichere Antworten bekommt man.

Das Screening und die Selektion verfügbarer Titel kann nach diversen Kriterien und Ansätzen durchgeführt werden. Einige setzen auf Ausschlussverfahren (z.B. keine Waffen, Tabak, Glücksspiel), andere definieren Schwellwerte für Qualitäten (z.B. Menge an Arbeitsunfällen oder CO2-Fußabdruck) oder greifen auf einen „Best-In-Class“-Ansatz zurück.

Das meiste wird über Systeme und Algorithmen vorselektiert und Rankings werden automatisiert erstellt. Algorithmen? Waren das nicht die kleinen selbstlernenden Helferlein, die berechnen, wer auf die Top-50-Liste kommt und wer nicht? Entweder suchen sie selbst in den Tiefen des Netzes oder werden mit Daten gefüttert, die aus Datenbanken von Drittanbietern oder Intermediären stammen (z.B. MSCI, Refinitiv, Bloomberg oder andere), dann berechnen und selektieren Sie vor, was der Portfoliomanager zu sehen bekommt und in welchem Anlageuniversum Ihr Unternehmen berücksichtigt wird – oder auch nicht. Im Falle von passiven Fonds oder ETFs gibt es oft keinen Menschen mehr, der eine letztendliche Entscheidung trifft.

Der aufmerksame Leser versteht langsam, was die lange Einleitung mit dem Titel zu tun hat.

Wie sieht die Intermediärskette der Daten vom Unternehmen zum letztendlichen Empfänger (Investor) aus? Wie viele Instanzen sind das? Welche Informationen werden erhoben, aggregiert und weitergeleitet? Kennen Sie die Ergebnisse der Aggregationen und des Scorings und wissen Sie, wie diese berechnet oder hergeleitet wurden? Wenn Sie auf keine oder nur auf wenige Fragen mit „ja“ antworten können, sollten Sie sich Gedanken machen.

Was, wenn Ihre mit großem Aufwand erhobenen und veröffentlichten Daten falsch, unvollständig, veraltet oder fehlinterpretiert verarbeitet wurden? Wissen Sie davon? Wenn ja, können Sie das schnell beheben? Wie stellen Sie sicher, dass beim nächsten Mal alles richtig läuft?

Wie spreche ich mit einem Algorithmus?

Sie sehen, es tun sich eine Reihe von Kausalitäten auf, die am Ende ggf. dazu führen können, dass Ihr Unternehmen von einem Fonds ausgelistet wird oder dass Sie bei Investitionen gar nicht erst berücksichtigt werden. Plötzlich fließt Eigenkapital ab und Sie erkennen den Grund nicht bzw. erst dann, wenn es zu spät ist.

In einer vor Kurzem erschienenen Untersuchung im Rahmen der DIRK Forschungsreihe (Band 28)Influence of the growing ETF industry on active investor relations work” analysiert die Autorin Annika Erben sehr treffend, was es bedeuten kann, wenn Unternehmen keine oder zu wenig Sorgfalt bei der Sicherstellung ihrer verwendeten Daten an den Tag legen. Sie empfiehlt sogar, innerhalb der IR-Abteilungen perspektivisch die Rolle eines Experten für externe Datenbanken einzuführen. Zufall? Sicher nicht.

Investor Relations Manager haben traditionell eher persönlich mit Sell- oder Buyside interagiert. Zahlen wurden erklärt und Analysten-Modelle hinterfragt. So manche falsche Annahme konnte im Rahmen von Konferenzen oder One-on-Ones validiert oder korrigiert werden. Wie interagiert man aber mit einem Algorithmus? Welche Sprache spricht er und worauf stützt er seine Entscheidungen?

Was analog gilt, stimmt auch im Digitalen.

Der DIRK definiert die wichtigste Aufgabe der Investor Relations so: „Durch transparente und konsistente Information das „Schätzrisiko“ im Kapitalmarkt zu reduzieren und eine „faire Bewertung der Aktie“ zu ermöglichen“. Das Gleiche Mantra gilt uneingeschränkt in der Welt der datengestützten Investitionsentscheidungen. Daten sind Informationen, die in Höchstgeschwindigkeit durch die globalen Netze fließen und für die Ewigkeit gespeichert werden. Auch falsche Daten sind Informationen, die sich erstaunlich lange halten können. Die Frage ist, wem das auffällt und wer es korrigiert. Mit der starken Zunahme „nachhaltiger“ Investments und der wachsenden Menge „passiven“ Geldes am Eigenkapital werden die beschriebenen Aufgaben im ESG-Kontext an Relevanz deutlich zunehmen.

Broker berichten, dass die Buyside immer stärker internes Expertenwissen aufbaut, um die verfügbaren ESG-Informationen ihrer Portfoliounternehmen zu analysieren und um eigene Rückschlüsse zu ziehen. Das Vertrauen in die großen Rating-Agenturen scheint zu erodieren, da Stichproben und Tests mangelhafte Qualitäten oder veraltete Datenpunkte gezeigt haben. Wurden vor nicht allzu langer Zeit noch die Aussagen und Scores der Rating-Agenturen als führendes Element einer Selektion gesehen, ändert sich das gerade fundamental. Interne Assessments werden mit den verfügbaren Ratings nur noch abgeglichen und plausibilisiert. Zusätzlich scheint auch der Trend zum Dialog wieder zuzunehmen, in dem die Analysen der Buyside mit den betroffenen Unternehmen diskutiert werden und dabei mögliche Zukunftsaspekte, die im aktuellen Datensatz noch nicht vorhanden sind, berücksichtigt werden. Auf jeden Fall ist zu hören: „Core metrics count!“. Es geht um die reinen, unverfälschten und nicht aggregierten Zahlen, z.B. über CO2-Ausstoß oder Wasserverbrauch. Also ist doch alles nicht so schlimm? Schließlich kann man noch miteinander reden. Wir sollten nur bedenken, dass wir uns hier eher in der reaktiven Rolle befinden und antworten können, wenn wir gefragt werden. Ursächlich sind die Analysen, mit denen wir konfrontiert werden.

Neben der klassischen Herangehensweise wird im ESG-Spektrum schon mit einem ganz neuen Verfahren experimentiert: KI-gestützte Sentiment-Analysen. Noch nie gehört? Berichtsdaten von Unternehmen sind in der Regel „strukturiert“. Das macht es einfach, sie schnell in Datenbanken oder Tabellen zu verwalten, zu sortieren und auszuwerten. Unter anderem können das Werte für CO2-Ausstoß, Wasserverbrauch, Müllvolumen und andere in einer Berichtsperiode sein. Ersteller und Eigner der Daten sind in der Regel die Unternehmen selbst. Sentimentanalysen stützen sich auf „unstrukturierte“ Daten wie Nachrichten, Blogeinträge oder Social-Media-Posts und versuchen, diese mittels künstlicher Intelligenz auf Aussage, Tonalität oder versteckte Informationen zu durchleuchten. Naturgemäß kann die Herkunft solcher Informationen sehr heterogen sein und ist vom Unternehmen schwer zu kontrollieren. Viele Unternehmen im sogenannten „Experience“-Sektor konzentrieren sich bereits darauf, möglichst viele Quellen anzuzapfen und daraus Signale abzuleiten, dies vorranging in der Werbung und im Vertrieb. Mittlerweile werden KIs aber auch mit dem Anspruch trainiert, ESG-relevante Informationen aus dem Grundrauschen des Netzes herauszufiltern und den Entscheidern als Investitionsargument zusätzlich zu den Berichtsdaten an die Hand zu geben.

Guter Rat ist teuer. Wo soll man anfangen?

Es sollte im ureigenen Interesse von Unternehmen sein, zuerst die Qualität und Vollständigkeit, und damit die Deutungshoheit über die veröffentlichten ESG-Daten auf dem Weg zum Empfänger, zu sichern. Stichwort: „Schätzrisiko“ minimieren. Im Vergleich zu den klassischen Finanzkennzahlen klafft im Nachhaltigkeits-Umfeld jedoch noch eine gewaltige Lücke. Und dabei reden wir hier nur von den strukturierten, vom Unternehmen veröffentlichten Daten. Aufgrund mangelnder Standardisierung und der hoch-dynamischen Entwicklung bei den ESG-Frameworks, erscheint es wie ein Kampf gegen Windmühlen für die Kolleginnen und Kollegen in den betroffenen Abteilungen. Einhundert Standards sind so gut wie kein Standard. Diese Entwicklung gilt es genau zu beobachten und über interne Wesentlichkeitsanalysen die richtigen Prioritäten festzulegen. Welches Framework ist heute und welches zukünftig für mein Unternehmen relevant? Welche Drittdatenbanken werden von Investoren bevorzugt herangezogen, welche nicht? Kenne ich die ESG-Analysten meiner Buyside und deren Vorgehensweise?

Machen Sie klar, warum Sie welche Frameworks für Ihr Unternehmen gewählt haben und richten Sie Ihre Berichterstattung darauf aus. Aus eigener Erfahrung im Rahmen des Integrierten Berichts der SAP kann ich nur bestätigen, dass eine heterogen besetzte Arbeitsgruppe aus IR-, Accounting- und Nachhaltigkeitskollegen ein zielführender Ansatz sein kann, diesem Problem zu begegnen.

Mein Appell: Beschäftigen Sie sich mit dem Fluss Ihrer Daten. Prüfen Sie regelmäßig die folgenden Aspekte:

Ich hoffe, dieser kleine Exkurs hat ein wenig die Sinne geschärft und klar gemacht, dass wir uns bereits mitten in einem dynamischen Prozess befinden. Datenqualität und deren Deutungshoheit werden Schlüsselfaktoren in moderner Investor Relations-Arbeit sein. Es gibt kein Zurück. Die Zukunft ist schneller da, als Sie glauben.

1Global Reporting Initiative
2 Carbon Disclosure Project
3 Task Force on Carbon related Financial Disclosure
4 Sustainability Accounting Oversights Board
5 World Economic Forum
6 International Sustainability Standards Board
7 Value Reporting Foundation