Warum Sie bei der Geldanlage mit KI vorsichtig sein sollten
Spätestens seit dem weltweiten Erfolg von ChatGPT ist der breiten Öffentlichkeit bewusst, dass die neuen Möglichkeiten der Künstlichen Intelligenz (KI) das Potenzial für Effizienzsteigerungen in einer Vielzahl von Branchen bieten. Das geht so weit, dass sich manche vorstellen können, sich bei der Verwaltung ihres Portfolios auf KI zu verlassen. Doch das ist keine gute Idee, vor allem, wenn man kein Experte auf diesem Gebiet ist. Erfahren Sie in unserem Artikel mehr zu diesem Thema.
Das Wichtigste in Kürze
|
KI wird zwar bereits seit einigen Jahren im Finanzbereich eingesetzt. Doch das Phänomen ChatGPT hat die Demokratisierung dieser Technologie zweifellos beschleunigt. Wie bei jeder anderen Technologie sollte man beim Einsatz von KI vorsichtig sein, vor allem, wenn man kein Experte ist. Es gilt, einen kühlen Kopf zu bewahren und kritisch zu bleiben, sonst kann es zu großen Enttäuschungen kommen. Auf keinen Fall sollte man sich ohne fachliche Beratung in dieses Abenteuer stürzen.
KI in der Finanzwelt
KI ist bereits fest in der Finanzwelt verankert. Handel, Vermögensallokation, Risikomanagement oder Kreditbewertung sind nur einige der Bereiche, in denen sie echte Effizienzgewinne ermöglicht. Nach Schätzungen des IWF werden sich die Ausgaben für KI im Finanzsektor bis 2027 auf 97 Milliarden US-Dollar verdoppeln.
Wie jede neue Technologie birgt KI nicht nur Chancen, sondern auch Risiken. Fachleute nehmen diese Risiken sehr ernst. Für Privatanleger ist es hingegen nicht einfach, die Herausforderungen zu verstehen, und manche legen eine übertriebene Begeisterung für KI-Tools wie ChatGPT an den Tag.
Eines der größten Risiken besteht darin, blind auf die Technologie und die Daten, die sie produziert, zu vertrauen. Dies gilt umso mehr, da zahlreiche „gebrauchsfertige KI-Lösungen“ auf dem Markt angeboten werden, die den Nutzern die Illusion vermitteln, alles zu können, einschließlich der Unterstützung bei der Verwaltung des eigenen Anlageportfolios. Wie riskant dieses blinde Vertrauen ist, lässt sich anhand eines fiktiven Beispiels verdeutlichen.
Eines der größten Risiken besteht darin, blind auf die Technologie und die Daten, die sie produziert, zu vertrauen.
Von der Euphorie zum Börsenkrach
Stellen Sie sich folgende Situation vor: Sie haben sich entschieden, eine KI-Software für die Verwaltung Ihrer Anlagen zu nutzen. Es handelt sich um eine fertige Softwarelösung, die Ihnen eine individuelle Anlageberatung auf der Grundlage eines Algorithmus verspricht, der sich an Ihre Bedürfnisse anpasst und sich auf eine große Menge qualitativ hochwertiger Daten stützt.
Während Sie nach neuen Anlagemöglichkeiten suchen, macht Sie die Software eines Morgens auf eine wichtige Information aufmerksam. Es geht um einen Trend, der eine Investition in vielversprechende Unternehmen ermöglicht. Im Wesentlichen erhalten Sie von der Software die Information, dass ein Unternehmen – mithilfe von KI – Tausende von Gesprächen mit Geschäftsführern sowie Unternehmensergebnisse analysiert und verglichen hat. Eine Analyse der Aktienkursentwicklung in Kombination mit einer Sprachanalyse ergab eine faszinierende Korrelation: Die Aktienkurse von Unternehmen, deren Führungskräfte häufiger „bitte“ oder „danke“ sagten, entwickelten sich besser als die anderer Unternehmen. Deshalb empfiehlt Ihnen die KI, massiv in die entsprechenden Unternehmen zu investieren. Da es sich um Unternehmen mit sehr unterschiedlichen Profilen handelt, hat die KI keine besonderen Vorbehalte. Sie bestätigt, dass es sich um eine sichere und profitable Anlageempfehlung handele.
Etwas später schlägt Ihnen die Software auch vor, in großem Umfang in Unternehmen mit starker CSR-Strategie zu investieren. Denn es könnte einen Zusammenhang zwischen verantwortungsvollen Kriterien und der Performance geben. So scheint die oben erwähnte Höflichkeit darauf hinzudeuten, dass die in der Studie untersuchten Unternehmen Wert auf soziale Aspekte legen. In den nächsten Wochen steigen die Aktienkurse der Unternehmen. Dies bestärkt Sie in Ihrem Entschluss, den Empfehlungen der KI zu folgen. Doch eines Morgens nehmen die Dinge eine unerfreuliche Wendung.
Die ersten Unternehmen mit höflichen Führungskräften, die von Ihrer KI identifiziert wurden, veröffentlichen ihre Ergebnisse, und diese fallen sehr schlecht aus. Daraufhin brechen ihre Aktienkurse ein. Sie wollen natürlich so schnell wie möglich verkaufen und aus den Investments aussteigen, aber Sie finden keinen Käufer. Wie sich zeigt, haben Sie keine persönliche Beratung erhalten. Vielmehr hat die Software einer großen Zahl von Anlegern die gleiche Empfehlung wie Ihnen gegeben. Auch sie haben der KI vertraut und massiv in Aktien der entsprechenden Unternehmen investiert, was deren Börsenkurse zunächst in die Höhe getrieben hat. Nach Veröffentlichung der Ergebnisse will niemand mehr diese Aktien kaufen. Alle wollen sie verkaufen und die Verluste sind enorm.
Zu dieser negativen Entwicklung kommt eine weitere Sorge hinzu. Die Panik an den Märkten führt zu einer allgemeinen Vertrauenskrise in Bezug auf CSR-Maßnahmen, die nichts mit den oben erwähnten Unternehmen zu tun hat. Anleger halten CSR nun für Augenwischerei und trennen sich von den entsprechenden Papieren. Ein CSR-Börsenkrach steht unmittelbar bevor. Der Ausgang ist ungewiss, da eine Vielzahl von Akteuren betroffen ist. Was als Insolvenzrisiko einzelner Akteure begann, entwickelt sich zu einer systemischen Krise, die den gesamten Finanzsektor ins Wanken bringen könnte.
Wie konnte es so weit kommen? Wie konnte die KI so falsch liegen? Ganz einfach: Weil das identifizierte Muster zwischen der Höflichkeit einiger Führungskräfte und der Entwicklung ihrer Börsenkurse nur eine Scheinkorrelation war und keineswegs ein kausaler Effekt, der zuverlässige Aussagen über die Zukunft erlaubt. Es war eine schmerzhafte Lektion.
Bloße Korrelationen sollten keinesfalls als Richtschnur für Investitionen dienen.
Was uns dieses fiktive Katastrophenszenario lehrt
Sie halten dieses Beispiel für übertrieben? Es ist sowohl realistisch als auch plausibel. Erstens hat die US-Analysefirma Prattle mithilfe ihrer Software zur Verarbeitung natürlicher Sprache tatsächlich eine Korrelation zwischen Höflichkeit und Unternehmenserfolg entdeckt. Zweitens könnte ein kausaler Zusammenhang plausibel erscheinen, was wiederum zu einem weniger vorsichtigen Vorgehen führen könnte. Als Prattle seine Ergebnisse jedoch an die Markt- und Branchenbewegungen in den zwei Tagen nach den Ergebnisveröffentlichungen anpasste, war der Höflichkeitseffekt praktisch verschwunden. Es handelte sich nur um eine Scheinkorrelation, die keinesfalls als Richtschnur für Investitionen dienen sollte.
Damit die KI funktioniert, verarbeitet sie riesige Datenmengen, und wie man in der Statistik sagt: Je mehr man sucht, desto mehr findet man. Durch die Untersuchung der Funktionsweise von KI weiß man heute: Je größer die Datensätze sind, desto mehr willkürliche Korrelationen müssen sie enthalten. Diese Korrelationen entstehen einfach aufgrund der Menge der verarbeiteten Daten. Obwohl es sich um Scheinkorrelationen handelt, werden sie zur Prognose künftiger Marktentwicklungen herangezogen. Einige der so gefundenen Muster – Experten sprechen in diesem Zusammenhang von „Overfitting“ –, werden verwendet, um Strategien zu entwickeln, die kurzfristig zufällig funktionieren können, aber keinen langfristigen Erfolg garantieren.
Mit der Verbreitung von KI-Tools im Finanzbereich ist das Thema hochaktuell, da immer mehr Akteure, darunter auch Neulinge, mit Anlagevorschlägen von KI-Modellen konfrontiert werden und möglicherweise nicht in der Lage sind, deren Relevanz zu beurteilen. Scheinkorrelationen gibt es nicht erst seit dem Aufkommen der KI, sie bestanden schon immer an den Märkten. Deshalb überprüfen Finanzexperten immer die Relevanz gefundener Muster, bevor sie investieren. Wussten Sie beispielsweise, dass die Butterproduktion in Bangladesch stark mit den Renditen am US-Aktienmarkt korreliert? Heute ist nur der Mensch in der Lage, zu verstehen, wie absurd es wäre, eine solche Korrelation in einem Finanzprognosemodell zu verwenden.
Während Finanzexperten immer die Relevanz gefundener Muster überprüfen, bevor sie investieren, tun unerfahrene Anleger dies selten.
Risiken bis hin zur Gefahr einer systemischen Krise
Es ist wichtig, KI mit Bedacht einzusetzen und sich vor allem nicht leichtfertig auf die bereitgestellten Daten zu verlassen. Neben Scheinkorrelationen können auch andere Risiken durch KI entstehen.
-
- Garbage in, Garbage out. Wie das Beispiel der Scheinkorrelation zeigt, kann eine schlechte Datenqualität zu falschen Ergebnissen führen. In der Statistik spricht man von „Garbage in, Garbage out“: Wenn schlechte Daten in ein System eingegeben werden, kann man nicht erwarten, zuverlässige Ergebnisse zu erhalten. Viele KI-Modelle basieren heute auf Datensätzen, die von Menschen erstellt wurden und daher Fehler oder Verzerrungen enthalten können. Dies kann unter anderem dazu führen, dass Diskriminierungen oder Fehler aufgrund von Scheinkorrelationen, wie bei der Butterproduktion in Bangladesch, fortgeschrieben werden.
-
- Schwer zu durchschauende Black Boxes. Ähnlich wie neuronale Netze folgen einige hochentwickelte KI-Systeme einer eigenen Logik, die für das menschliche Gehirn nicht nachvollziehbar ist. Vieles ist nicht erklärbar. Dies stellt ein großes Problem für die Anpassung der Anlagestrategien dar. Denn unter diesen Bedingungen ist es unmöglich zu wissen, was man bei einer schlechten Performance ändern oder bei einer guten Performance mit einem anderen Modell reproduzieren soll. Es lässt sich auch nicht feststellen, ob der Erfolg der Strategie tatsächlich auf die Überlegenheit des KI-Modells und seine Fähigkeit, die zugrunde liegenden Zusammenhänge aus den verarbeiteten Daten zu extrahieren, zurückzuführen ist oder ob andere Faktoren dafür verantwortlich sind.
-
- Vom Herdenverhalten zur negativen Kettenreaktion. Durch massive Käufe oder Verkäufe von Händlern, die ähnliche KI-gestützte Modelle verwenden, könnten neue Risiken entstehen. Wie? Indem die Volatilität an den Märkten steigt und die Instabilität in illiquiden Phasen zunimmt. Der breite Einsatz derselben KI-Modelle könnte die Vernetzung der Finanzmärkte und -institutionen auf unerwartete Weise verstärken. Dadurch könnten Korrelationen und Abhängigkeiten zwischen Variablen, die zuvor nicht miteinander in Beziehung standen, potenziell zunehmen. Darüber hinaus könnte die Verwendung „gebrauchsfertiger“ Algorithmen durch einen Großteil der Marktteilnehmer zu Herdenverhalten, Konvergenz und starken Ungleichgewichten am Markt führen, was die Volatilitätsrisiken weiter erhöhen würde. Wenn es keine Marktteilnehmer gibt, die bereit sind, Gegenpositionen einzugehen, könnte dieses Herdenverhalten zu Illiquidität und sogar zur Entstehung neuer systemischer Risiken führen.
Der Mensch muss die Kontrolle behalten
Neben den Chancen birgt KI auch zahlreiche Risiken. Dies gilt besonders für Kapitalanlagen. Denn die Finanzmärkte sind von Natur aus instabil und eignen sich kaum für den Einsatz automatisierter Prognosemodelle, die auf Daten aus der Vergangenheit zurückgreifen, um die Zukunft vorherzusagen. Selbstverständlich wird die KI lernen, Fortschritte machen und sich anpassen. Allerdings übertrifft die situative Intelligenz von Menschen die der KI noch immer bei weitem, da sie aufgrund ihres Wissens in der Lage sind, insbesondere in unerwarteten Situationen fundiertere Entscheidungen zu treffen.
KI übertrifft die menschliche Intelligenz (noch) nicht. Wenn Sie KI in Ihre Anlagestrategie integrieren möchten, empfehlen wir Ihnen dringend, dies mithilfe eines erfahrenen Experten zu tun. Er ist in der Lage, die Vorschläge des KI-Modells in Bezug auf Datenqualität, Plausibilität, Zuverlässigkeit und Leistungsfähigkeit zu beurteilen. Es ist eindeutig nicht der richtige Zeitpunkt, ChatGPT mit der Verwaltung seines Rentensparplans oder seines Vermögens zu beauftragen. KI ist nicht per se schlecht. Doch unerfahrene Anleger sollten vorsichtig sein: Der Umgang mit dieser Technologie bleibt schwierig.